Interview diffusée dans l'émission CPU release Ex0194 : Surdité.
Parler de surdité est un défi à la radio. Car c'est un public qui ne peut accéder à la radio, mais aussi parce qu'on entend tout et n'importe quoi : par exemple, que 80% des sourds seraient illettrés selon une étude… jamais sourcée, et sûrement complètement fausse. (ce qui n'empêche pas des ministères de la citer).
Et d'un autre côté, lutter contre la surdité a amené un nombre incroyables de stratégies et de technologies. De la création des différentes langues des signes, au sous-titrage en temps réel avec reconnaissance vocale.
Nous connaissons quelqu'un qui parle régulièrement de sa surdité, et qui nous fait découvrir beaucoup sur le sujet afin de nous sensibiliser. Nous recevons donc par satellite Sophie Drouvroy :
- Responsable Front, Qualité et Accessibilité web chez Numerik-EA,
- Auteure d'un mémoire sur l’accessibilité et l’internet des objets,
- Précédemment chargée de communication numérique pour une députée à l'Assemblée Nationale,
- Et ultra-dynamique ex-membre du staff des conférences Paris-Web.
- Interview, première partie :
- Da Scritch : Sophie, bonjour.
- Sophie :Bonjour, merci pour l'invitation.
- Da Scritch : Eh oui, on se parle directement mais on va expliquer le dispositif, exceptionnellement donc on communique via Google Hangout à la fois pour la qualité de la transmission sonore mais aussi parce que toi tu as un petit bonus !
- Sophie : Oui, on est passés par Google Meet pour avoir une vidéo, enfin une visio sous-titrée pour que l’on puisse communiquer plus facilement avec toi car si j’avais communiqué uniquement par téléphone, ça aurait été drôlement compliqué parce que j’ai besoin de voir les gens pour communiquer comme je lis sur les lèvres. Et voilà.
- Da Scritch : La première question me gêne un peu à poser, et pourtant, elle est importante pour la suite de l'interview : Est-ce que tu es sourde de naissance ?
- Sophie : Oui, je suis sourde de naissance
- Da Scritch : Et tu es pourtant oralisante…
- Sophie : Oui, j’ai appris à parler. Ma surdité a été découverte quand j’avais 6 mois et mes parents on ne leur a pas trop laissé le choix au final c’est à dire qu’on leur a dit :
Si vous voulez que votre fille parle, il faut lui parler et pas pratiquer la langue des signes
. Parce que par exemple, à l’époque, donc il y a 40 ans, on ne préconisait pas forcément la langue des signes. Donc mes parents, ils parlaient avec moi, j’ai appris à parler comme ça, en répétant, en parlant et en faisant beaucoup d’heures d’orthophonie également pour apprendre à parler. - Da Scritch : Encore une belle décision de l’administration française de remettre en cause une invention française : la langue des signes. Oui, c’est une invention française. Un point qui est important à expliquer à notre audi-lectorat est qu'il existe plusieurs types de surdité. Quelle a été la tienne, spécifiquement ?
- Sophie : Il y a plusieurs types de surdité : la surdité légère, surdité moyenne, surdité sévère et surdité profonde. Il y a 4 types de surdité. Ma surdité est sévère et au fur et à mesure j’ai vieilli, car oui on vieillit tous malheureusement. Ma surdité est passée de sévère à profonde. Profonde, ça veut dire que sans appareils, je n’entends pas les gens parler. Enfin quand on n’a pas les appareils, on pourrait entendre un 747 décoller à 100 mètres de soi. Sinon je n’entends rien, rien, rien…
- Da Scritch : Comment es-tu venue à l'informatique ?
- Sophie : Alors comment je suis venue à l’informatique ? C’est très simple, mon papa était infographiste à l’époque. Et il avait monté une entreprise avec un associé et un jour il m’a emmené avec lui au travail. C’était un samedi. Il n’y avait rien à faire dans son bureau. Il m’a mis devant un ordinateur et puis j’ai regardé comment ça marchait.
Puis j’ai commencé à prendre la souris et ça m’a bien plu et quand on est rentrés à la maison, je lui ai dit :Ben, papa, j’aimerais bien qu’on ait un ordinateur à la maison
. Et un jour, il a ramené un ordinateur à la maison. Et de fil en aiguille, j'en suis arrivée à aller m’acheter des magazines dans les kiosques de presse.
À l’époque, il y avait des disquettes avec les magazines, il y avait des lignes de code qu’on pouvait récupérer et qu’on mettait dans son ordinateur. Donc à l’époque j’avais un Atari ST 1024, donc c’était une belle bête. J’ai commencé à coder comme ça, et de fil en aiguille, j’ai progressé. - Da Scritch : Toute une génération ! Et comment en es-tu venue à sensibiliser aux soucis d'accessibilité ?
- Sophie : Quand j’ai rencontré mon conjoint, on en est arrivés, enfin c’est comme ça que ça a commencé en fin de compte, parce que je ne m’étais jamais vraiment posé la question de la problématique de l’accessibilité. C’est vraiment en rencontrant quelqu’un qui me dit… parce que on aimait bien regarder des films tous les deux, et moi je les regardais en version originale parce que c’était sous-titré, et lui il les regardait en version originale parce qu’il aimait bien entendre l’anglais et voir le français écrit.
Et un jour, il me dit :Non, mais tous les films sont sous-titrés
. Et là je le regarde, je lui dis :Mais non, ce n’est pas possible, il n’y a pas 1/3 des films qui sont sous-titrés
. Et à l’époque, je me rappelle il avait une commode avec des cassettes VHS, il les avait toutes enregistrées et il me dit :Tiens on va regarder dans mes cassettes qu’est ce qui est sous-titré et qu’est ce qui n’est pas sous-titré
. Et bien, on a fait le tri de toutes les cassettes qu’il avait. Sur les 4 tiroirs de la commode, il y avait la moitié d’un tiroir qui était sous-titrée. Et c’est là où on a fait le constat, où on s’est rendus compte que finalement il n’y avait quasiment pas d’accessibilité. De fil en aiguille, on s’est tous les deux intéressés à ce truc-là, parce qu’on s’est dit, il y'a quelque chose à faire.
Et moi, j’étais souvent sur internet. Je me disais mais, par exemple… Enfin, je me suis vraiment intéressée à l’accessibilité à partir du moment où il y avait des vidéos qui sont arrivées sur internet. Parce que ce n’était pas sous-titré. Alors que ça commençait à être sous-titré à la télé ! Et pas sur Internet.
Et là j’ai commencé à faire un site internet qui s’appelait medias-soustitres.com, sur lequel je recensais toutes les émissions télévisées qui était sous-titrées à l’époque (c’était vraiment avant que la loi de 2005 soit votée), Il y avait vraiment un listing de ma part, où il y avait vraiment, comment je peux dire…, où je recensais toutes les émissions sous-titrées, à l’époque et de fil en aiguille ça a progressé comme ça, le listing. Et par extension, je me suis dit, ben il n’y a pas que les sourds, il ya aussi les aveugles et tous les autres handicaps. C’est comme ça que je suis arrivée à m’intéresser à l’accessibilité. - Da Scritch : Comment vivais-tu les technologies assistives à la surdité ? Le sous-titrage, l'interprétariat en visio ? C'était facile à mettre en oeuvre ou bien à chaque fois il fallait arriver à le demander ?
- Sophie : Disons que quand la vidéo est arrivée sur Internet, ça a été compliqué au départ. Parce que rien n’était sous-titré. Les gens, leur premier réflexe c’était :
Ah ben tiens, je peux me filmer, je vais me filmer et puis c’était réglé
. Enfin, ils ne se posaient pas la question de savoir s’il y avait du sous-titre, s’il y a avait des alternatives textuelles ou des transcriptions, enfin ça se posait pas la question à l’époque. Et donc, les sous-titres sont arrivés petit à petit sur YouTube par exemple, et puis après il y a eu le sous-titrage automatique.
Alors le sous-titrage automatique, encore une fois, c’est une technologie, qui encore aujourd’hui est perfectible. Parce que ce sont des choses qui ne sont pas vraiment… c’est automatique mais il y a, comment je peux dire, il y a un travail humain à faire derrière pour que ça soit parfait, sinon on peut aller très vite dans le contresens, enfin bon, ce n’est pas toujours fidèle à la parole.
Et l’interprétation en visio, c’est quelque chose qui est assez nouveau, ce n’est pas si vieux que ça en fait. Je ne saurais pas dire la date, je ne peux pas dire mais ça a quand même été une avancée aussi. Quand j’y repense, entre 2005 et 2022, ben ça été long ! Encore aujourd’hui, c’est très long puisqu’il ya des nouvelles technologies qui apparaissent comme les réseaux sociaux, Instagram, Tiktok, et bien tous ces truc-là ne sont pas sous-titrés. En fait, à chaque fois qu’il y a une nouveauté, comment dire, on se l’approprie, c’est bien, on se dit,ah ben tiens, il n'y a pas d’accessibilité
. Et donc on en rajoute, et à chaque fois il ya une nouvelle technique qui arrive.
C’est toujours le même schéma, C’est nouveau et il faut qu’on rajoute des trucs à chaque fois. Là encore une fois Tiktok, c’est un réseau qui n’est pas vraiment accessible pour moi, par exemple. Bon après c’est pour les jeunes, moi je suis plus jeune donc … - Da Scritch : Et parlons justement de vues, de vision, quelles sont les limites de la Langue des Signes, la LSF ?
- Sophie : Alors encore une fois, ça va être un avis très personnel. Moi, je ne maîtrise pas totalement la LSF. Enfin je le maîtrise mais ce n’est pas ma langue maternelle donc je ne sais pas dire quelles sont les limites de la LSF. Je pense qu’il faut poser la question à quelqu’un à qui c’est vraiment sa langue maternelle. Moi, ce n’est pas vraiment ma langue maternelle donc c’est un peu compliqué de répondre à cette question.
Après on peut dire que la langue des signes m’a beaucoup aidée dans le sens où je pouvais communiquer avec des personnes qui avaient la même surdité ou qui n’entendaient pas avec qui j’ai pu échanger de manière facile et fluide. Alors c’est vrai que l’apprentissage de la langue des signes, c’est une autre histoire, parce que j’ai appris à parler d’abord. J’ai découvert la langue des signes, j’étais adolescente, j’avais 16 ans… - Da Scritch : Ah oui, c’est tard !
- Sophie : Et à 16 ans, on n’a pas trop idée d’apprendre la langue des signes en premier, on a d'autres choses à penser. Donc moi je l’ai vraiment apprise mais parce que j’étais un peu dans la contrainte aussi, je ne le regrette pas aujourd’hui. Mais sur le coup ça a été difficile, parce que c’était quelque chose de nouveau et il fallait que je l’apprenne, parce que j’étais dans un établissement où mes camarades parlaient en langue des signes.
Si je voulais me faire des amis, il fallait que je parle la langue des signes à la récré ou pendant la pause déjeuner. Ce n’était pas toujours évident, mais je dois dire que j’ai fait des belles rencontres et ça c’est plutôt positif. Après oui, pour en revenir à la questionLes limites de la LSF
, je ne peux pas répondre vraiment à la question. - Da Scritch : Je t'ai rencontrée et découverte à Paris Web, où tu montrais une énergie folle, Paris Web, c'est un cycle de journées de conférences avec une forte part sur l'accessibilité et l'inclusivité, et où les conférences sont traduites en LSF et sous-titrées en direct. La première fois que tu es allée à Paris Web, comment as-tu vécu ce travail d'accessibilité sur les conférences elles-mêmes ?
- Sophie : Alors c’était un moment très fort, parce que, si j’ai bien en tête, je crois que c’est 2010, quand j’y suis allée, 2011. C’était un moment très fort car la première année où j’y suis allée c’était en 2011. Et en 2010, c’était mon conjoint qui y était allé, et à ce moment-là, il n’y avait pas de langue des signes, et il n’y avait pas de vélotypie en direct.
- Da Scritch : On explique la vélotypie : c’est des gens qui au clavier font la transcription en temps réel pour pouvoir faire le sous-titrage en temps réel des textes.
- Sophie : C’est ça. La vélotypie en fait, il y a une personne qui tape ce qu’elle a entendu, il y en a une deuxième qui va corriger ce que la première personne a tapé, et il y en a une troisième qui va valider la phrase qui a été transcrite et qui va être envoyée.
Quand mon conjoint y a été en 2010, il n’y avait pas de vélotypie ni de traduction en langue des signes et je lui avais dit :mais pourquoi toi, tu as le droit et pas moi ?
J’avais passé la question sur twitter à l’association de Parisweb en direct. Parce que à l’époque on pouvait écrire directement à l’association et il y avait un mur qui s’affichait sur l’écran, enfin sur euh… - Da Scritch : Oui, car il y avait le flux twitter qui concernait l’association était projeté sur grand écran.
- Sophie : Il y a avait le flux twitter qui était projeté directement sur la chaine, et à ce moment-là, j’ai envoyé deux tweets. J’ai envoyé un message à mon conjoint en lui disant :
essaye de choper le micro et pose la question directement pourquoi ce n’est pas sous-titré en direct et pourquoi il n’y a pas de langues des signes.
Mon mari, qui, comment dirais-je, qui arrive quand même à prendre la parole dans des moments un peu difficile, a quand même réussi à poser la question en direct à l’association qui, elle, s’est rendu compte qu’effectivement, c’était un peu dommage qu’une association de ce type n’ait pas d’accessibilité alors qu’elle promeut les standards du web et l’accessibilité.
Du coup, l’équipe m’a écrit l’année suivante, enfin suite à l’édition, l’équipe m’a écrit en me disant :On est vraiment désolés, on va faire ce qu’il faut, bon…
L’année d’après, ils me recontactent en me disant :ça y est, on a trouvé les sponsors pour faire du sous-titrage et de la traduction en langue des signes.
Et je leur dis :Génial, je viens !
et là ils me disent :Mais tu sais, tu pourrais proposer une conférence.
Et là j’ai proposé une conférence à Paris Web, en disant voilà je vous propose une conférence qui était sur le sous-titrage d’ailleurs, à l’époque. Mon sujet a été choisi, et donc la première fois que je suis venue à Paris Web, ben j’ai fait une conférence, pour la première fois de ma vie, en plus.
Ça s’est super bien passé. C’était un truc vraiment incroyable pour moi. Ça a vraiment… Je crois que c’est un évènement qui a vraiment eu un moteur et un impact aussi sur ma vie professionnelle. - Da Scritch : Sophie tu ne bouges pas, on fait une pause musicale, on va souffler un petit peu, je suis désolé je vais casser un petit peu l’ambiance avec le morceau que je vais passer.
- Interview, deuxième partie :
- Da Scritch : Vous écoutez Radio FMR, c'est CPU, l’émission carré, petit, utile et nous sommes avec Sophie Drouvroy pour parler surdité. Alors, on vient d'entendre Hoshi, dans une chanson émouvante, où elle annonce sa future surdité, chanson qui a été reprise par nombre de personnes sur Youtube en langue des signes. Excuse ma totale absence de sensibilité en tant qu'animateur radio et développeur web qui plus est valide, mais… Que peut-on dire à quelqu'un qui va perdre l'usage de son oreille ?
- Sophie : Compliqué, question compliquée, qu’est-ce qu’on peut dire … On ne peut pas dire que ça va bien aller, c’est un peu compliqué … Quelqu’un qui a perdu l’usage de son oreille, ben ça va aller, ça va être difficile, mais ça va aller. Il faut se faire appareiller, et je ne sais pas quoi dire en fait …
- Da Scritch : On peut dire que l’avantage c’est qu’elle entendra moins de choses désagréables ?
- Sophie : Pas sûre que ce soit une bonne chose [rires]. Non, je suis pas sûre que ce soit une bonne chose, euh… Comment je peux dire ça… En fait si, je peux comprendre à moitié ce qu’elle a vécu…
Moi je suis née sourde donc je ne sais pas ce que c’estentendre
. Par contre, ce que je sais c’est la… ce que je peux comprendre c’est la souffrance qu’on peut avoir quand on perd l’audition. Parce que, moi en étant sourde sévère, je suis passée à une surdité profonde, où je n’entendais plus rien avec mon appareil. Donc je peux comprendre le fait de ne plus entendre, de se dire qu’on va être dans un silence éternel, enfin pas éternel mais dans le silence pour toujours… Ça, je peux le comprendre.Ça va aller
, c’est ce qu’on peut dire à quelqu’un, c’est très difficile sur le coup mais ça va aller car aujourd’hui il y a quand même beaucoup d’aide techniques qui peuvent nous permettre d’entendre : il y a les appareils, il y a les implants, les implants cochléaires pardon, il y a des aides techniques, donc comparé à il y a 40 ans où on ne pouvait pas… téléphoner c’était compliqué. Aujourd’hui on a les SMS, on a les e-mails, non je crois que le plus dur, c’est d’accepter qu’on va perdre quelque chose. C’est ça, le plus dur.
Que ce soit une surdité ou autre chose, le plus dur c’est d’accepter la perte d’un sens. Mais automatiquement, on va développer d’autres sens. Moi par exemple, je n’entends pas mais j’ai développé le toucher par exemple. Le toucher est vachement sensible, l’odorat aussi. Il y a des choses qu’on va développer, et … je ne sais pas si c’est une bonne réponse en fait… - Da Scritch : Qu'est-ce qui est le plus excluant en étant sourd ? Ne pouvoir comprendre ou ne pouvoir intervenir ?
- Sophie : Les deux parce que je n’aime pas ne pas pouvoir comprendre, et je n’aime pas ne pas pouvoir intervenir donc c’est, pour moi c’est les deux. Ne pas pouvoir comprendre quelque chose qui est pour tout le monde par exemple, ça créé de la frustration et ce n’est pas forcément génial.
Après ne pas pouvoir intervenir, ça veut dire qu’on ne peut plus donner son avis. On est plus traité comme une personne à part entière, c’est quelque chose de terrible, de pas être traité comme une personne à part entière. Donc les deux… - Da Scritch : Sophie, tu as décidé de te faire appareiller, c'est-à-dire te faire poser une oreille bionique, on peut dire ça comme ça, ça fait plus rêver ! Que peut-on dire à une personne qui va découvrir l'audition ?
- Sophie : Moi j’ai choisi de me faire poser une oreille bionique oui, mais j’ai choisi deux oreilles bioniques, parce que je trouvais que c’était plus marrant en fait… non je rigole.
Non le plus important pour moi, c’était d’avoir quelque chose de vraiment équilibré sur les deux oreilles. J’ai perdu l'ouïe d’un côté complètement, et je me suis dit, ben l’autre va me lâcher aussi donc je fais les deux en même temps et c’était plus simple, pour moi en termes de logistique, d’opération, tout ça, de rééducation.
Après quelqu’un qui va découvrir l’audition, ça dépend dans quel sens on en parle… Si c’est découvrir l’audition qu’on est enfant ou quand on est adulte, ce n’est pas la même chose. Un enfant va l’assimiler comme quelque chose de naturel, puisqu’il aura toujours été comme ça. Un adulte qui va découvrir l’audition, ça va être quelqu’un qui par exemple a déjà entendu et qui va être implanté par la suite. Il va redécouvrir des sons qu’il avait, qu’il entendait plus.
Alors moi, j’ai des personnes comme ça que j’ai déjà rencontrées qui m’ont dit :Mais moi, en me faisant opérer, j’ai redécouvert le chant des oiseaux
. Alors je leur disais :Ah bon ?
, en fait c’était à l’époque où je n’étais pas implantée. Je leur disais :Mais comment c’est possible d’entendre les oiseaux ?
. Et les gens me disaient :Bah oui, mais on redécouvre des sons qu’on a perdu de vu.
- Da Scritch : Et quelles furent tes premières sensations une fois opérée ?
- Sophie : Alors ça dépend dans quel laps de temps.
- Da Scritch : Ben justement…
- Sophie : Si on prend le laps de temps où c’était dans les heures qui ont suivi mon réveil. Je dois dire que j’ai eu la tête très lourde, j’ai eu l’impression d’avoir eu un rouleau-compresseur qui m’était passé dessus.
J’avais la tête “comme ça”. Après, si je dois prendre le laps de temps à trois semaines, j’étais dans le silence complet, parce que je n’avais pas encore reçu mes deux implants, donc il fallait quand même un temps de cicatrisation, ça a été assez long. Non ce n’était pas…, bon il y avait quelque chose de plus, ça ne m’a pas gênée plus que ça … - Da Scritch : Quel a été le premier son qui t’a émue ?
- Sophie : C’était la voix de mon mari et de mon fils. Pourquoi ? Parce qu’ils avaient tous les deux la même voix. Alors un homme et un enfant qui parlent en même temps ça fait bizarre, parce que c’est deux fois la même chose et ça fait vraiment bizarre. C’est quelque chose de… c’est le premier son bizarre je dirais.
Après le son qui m’a le plus surpris, si je peux me permettre de rajouter deux trois trucs… le premier son qui m’a vraiment surpris, c’est d'entendre l’eau couler dans les tuyaux du radiateur : j’entendais leglou glou glou
dans la canalisation, je me disais :ce n’est pas possible il y a un problème, là c’est trop fort…
- Da Scritch : Je te confirme qu’il y a peut-être un problème dans le chauffage central
- Sophie : [rires] Non le truc qui m’a vraiment touchée, c’est le chant des oiseaux. Alors au début,c’était vraiment un bruit pour moi parce que je n’arrivais pas à faire la différence entre les pies et les moineaux par exemple. Aujourd’hui, c’est quelque chose que j’ai appris à apprécier.
Alors vraiment il y a des moments où je me dis que mais ce n’est pas possible, ils ne s’arrêtent jamais quoi ! Mais oui on m’a bien confirmé qu’un oiseau ne s’arrêtait pas de chanter qu’en y en avait marre, qu’il n’y a pas de bouton on/off. Ça chante et faut faire avec. Mais moi, le son qui m’a vraiment émue, c’est le chant des oiseaux. Je ne pensais pas que ça pouvait aller aussi loin, dans ces détails sonores. - Da Scritch : Y’a eu un travail de ré-adaptation ?
- Sophie : Ah oui, Ah oui.
- Da Scritch : J’ai crû comprendre en lisant ton blog que tu as revu plusieurs fois l'audioprothésiste pour affiner les réglages, et qu'au début d’ailleurs, c’était douloureux et qu’après ça s’est arrangé.
- Sophie : Alors oui il y a eu un travail de réadaptation, parce que quand on se fait implanter, en fait on a, si vous voulez, l’opération consiste à intégrer des électrodes dans la cochlée qui font qu’elles retransmettent un son électriquement au cerveau. Et donc les sons que l’on reçoit par le biais, par un stimuli électrique, l’audition n’est pas la même.
Donc par exemple avant on entendaitba ba ba ba
, eh bien avec les implants, la première chose qu’on entend c’estbip bip bip
. Ce sont des bruits électriques qu’on entend, c’est des bruits métalliques, c’est froid, ce n’est vraiment pas agréable. Enfin, pas agréable…
Quand on n’a jamais entendu, on fait avec et on se dit,ah ben tiens il y a un bruit, c’est nouveau
et puis… Ah oui il a fallu que je revoie plusieurs fois, enfin que je retourne plusieurs fois à l’hôpital pour pouvoir faire les réglages.
Parce que justement, j’avais une exigence au niveau des oreilles, de manière que ce soit réglé le plus précisément possible. Donc j’avais, on me l’a toujours dit mais à l’hôpital, on sait ce que tu veux et on sait où tu veux en arriver. Et à chaque fois je leur disais :mais là ça ne va pas, c’est trop fort, ce n’est pas assez fort
et donc la personne que j’avais en face de moi ne comprenais pas forcément mon besoin et ce n’était pas simple parce que, d’une part moi je ne savais pas trop comment lui expliquer et elle ne savait pas trop comment interpréter mes propos.
Alors que c’est vrai je n’étais pas, comment dire, je ne me laissais pas aller avec les réglages, je leur disais :Non mais ça ne va pas là c’est trop fort, ou, il y a trop d’aigus, il y a trop de grave
. À un moment donné, il a fallu trouver les bons réglages, et donc j’ai changé de personne qui faisait les réglages, et là j’ai, en fait j’avais vraiment besoin de quelqu’un qui comprenait la surdité comme elle était.
Et à partir de ce moment-là ou j’ai eu le bon contact avec la personne qui faisait les réglages, on s’est tout de suite compris et la ça allait de mieux en mieux, j’ai pu affiner les réglages comme il fallait. - Da Scritch : Sophie, je te propose que l’on se regarde en silence pendant que la régie passe une petite coupure musicale. Ne bouge pas.
- Interview, troisième partie :
- Da Scritch : Vous écoutez Radio FMR, c’est CPU, l’émission carré petit utile et nous sommes avec Sophie Drouvroy, pour parler surdité. Sophie, après ton opération, t'es-tu aperçue d'imperfections sur les technologies d'accessibilité à ce moment-là ?
- Sophie : Ben oui, toute technologie a des imperfections, donc déjà malheureusement, oui il ya des limites. Donc déjà quand j’ai eu mes implants en fait je me suis retrouvé face à un mur de sons énorme. Il y avait toutes les fréquences : les graves les aigus, les moyens. Et c’était un truc énorme pour moi parce que comme je n’entendais pas les aigus avant, he ben, tous les sons que j’avais été étouffés.
C’est comme si…, qu’est-ce que je peux donner comme image, c’est comme si…, on ne peut pas comparer ça avec des lunettes mais c’est comme si… vous aviez des lunettes mais que vous ne voyez pas… non mais ce n’est pas la bonne analogie. Moi, là où ça a été difficile, c’est que je me suis rendue compte, qu’il y avait tellement de sons, mais que mon cerveau, lui, n’était pas préparé à l’analyse de tous ces sons, qui sont arrivés par le biais de mes appareils.
J’avais… comment on pourrait dire, trop de détail tue le détail. C’était énorme. Déjà, la quantité qu’on peut avoir, moi je me disais mais comment on peut entendre autant de choses, c’était un truc énorme.
Après, il y a d’autres limites, enfin d’autres, après il ya d’autres choses que je regrette un peu, c’est que par exemple aujourd’hui, avec la dernière version des implants, en fait, ils peuvent être, ils sont connectés.
Donc forcément ils sont connectés par le biais du téléphone en bluetooth, et donc là je me dis que oui, est ce qu’il ya assez de sécurité, est-ce que… parce que mes implants, on peut les traquer, on peut les localiser. Et donc là c’est problématique, parce que je me dis mais alors si quelqu’un me pirate mon téléphone, il peut localiser aussi mes implants.
Il y a tout un scénario qu’on peut se faire dans la tête en disant :bah oui mais par exemple, le RGPD, la localisation, les données personnelles, toute truc là, comment ça se passe ?
Parce que moi j’ai posé la question au fabricant je n’ai jamais eu de réponse. J’ai posé la question à l’hôpital, on m’a dit :Oui mais c’est important, pour pouvoir faire des statistiques, sur les aides, comment ça évolue machin…
. Ok je veux bien comprendre que ça puisse contribuer à la recherche, à l’amélioration.
Mais qu’est ce qui me garantit que mes données personnelles sont vraiment protégées ? Je n’ai pas la réponse. - Da Scritch : Et que ton intimité surtout est respectée.
- Sophie : Oui ! C’est pareil, à chaque fois que je vais faire mes réglages, le régleur sait combien de temps les appareils ont été allumés, combien e temps j’ai entendu. Si j’ai entendu dans un environnement calme, bruyant, ou autre. Il peut savoir combien de temps mes deux antennes d’implants ont été connectées ensemble. Il peut savoir que j’ai activé l’oreille gauche ou l’oreille droite. Ben c’est déjà pas mal.
Donc bon, ça c’est quelque chose qui m’a un peu perturbée quand j’ai eu mes implants, parce qu’au début on me disait :Ah c’est bien, tu as mis tes implants assez longtemps
alors c’est vrai que j’ai une capacité à les mettre très longtemps. Donc en fait, je les mets quand je me réveille et je les enlève quand je me couche.
Ce qui veut dire quand même que je fais de grandes journées, hein, je fais des journées de 8 h, donc la capacité de port elle est de… enfin, je ne vais pas donner de chiffres mais elle est assez grande pour que les régleurs me disentAh oui, tu les as porté longtemps
. Sur une journée de 24 h, j’en ai au moins la moitié, déjà… - Da Scritch : Ça restera qu’entre nous, que les bars sont bruyants jusqu’à deux heures du matin [rires]
- Sophie : Oui, non les bars sont bruyants, je confirme. Et, dans les bars ce n’est pas super, on ne peut pas comprendre les gens avec qui on discute. Il y a trop de bruits dans ces bars en dehors des verres qui trinquent, tu as des gens qui dansent, c’est trop bruyant… Ce n’est vraiment pas un environnement que j’aime.
- Da Scritch : Sois rassurée pour les entendants aussi des fois, c’est compliqué ! Sophie, tu es sourde oralisante, et c’est pour ça qu’on peut faire cette interview justement aussi facilement, est-ce que l'opération t'a permis de mieux te faire comprendre ?
- Sophie : Oui. Oui parce que comme j’entends mieux, j’entends ce que je dis. Donc forcément ma voix a évolué par rapport à il y a cinq ans.
Puisque maintenant ça va faire cinq ans que j’ai été opérée. J’ai une voix qui est différente, qui est beaucoup plus, enfin je ne sais pas comment on peut dire ça mais, plus audible, plus fluide. Et c’est vrai que beaucoup de personnes m’en ont fait la remarque que j’avais une voix qui était beaucoup moins nasale. Alors, je ne sais pas si ça se ressent ou pas à la radio. Ben comme ça dépend de tout un truc, mais oui ma voix a changé depuis l’opération, tout simplement parce que j’ai récupéré les aigus que je n’avais pas avant. - Da Scritch : Est-ce que cela t'as remis en confiance ?
- Sophie : Oui et non. Oui et non parce que sur les cinq ans, j’ai quand même deux ans de COVID et les deux ans de COVID ont quand même été assez compliqué avec les masques. Et avoir des masques, ça n’a pas été une bonne chose en fait.
Les gens ne se rendent pas compte mais avoir des masques autour de soi, on se retrouve complètement empêchés de comprendre et ça c’est une chose que je n’aurais pas cru que ça ait un impact aussi important sur ma vie. C’est là ou je me suis rendue compte aussi avec le COVID, c’est que je me suis rendue compte que je comprenais plus de choses que je n’aurais pu imaginer.
C’est-à-dire aujourd’hui, quand je vois quelqu’un qui a un masque, je vais faire l’effort supplémentaire d’arriver à le comprendre sans le regarder. Eh oui, une fois sur deux ça marche parce que c’est des phrases qui sont assez courtes, ou c’est des phrases du quotidien.
Et ça permet, enfin ça permet, on peut dire ça comme ça, ça oblige à faire un effort supplémentaire, une suppléance mentale et donc je me suis rendue compte que j’entendais beaucoup mieux qu’avant, et que je comprenais beaucoup mieux aussi. - Da Scritch : Revenons sur un autre point de la technologie, de grandes entreprises travaillent sur des technologies assistives, par exemple Microsoft a annoncé cette année que ses lunettes de réalité augmentée (AR) auront une application de sous-titrage en temps réel. Qu’est-ce que tu en penses ?
- Sophie : Ben déjà il faudrait que j’arrive à les essayer. Je te l’ai dit, je veux bien être cobaye, pour les essayer, pour voir ce que ça peut donner.
- Da Scritch : Je pense que si tu viens à Paris Web, tu auras un contact pour te les prêter !
- Sophie : Peut-être, peut-être… Par contre j’ai déjà testé des lunettes, les Google Glass. Je suis allée au cinéma avec. C’était une cata, c’est quelque chose, après les lunettes de réalité augmentées, ce n’est peut-être pas tout à fait la même chose. Ça peut être évolué entre temps.
Mais les premières lunettes connectées que j’ai essayées, en fait quand tu es au cinéma il faut pas bouger la tête, parce que, tu as les lunettes, tu as le sous-titre sur ton verre, qui est à certain niveau de ton verre, et en fonction de ce que tu regardes sur l’écran, le sous-titre peut être en bas de l’écran, comme il peut être en haut de l’écran, ou si tu penches la tête sur le côté il est de travers.
Et ce n’est pas quelque chose qui va se remettre à l’horizontal automatiquement. Donc en fonction de comment tu vas être positionnée au cinéma, tu dois te caler physiquement, pour avoir le sous-titre au bon endroit où toi tu as décidé de l’avoir.
Donc je dirais que ma première expérience n’a pas été positive puisque j’ai failli m’en sortir avec un torticolis. Et quand tu es au cinéma, ben t’aimes bien te mettre comme tu veux, tu mets ton bras, enfin tu vois tu t’assois comme tu as envie et là, c’était pas possible. Mais je pense que ça peut être assez intéressant, dans le sens où, si on arrive à avoir une technique qui peut nous afficher les sous-titres en temps réel, il faut voir. - Da Scritch :CPU est une émission de radio disponible en podcast. La radio est le média à ma connaissance le moins facile à rendre accessible. Que pouvons-nous faire, à la mesure de nos moyens bénévoles ? Oui, je dis
bénévoles
parce que je ne suis pas Radio France ou je ne suis pas un gros groupe commercial. - Sophie : On ne sait jamais, peut-être que tu seras peut-être un gros groupe commercial un jour…
Ce que vous pouvez faire déjà, C’est proposer aux auditeurs qui veulent bien participer à la transcription de leur interview, par exemple. Ça c’est ma première piste.
La seconde c’est d’utiliser des outils de reconnaissance vocale. Il ya quelques outils de reconnaissance vocale qui marchent plus ou moins bien. Il faut les tester par rapport à la radio qu’on utilise, enfin il faut vraiment tester pour pouvoir juger de la qualité de la transcription qu’on veut obtenir.
Et éventuellement lancer un appel aux bénévoles en demandant s’ils veulent bien contribuer à l’inclusion de personnes sourdes et malentendantes. Par un appel en disant :hé, il y a ma copine qui voudrait comprendre les podcasts de CPU, ça serait bien que tu m’aides
. Enfin un truc comme ça … C’est vrai que moi les podcasts c’est quelque chose que je ne maîtrise pas du tout.
Les podcasts sont aujourd’hui une nouvelle technologie qui n’a pas son moyen d’accessibilité, à savoir qu’il n’y pas de transcription écrite pour les podcasts, en tout cas pas de manière automatique. Et qui le sera peut-être dans quelques années. Quand on aura évolué dans les différentes techniques comme pour la vidéo. Au début, la vidéo quand elle est arrivée, il n’y avait pas de sous-titres, aujourd’hui il y en a. Les podcasts ça va peut-être faire pareil, et ça va évoluer. Maintenant, comme je disais tout à l’heure, solliciter les personnes qui interviennent sur la radio, utiliser des reconnaissances vocales, ça c’est un moyen, après malheureusement je n’en ai pas trente-six milles… - Da Scritch : Je remercie infiniment, entre autres l'April dont l'équipe transcription a retranscrit certaines de nos émissions. Il y avait aussi Stéphane Deschamps qui avait transcrit sa propre interview. En tout cas Sophie, c’est vraiment un miracle technologique qu’on est arrivé à faire. Une première pour moi en 35 ans de radio. De faire une interview d’une personne sourde, qui plus est à distance, et qu’on y soit arrivé et que ce soit absolument fluide. Et puis surtout c’est un immense bonheur pour moi de te revoir, parce qu’on se connait. Cela montre justement que la technologie, là où elle est très belle, c’est qu’elle essaie en sorte d’être inclusive. Et donc il ne faut absolument pas oublier ce volet-là.
Mille merci Sophie. - Sophie : Merci à toi pour l’invitation.
- Da Scritch : Et peut être que cette émission, sera retranscrite. Donc vous retrouverez justement le dialogue en format texte sur la page web de l’émission : cpu.pm/0194. Et nous remercions infiniment ceux qui nous aide justement sur la préparation de cette émission.
Tchao.
Et je me permets de le faire en langues des signes. Et ça, il y a que nous qui pouvons le voir et pas nos auditeurs. - Sophie : C’est exactement ça alors pour l’expliquer pour les personnes qui nous entendent, en fait il faut ouvrir la main, la paume droite et la placer sur le menton et la diriger vers la personne qui est en face de vous, en faisant un signe qui va vers la personne pour lui montrer que, oui, on la remercie.
Ben oui, merci à toi pour l’invitation, ça a été vraiment un plaisir de faire cette interview. Ce n’est pas une grande première mais c’est quelque chose de mémorable et je pense que je m’en rappellerai longtemps. - Da Scritch : [rires] Mille mercis
Interview : Da Scritch.
Transcription écrite : Oxymore
Photo : Autoportrait fourni par le sujet. D.R.