s’ouvre dans une nouvelle fenêtre
COMMUNIQUÉ DE PRESSE 16 mai 2023

Apple lance de nouvelles fonctionnalités logicielles pour l’accessibilité cognitive ainsi que Live Speech, Personal Voice et Point and Speak dans l’app Loupe

De nouvelles fonctionnalités logicielles pour l’accessibilité cognitive, verbale et visuelle seront disponibles dans le courant de l’année
Les écrans d’accueil avec Assistive Access sur un iPad et un iPhone à côté d’un enregistrement Live Speech sur un autre iPhone.
Les nouvelles fonctionnalités d’accessibilité d’Apple, notamment Assistive Access et Live Speech, seront disponibles dans le courant de l’année.
CUPERTINO, CALIFORNIE Apple a présenté aujourd’hui en avant-première des fonctionnalités logicielles pour l’accessibilité cognitive, visuelle, auditive et motrice, ainsi que des outils innovants destinés aux personnes muettes ou susceptibles de perdre l’usage de la parole. Ces nouveautés s’appuient sur les avancées matérielles et logicielles, dont l’apprentissage automatique embarqué pour garantir la confidentialité. Elles renforcent l’engagement d’Apple de longue date à fabriquer des produits pour tous les utilisateurs. 
Apple travaille en étroite collaboration avec des associations représentant un large éventail de personnes en situation de handicap pour développer des fonctionnalités d’accessibilité qui ont un impact réel sur la vie des gens. Dans le courant de l’année, les utilisateurs souffrant de déficiences cognitives pourront utiliser l’iPhone et l’iPad avec plus de facilité et d’indépendance grâce à Assistive Access ; les personnes muettes pourront taper des textes à énoncer pendant leurs appels et conversations grâce à Live Speech ; et celles susceptibles de perdre l’usage de la parole pourront utiliser Personal Voice pour créer une voix de synthèse qui leur ressemble afin de communiquer avec leurs proches. Pour les utilisateurs aveugles ou malvoyants, le mode Détection de l’app Loupe proposera la fonctionnalité Point and Speak, qui identifie le texte pointé par la personne et l’énonce à voix haute pour l’aider à interagir avec des objets comme des appareils électroménagers.
« Chez Apple, nous avons toujours pensé que la meilleure technologie était celle qui convenait à toutes les personnes », a déclaré Tim Cook, CEO d’Apple. « Aujourd’hui, nous sommes ravis de dévoiler de nouvelles fonctionnalités incroyables qui prolongent notre action de longue date consistant à rendre la technologie accessible, afin que chacun ait la possibilité de créer, communiquer et faire ce qu’il aime. »
« L’accessibilité est prise en compte dans tout ce que nous faisons chez Apple », ajoute Sarah Herrlinger, senior director of Global Accessibility Policy and Initiatives d’Apple. « Ces fonctionnalités révolutionnaires ont été conçues en tenant compte des commentaires des associations de personnes en situation de handicap à chaque étape, afin d’aider les gens dans toutes leurs diversités et leur permettre d’interagir de façons inédites. »

Assistive Access aide les utilisateurs souffrant de déficiences cognitives

Assistive Access s’appuie sur des innovations logicielles simplifiant les apps à leurs fonctions essentielles afin d’alléger la charge cognitive. Elle prend en compte les retours de personnes atteintes d’une déficience cognitive et de leurs proches, en se concentrant sur leurs activités préférées à la base de l’iPhone et de l’iPad : échanger avec leurs familles et amis, prendre et partager des photos ou écouter de la musique.
Assistive Access propose une expérience personnalisée dans les apps Messages, Appareil photo, Photos et Musique, mais aussi dans Téléphone et FaceTime, qui ont été combinées en une seule app Appels. Cette fonctionnalité propose une interface simplifiée avec des boutons à fort contraste et des textes en gros caractères, ainsi que des outils permettant aux aidants d’adapter l’expérience de la personne qu’ils soutiennent. Par exemple, pour les utilisateurs qui préfèrent communiquer visuellement, Messages propose un clavier réservé aux emoji et la possibilité d’enregistrer un message vidéo pour ses proches. Utilisateurs et aidants peuvent aussi choisir une présentation plus visuelle, disposée en grille, pour l’écran d’accueil et les apps, ou une présentation en lignes pour ceux qui privilégient le texte.
Le nouvel écran d’accueil simplifié de l’iPad et de l’iPhone avec les fonctionnalités Assistive Access activées.
Avec Assistive Access sur iPhone, il est possible de choisir une présentation plus visuelle, disposée en grille, pour l’écran d’accueil et les apps, ou une présentation en lignes pour privilégier le texte.
« Les personnes souffrant de déficiences intellectuelles et de troubles du développement débordent de créativité, bien que la technologie présente souvent des obstacles physiques, visuels ou cognitifs », explique Katy Schmid, senior director of National Program Initiatives de The Arc of the United States. « Proposer une fonctionnalité d’accessibilité cognitive sur iPhone ou iPad, c’est ouvrir plus largement les portes de l’éducation, de l’emploi, de la sécurité et de l’autonomie. Cela revient à dégager l’horizon et à développer les potentiels. »

Assistance vocale avancée Live Speech et Personal Voice

Avec Live Speech sur iPhone, iPad et Mac, les utilisateurs peuvent saisir le texte de leur choix et le faire énoncer à voix haute pendant leurs appels téléphoniques et FaceTime, mais aussi lors de leurs conversations en face à face. Il est également possible d’enregistrer des phrases courantes pour intervenir rapidement dans des conversations animées avec des proches ou des collègues. Live Speech a été conçu pour aider les millions de personnes muettes ou en perte progressive de la parole.
Pour les personnes susceptibles de perdre l’usage de la parole, comme ceux atteints par la maladie de Charcot ou d’autres pathologies qui peuvent avoir un impact progressif sur l’élocution, Personal Voice est un moyen simple et sécurisé de créer une voix qui leur ressemble. 
Pour cela, elles seront invitées à lire une série de textes aléatoires pour enregistrer 15 minutes de contenu audio sur leur iPhone ou iPad. Cette fonctionnalité d’assistance vocale utilise l’apprentissage automatique sur l’appareil pour préserver la confidentialité et la sécurité des informations. Elle s’intègre de manière transparente avec Live Speech pour utiliser Personal Voice avec ses proches1.
Enregistrement de Personal Voice sur un iPhone 14 Pro Max.
Personal Voice permet aux utilisateurs susceptibles de perdre l’usage de la parole de créer une voix qui leur ressemble, s’intégrant de manière transparente avec Live Speech pour utiliser Personal Voice avec ses proches.
« En fin de compte, le plus important est de pouvoir communiquer avec ses amis et sa famille », explique Philip Green, membre du bureau de l’association Team Gleason, lui-même diagnostiqué de la maladie de Charcot en 2018 et ayant connu des changements importants au niveau de son élocution. « Si vous pouvez leur dire que vous les aimez, avec une voix qui vous ressemble, cela fait toute la différence du monde. La possibilité de créer votre propre voix de synthèse sur votre iPhone en seulement 15 minutes est vraiment extraordinaire. »

Mode Détection de la Loupe avec fonction Point and Speak pour les personnes aveugles ou malvoyantes

Grâce à la fonctionnalité Point and Speak de l’app Loupe, les personnes en situation de handicap visuel vont pouvoir interagir avec des objects contenant du texte. Par exemple, pour utiliser un appareil ménager, comme un four à micro-ondes, Point and Speak combine les données de l’appareil photo, du scanner LiDAR et de l’apprentissage automatique embarqué pour énoncer le texte de chaque bouton lorsque l’utilisateur y déplace son doigt2. Intégrée à la Loupe de l’iPhone et de l’iPad, Point and Speak fonctionne parfaitement avec VoiceOver. Elle peut aussi être utilisée avec d’autres fonctions de la Loupe, comme la détection des personnes, des portes et les descriptions d’images pour aider la personne à naviguer dans son environnement.
Grâce à la fonctionnalité Point and Speak de l’app Loupe, les personnes en situation de handicap visuel vont pouvoir interagir avec des objects contenant du texte.

Autres fonctionnalités

  • Les personnes sourdes ou malentendantes peuvent jumeler leurs appareils auditifs Made for iPhone directement au Mac pour améliorer leur confort d’écoute3.
  • Contrôle vocal s’enrichit de suggestions phonétiques afin que les utilisateurs qui saisissent du texte avec leur voix puissent choisir le bon mot parmi plusieurs homophones, comme « vers », « vert » et « verre »4. De plus, grâce au guide du contrôle vocal, les utilisateurs peuvent apprendre des trucs et astuces sur l’utilisation des commandes vocales comme alternative au toucher et à la frappe sur l’iPhone, l’iPad et le Mac.
  • Les personnes en situation de handicap physique ou moteur qui utilisent Contrôle de sélection peuvent transformer n’importe quel commutateur en manette de jeu virtuelle pour leurs jeux préférés sur iPhone et iPad.
  • Pour les personnes malvoyantes, la taille du texte est désormais plus facile à ajuster dans les apps du Mac telles que le Finder, Messages, Mail, Calendrier et Notes.
  • Les utilisateurs sensibles aux animations rapides peuvent automatiquement mettre en pause les images comportant des éléments mobiles, comme les GIF, dans Messages et Safari.
  • Avec VoiceOver, les voix de Siri semblent naturelles et expressives, même à des fréquences de parole élevées ; les utilisateurs peuvent également personnaliser la vitesse à laquelle Siri leur parle, avec des options allant de 0,8x à 2x.

Célébrer la Journée mondiale de sensibilisation à l’accessibilité aux quatre coins du monde 

À l’occasion de la Journée mondiale de sensibilisation à l’accessibilité, Apple lance cette semaine de nouvelles fonctionnalités, des collections spéciales et bien plus encore :
  • SignTime sera disponible le 18 mai en Allemagne, en Italie, en Espagne et en Corée du Sud pour offrir un service à la demande d’interprétation en langue des signes dans les Apple Store et pour l’assistance Apple. Ce service est déjà disponible aux États-Unis, au Canada, au Royaume-Uni, en France, en Australie et au Japon5.
  • Certains Apple Store dans le monde proposent des séances d’information tout au long de la semaine pour aider notre clientèle à découvrir les fonctionnalités d’accessibilité. L’Apple Carnegie Library proposera une séance Today at Apple avec l’interprète en langue des signes Justina Miles. Grâce aux Réservations de séances en groupe, disponibles toute l’année, les Apple Store peuvent accueillir des groupes pour leur présenter les fonctionnalités d’accessibilité.
  • Les raccourcis s’enrichissent de la fonction Remember This, qui aide les utilisateurs souffrant de déficiences cognitives à créer un journal visuel dans Notes pour s’y référer facilement et y réfléchir.
  • Cette semaine, Apple Podcasts propose une collection de contenus sur l’impact des technologies pour l’accessibilité. L’app Apple TV présente des films et des séries conçus par des célébrités en situation de handicap. Apple Books met en avant Being Heumann: An Unrepentant Memoir of a Disability Rights Activist, les mémoires de Judith Heumann, pionnière pour les droits des personnes handicapées. Apple Music propose des vidéos musicales en langue des signes américaine dans tous les genres.
  • Cette semaine, dans Apple Fitness+, Jamie-Ray Hartshorne utilise la langue des signes américaine pour mettre en évidence les fonctionnalités qui s’inscrivent dans un effort continu visant à rendre le fitness plus accessible à tous. Il présente notamment Audio Hints, qui fournit de courts indices verbaux descriptifs destinés à aider les personnes aveugles ou malvoyantes, et évoque le remplacement des épisodes Marchez et Courez par « Marchez ou poussez » et « Courez ou poussez » pour les personnes en fauteuil roulant. De plus, les coachs de Fitness+ intègrent la langue des signes américaine dans chaque séance d’entraînement et de méditation ; toutes les vidéos incluent des sous-titrages codés en six langues ; et des alternatives simplifiées sont présentées dans certaines séances pour que toute personne, quelles que soient ses capacités, puisse participer.
  • L’App Store mettra en lumière trois leaders de la communauté du handicap : Aloysius Gan, Jordyn Zimmerman et Bradley Heaven. Chacun y partagera son expérience en tant que personne muette et expliquera en quoi les apps de communication augmentée et alternative ont changé leur vie.
Partager l’article

Media

  • Texte de cet article

  1. Personal Voice peut être générée à partir d’un iPhone, d’un iPad ou d’un Mac équipé d’une puce Apple, et sera disponible en anglais.
  2. Point and Speak sera disponible sur les iPhone et iPad équipés d’un scanner LiDAR, en anglais, français, italien, allemand, espagnol, portugais, chinois, cantonais, coréen, japonais et ukrainien.
  3. Les utilisateurs pourront jumeler les appareils auditifs Made for iPhone avec certains Mac équipés d’une puce M1 et tous les Mac avec puce M2.
  4. Les suggestions phonétiques du Contrôle vocal seront disponibles en anglais, espagnol, français et allemand.
  5. Les séances SignTime sont disponibles aux États-Unis et au Canada en langue des signes américaine (ASL), au Royaume-Uni en langue des signes britannique (BSL), en France en langue des signes française (LSF), au Japon en langue des signes japonaise (JSL) et en Australie en langue des signes australienne (Auslan). Le 18 mai, SignTime sera disponible en Allemagne en langue des signes allemande (DGS), en Italie en langue des signes italienne (LIS), en Espagne en langue des signes espagnole (LSE) et en Corée du Sud en langue des signes coréenne (KSL).

Contacts presse

Infos presse Apple

media.chfr@apple.com

Ligne infos presse Apple

media.chfr@apple.com

Nadine Vazhayil

Apple

n_vazhayil@apple.com