Des étiquettes d’accessibilité pour guider vos choix
Dès cet automne, l’App Store affichera des « Accessibility Nutrition Labels » pour chaque application. Ces vignettes indiqueront en un clin d’œil les principales fonctionnalités d’accessibilité prises en charge : VoiceOver, Contrôle vocal, Couleurs à contraste élevé, Réduction du mouvement et Texte agrandi. Fini la recherche laborieuse d’une app compatible ; vous saurez immédiatement si une application correspond à vos besoins, et les développeurs pourront valoriser leur engagement en faveur de l’inclusion.
La Loupe débarque enfin sur Mac
La fameuse application Loupe, déjà présente sur iPhone, arrivera sur macOS. Connectez simplement la caméra intégrée du Mac ou utilisez la Continuité Caméra depuis votre iPhone pour agrandir textes, objets ou documents. Vous pourrez régler le contraste, la teinte et même corriger la perspective. Imaginez suivre une présentation universitaire en projetant les diapositives sur votre écran, puis capturer un plan précis du tableau pour y revenir plus tard.
Un lecteur dédié à la dyslexie
L’Accessibility Reader se veut un compagnon de lecture universel. Accessible depuis n’importe quelle app, il décode et restitue les textes à l’écran dans un format adapté, avec options de police et d’espacement spécifiques pour la dyslexie. Activez-le en un geste, et transformez un article de presse ou un PDF en un document plus facile à déchiffrer, réduisant la fatigue visuelle et les erreurs de lecture.
Braille Access et interfaces neuronales
Apple lance Braille Access, une app qui transforme tous vos appareils — iPhone, iPad, Mac et même Apple Vision Pro — en véritables blocs-notes Braille. Connectez un dispositif Braille externe ou utilisez l’entrée Braille à l’écran pour prendre des notes, lire des fichiers BRF et même exécuter des calculs en code Nemeth. Les sous-titres en temps réel s’afficheront directement sur votre afficheur Braille, rendant les conversations et les vidéos instantanément accessibles.
Voice Control dans Xcode pour les développeurs
Enrichissant son offre pour les pros, Apple intègre désormais le contrôle vocal directement dans Xcode. Les développeurs à mobilité réduite pourront dicter du code, insérer des snippets et naviguer dans l’IDE sans jamais toucher le clavier. Grâce à la synchronisation des vocabulaires personnalisés via iCloud, le même lexique est disponible sur tous vos Mac et iPad, simplifiant la création collaborative.
Live Captions sur Apple Watch
Lorsque Live Listen est activé sur votre iPhone, l’Apple Watch affichera en direct les sous-titres des voix captées par le micro du téléphone. Idéal pour suivre un cours magistral ou une réunion sans avoir à regarder votre iPhone. L’interface sur le cadran est épurée, et vous pouvez piloter la session directement depuis votre poignet, gardant les mains libres et les yeux sur la route ou le tableau.
Personal Voice : votre voix synthétique en un éclair
La fonction Personal Voice permet de créer une voix synthétique qui vous ressemble à partir de seulement 10 phrases enregistrées. Le résultat est plus naturel, grâce à l’IA embarquée sur l’appareil et optimisée par les puces Apple Silicon. Utile pour les personnes risquant de perdre la parole, ce système génère rapidement une voix personnelle, prête à être utilisée dans VoiceOver, les messages et toute application.
Music Haptics : sentez la musique
Sur iPhone, la fonction Music Haptics génère des retours de vibrations synchronisés avec la musique. Vous pouvez choisir d’entendre uniquement la voix ou l’instrumental, régler l’intensité des retours et ressentir le rythme au creux de votre main. Cette innovation offre une expérience sensorielle supplémentaire, particulièrement appréciée des utilisateurs malentendants ou fans de sensations fortes.
Sons de fond et automatisations
L’application Sons de fond s’enrichit de nouveaux presets et peut être automatisée via l’app Raccourcis. Créez des scénarios « Focus », « Sommeil » ou « Détente » déclenchés par l’heure, la localisation ou l’ouverture d’une app. Les rugissements d’une forêt tropicale ou le murmure d’une pluie battante deviennent des outils pour apaiser l’esprit ou masquer les bruits de la ville.
Indications de mouvement pour réduire le mal des transports
La nouvelle fonction Vehicle Motion Cues, accessible sur iPhone et bientôt sur macOS et iPadOS, génère des repères visuels apaisants pour limiter le mal d’auto. Des lignes de guidage subtiles se déplacent en synchronisation avec les images captées, aidant le cerveau à réconcilier les perceptions visuelles et vestibulaires.
Name Recognition et CarPlay inclusif
Le système Name Recognition annonce à haute voix l’identité de l’appelant avant de décrocher, couplé avec des vibrations adaptatives pour les malentendants. Dans CarPlay, le texte s’affiche désormais en taille XL, et l’assistant reconnaît les sons extérieurs — klaxons, sirènes ou pleurs — pour alerter le conducteur via des alertes visuelles et haptique.
Partage instantané des réglages d’accessibilité
Pour prêter votre appareil ou utiliser un terminal public, Apple introduit la fonction « Partage d’accessibilité ». Activez-la, et votre profil — loupe, contraste, voix, raccourcis — est appliqué sur un autre appareil iOS ou macOS pendant une durée déterminée. À l’expiration, les réglages reviennent à ceux par défaut, garantissant confidentialité et confort, où que vous soyez.