Noch dauert es ein paar Tage bis zum Start von Apples Entwicklerkonferenz WWDC, im Rahmen derer unter anderem die Vorstellung eines neuen iOS und iPadOS erwartet wird.
Apple selbst hat nun aber bereits einige interessante neue Funktionen vorgestellt, die noch in diesem Jahr eingeführt werden sollen.
Zu diesen neuen Features, die die kognitive, sprachliche und visuelle Barrierefreiheit adressieren, gehört Live Speech. Damit wird ein Text, den Anwender tippen, live in Sprache übersetzt, beispielsweise während Telefonaten oder Facetime-Anrufen sowie in persönlichen Gesprächen. Dazu wird man dank Personal Voice die eigene Stimme nutzen können, wofür Apple offenbar nur eine 15 Minuten lange Audioaufnahme mit dem iPhone oder iPad benötigt, während der man verschiedene Textaufforderungen laut vorzulesen hat.
Eine weitere neue Funktion ist Assistive Access. Damit werden die Möglichkeiten von Apps wie der Kamera, Fotos, Musik, Telefon und Nachrichten auf dem iPhone auf das Wesentliche reduziert. Zudem verspricht
Apple unter anderem ein eher visuelles, rasterbasiertes oder zeilenbasiertes, mehr auf Text fokussiertes Layout für den Startbildschirm und die Apps, eine eigene App-Benutzeroberfläche mit kontrastreichen Schaltflächen und grossen Beschriftungen sowie eine reine Emoji-Tastatur.
Schliesslich hat Apple neben diversen weiteren, kleinen Verbesserungen auch noch Point and Speak für die Lupen-App angekündigt, womit Nutzern mit eingeschränktem Sehvermögen die Interaktion mit physischen Objekten, die mehrere Beschriftungen haben, vereinfacht werden soll. Dazu wird unter anderem der Lidar-Scanner des iPhones genutzt.
(mv)