Con questo nuovo aggiornamento IA potrete controllare iPhone e iPad anche solo con lo sguardo

Grazie ai progressi dell'IA, i proprietari di iPhone e iPad presto potranno controllarli con il movimento degli occhi senza hardware esterno.

Avatar di Giulia Di Venere

a cura di Giulia Di Venere

Editor

In occasione del Global Accessibility Awareness Day, Apple ha annunciato nuove funzionalità di accessibilità destinate ai sistemi operativi iOS e iPadOS. Tra queste, spiccano la tecnologia Eye Tracking e i Vocal Shortcuts, che promettono di rendere i dispositivi più intuitivi e accessibili per tutti gli utenti, inclusi coloro che presentano disabilità.

La funzionalità di Eye Tracking, che permette il controllo dei dispositivi tramite il movimento degli occhi, ha segnato un importante passo avanti: fino ad ora, questa tecnologia necessitava di hardware esterno per funzionare sui dispositivi Apple come i MacBook. Ora, grazie ai progressi nell'intelligenza artificiale, sarà possibile utilizzarla su iPhone e iPad senza necessità di dispositivi aggiuntivi

Utilizzando la telecamera frontale per calibrare e seguire il movimento degli occhi dell'utente, è possibile interagire con l'apparecchio semplicemente focalizzando lo sguardo su elementi specifici dello schermo.

Parallelamente, i Vocal Shortcuts offrono un'alternativa per controllare il dispositivo senza usare le mani, sebbene Apple non abbia fornito dettagli approfonditi su questa funzionalità. Tuttavia, sembra che questa novità possa semplificare l'utilizzo rispetto al sistema di Shortcuts esistente, che richiede una programmazione manuale.

Un'altra aggiunta significativa è la funzionalità Listen for Atypical Speech. Questa impostazione permette alla tecnologia di riconoscimento vocale di Apple di identificare e apprendere i modelli di parlato del singolo utente, facilitando l'interazione con Siri per chi è affetto da condizioni come la SLA o la paralisi cerebrale. "L'intelligenza artificiale ha il potenziale di migliorare il riconoscimento vocale per milioni di persone con un parlato atipico, quindi sono entusiasta che Apple stia introducendo queste nuove funzionalità di accessibilità", ha commentato Mark Hasegawa-Johnson, investigatore principale per il Progetto di Accessibilità del Parlato presso l'Istituto Beckman per la Scienza e Tecnologia Avanzata all'Università dell'Illinois Urbana-Champaign.

Queste novità sono alimentate da un'apprendimento automatico integrato, con tutti i dati biometrici che vengono processati e memorizzati localmente sui dispositivi, garantendo la sicurezza e la privacy degli utenti. Mai come prima, l'IA si pone al servizio dell'accessibilità, promettendo miglioramenti anche in altre funzionalità quali il controllo vocale, i filtri colore, il riconoscimento sonoro per CarPlay e molti altri.

L'arrivo di queste innovazioni è previsto prima della fine dell'anno, in linea con il mese di maggio che Apple dedica alla celebrazione dell'accessibilità. Gli sviluppatori sono al lavoro per rifinire le ultime imperfezioni, promettendo un'esperienza utente migliorata e più inclusiva.

Leggi altri articoli