Intel, in collaborazione con Classroom Technologies, sta sviluppando uno strumento che sfrutta l'intelligenza artificiale per rilevare gli stati emotivi degli studenti. L'obiettivo è quello di fornire agli insegnanti dei segnali affinché possano ottimizzare le proprie tecniche di insegnamento. Tramite la rilevazione di segnali non verbali, come l'espressione facciale, e il linguaggio del corpo, l'IA sarebbe in grado di comprendere se uno studente si trova in difficoltà o se è distratto, in modo da consentire al docente di intervenire nel modo migliore.
La soluzione rientra all'interno del software Class che si integra con Zoom, e viene commercializzato dalle due aziende principalmente negli Stati Uniti, anche se dovrebbe raggiungere il mercato globale a breve. L'algoritmo di intelligenza artificiale è basato sul lavoro di un team di psicologi che ha analizzato i dati ricavati dalle riprese di classi reali ottenute tramite videocamere 3D. Dunque l'IA analizzerebbe le immagini trasmesse dalle webcam degli studenti per "capirne" lo stato d'animo, in base, appunto, alle espressioni del viso, ai gesti e ad altri segnali non verbali provenienti dallo studente.
Il team di Intel è stato chiaro: lo scopo è agevolare gli insegnanti, tuttavia sorgono diversi interrogativi. Il primo, e più importante, è di natura etica, dato che etichettare gli studenti in base a dei presunti stati emozionali potrebbe determinare l'uso improprio di tali "etichette" al di fuori del contesto didattico. Se, ad esempio, uno studente viene dichiarato "tendente alla depressione", si porterà questo "stigma" anche nel contesto lavorativo? E se le aziende potessero accedere a tali dati e usarli per catalogare, segmentare e targetizzare queste persone a scopi commerciali o magari creando delle discriminazioni nell'ambito delle assunzioni di nuovo personale?
Inoltre, gli stessi responsabili del progetto hanno sottolineato più volte la difficoltà insita nell'individuare lo stato emotivo preciso di una persona, non solo perché la nostra comunicazione non verbale si basa su un insieme di micro-espressioni difficilissime da leggere e interpretare (ad esempio la dilatazione delle pupille), ma occorre anche tenere conto del contesto culturale e sociale di provenienza della persona. Infatti, la comunicazione non verbale e paraverbale cambia di Paese in Paese. Per fare un esempio, in Russia le persone tendono a sorridere solo in contesti familiari o fra persone con legami molto intimi, laddove chi si lascia andare a grandi sorrisi in pubblico viene visto come falso o di scarsa intelligenza.
Sono tante le criticità di un progetto del genere, come viene messo in evidenza da Protocol. Ma la domanda che vogliamo porre ai nostri lettori è: serve davvero un'IA per comprendere gli stati emotivi degli studenti? Vogliamo davvero tralasciare la componente umana in una relazione, delicata e importante, come quella che si instaura fra docente e allievi? Non sarebbe forse meglio dotare gli insegnanti di strumenti più adatti a instaurare un rapporto sano e costruttivo con i propri alunni, magari rivedendo le modalità di formazione e selezione del corpo docenti, possibilmente facendo maggiore leva sul supporto psicologico (per entrambe le parti)? La questione è decisamente complessa e vede un dibattito acceso e aperto da anni, ma è molto probabile che l'IA non sia la risposta.