La morale delle auto a guida autonoma: ecco come potrete insegnare loro chi uccidere (foto e video)

Leonardo Banchi

Le auto a guida autonoma dovranno, prima di arrivare sul mercato, imparare anche ad uccidere: rotture, imprevisti e problematiche non gestibili dal sistema potranno infatti metterle davanti a situazioni, purtroppo non nuove per gli utenti della strada, dalle quali non sia possibile uscire senza causare qualche perdita di vite umane.

In casi del genere, però, come dovrebbe comportarsi un’automobile? Dovrebbe salvaguardare in primis la vita dei propri occupanti, proteggere chi è rimasto più ligio al codice della strada, o addirittura valutare se dare la precedenza a bambini, donne incinte, o altre categorie “sensibili”?

LEGGI ANCHE: Le auto a guida autonoma e i ciclisti

Per cercare di dare una risposta a questi dilemmi, il MIT ha creato Moral Machine, un sito web nel quale agli utenti vengono presentati vari scenari, e chiesto di scegliere “il male minore” fra due possibili soluzioni. In seguito a una rottura dei freni, ad esempio, potrete valutare se un’auto a guida autonoma debba salvare i due passeggeri al proprio interno, oppure preferire i cinque pedoni che stanno incoscientemente attraversando con il semaforo rosso.

Sul sito è inoltre possibile commentare i vari scenari motivando le ragioni della propria scelta, e aggiungere nuove situazioni sulle quali gli utenti possano rispondere, discutere e presentare le proprie opinioni.

L’obiettivo finale è quello di creare una “coscienza collettiva”, sulla quale i produttori di auto a guida autonoma possano basarsi per realizzare software non solo sicuri ma moralmente accettabili, con la speranza ovviamente che sempre più raramente le auto debbano ricorrere a decisioni che mettono a rischio esseri viventi.