Le auto a guida autonoma devono imparare a uccidere

Leonardo Banchi
Leonardo Banchi
Le auto a guida autonoma devono imparare a uccidere

L'adozione delle automobili a guida autonoma porta con sé molte difficoltà, non solo dal punto di vista tecnico: nonostante la loro sicurezza sia stata comprovata in varie situazioni, e la loro efficacia sia probabilmente superiore a quella dei piloti umani, infatti, esse non potranno mai essere considerate perfettamente sicure, e questo porta purtroppo a scontrarsi con problematiche più morali che tecniche.

Ad esempio, come dovrebbe comportarsi un'auto a guida autonoma trovandosi davanti ad un inevitabile incidente? Dovrebbe cercare di minimizzare il danno in vite umane, pur mettendo a repentaglio la sicurezza dei propri occupanti, oppure agire per proteggere i proprietari dell'auto prima degli altri?

LEGGI ANCHE: Le auto a guida autonoma toglieranno il piacere del volante?

Questa domanda, in grado di mettere in difficoltà perfino le famigerate leggi della robotica di Isaac Asimov, pone innanzitutto l'accento su uno dei problemi che potrebbero incontrare le auto a guida autonoma al momento del loro ingresso sul mercato, e sul modo in cui potrebbero essere accettate dalla società: seppur in favore della maggiore sicurezza collettiva, chi comprerebbe un'automobile programmata per sacrificare il proprio occupante in caso di difficoltà?

Secondo Jean-Francois Bonnefon, della Toulouse School of Economics, sarà proprio l'opinione pubblica ad avere un ruolo determinante sul futuro delle auto a guida automatica, oltre che nella determinazione dell' "algoritmo morale" che controllerà il loro funzionamento.

Egli ha quindi condotto una serie di esperimenti, sottoponendo varie persone a dilemmi etici di questo tipo: immaginate che un'auto a guida autonoma, in seguito a una serie di imprevedibili eventi, si trovi lanciata verso un gruppo di dieci persone che attraversano la strada. Per essa è impossibile fermarsi in tempo, ma è possibile evitare l'uccisione delle dieci persone con una brusca sterzata contro un muro, che porterebbe però all'uccisione del proprio guidatore. Cosa dovrebbe fare l'auto?

La domanda è stata poi posta in diverse versioni, nelle quali variavano il numero di pedoni coinvolti o di occupanti dell'auto, o introducendo alcune variabili come la possibilità di uccidere un numero ristretto di pedoni, ma la risposta del pubblico è stata comunque piuttosto unanime: in generale, le persone condividono l'idea che le auto a guida autonoma debbano collaborare per minimizzare il numero di vite umane perse.

Tuttavia, difficilmente questo approccio potrà essere adottato completamente, proprio per la sua natura paradossale: gli stessi partecipanti hanno infatti ammesso di condividere questa idea, ma di non essere, in uno scenario del genere, minimamente interessati all'acquisto di un'auto a guida autonoma, vanificando così la loro intrinseca sicurezza.

Questa problematica non può più quindi essere ignorata, secondo il team di ricerca francese: se davvero le auto automatiche arriveranno presto sul mercato, infatti, stabilire il modo in cui esse dovranno comportarsi di fronte a complessi problemi etici è più urgente che mai.