auto guida autonoma imparano a uccidere

Le auto a guida autonoma devono imparare a uccidere

Leonardo Banchi

L’adozione delle automobili a guida autonoma porta con sé molte difficoltà, non solo dal punto di vista tecnico: nonostante la loro sicurezza sia stata comprovata in varie situazioni, e la loro efficacia sia probabilmente superiore a quella dei piloti umani, infatti, esse non potranno mai essere considerate perfettamente sicure, e questo porta purtroppo a scontrarsi con problematiche più morali che tecniche.

Ad esempio, come dovrebbe comportarsi un’auto a guida autonoma trovandosi davanti ad un inevitabile incidente? Dovrebbe cercare di minimizzare il danno in vite umane, pur mettendo a repentaglio la sicurezza dei propri occupanti, oppure agire per proteggere i proprietari dell’auto prima degli altri?

LEGGI ANCHE: Le auto a guida autonoma toglieranno il piacere del volante?

Questa domanda, in grado di mettere in difficoltà perfino le famigerate leggi della robotica di Isaac Asimov, pone innanzitutto l’accento su uno dei problemi che potrebbero incontrare le auto a guida autonoma al momento del loro ingresso sul mercato, e sul modo in cui potrebbero essere accettate dalla società: seppur in favore della maggiore sicurezza collettiva, chi comprerebbe un’automobile programmata per sacrificare il proprio occupante in caso di difficoltà?

Secondo Jean-Francois Bonnefon, della Toulouse School of Economics, sarà proprio l’opinione pubblica ad avere un ruolo determinante sul futuro delle auto a guida automatica, oltre che nella determinazione dell’ “algoritmo morale” che controllerà il loro funzionamento.

Egli ha quindi condotto una serie di esperimenti, sottoponendo varie persone a dilemmi etici di questo tipo: immaginate che un’auto a guida autonoma, in seguito a una serie di imprevedibili eventi, si trovi lanciata verso un gruppo di dieci persone che attraversano la strada. Per essa è impossibile fermarsi in tempo, ma è possibile evitare l’uccisione delle dieci persone con una brusca sterzata contro un muro, che porterebbe però all’uccisione del proprio guidatore. Cosa dovrebbe fare l’auto?

auto guida autonoma imparano a uccidere

La domanda è stata poi posta in diverse versioni, nelle quali variavano il numero di pedoni coinvolti o di occupanti dell’auto, o introducendo alcune variabili come la possibilità di uccidere un numero ristretto di pedoni, ma la risposta del pubblico è stata comunque piuttosto unanime: in generale, le persone condividono l’idea che le auto a guida autonoma debbano collaborare per minimizzare il numero di vite umane perse.

Tuttavia, difficilmente questo approccio potrà essere adottato completamente, proprio per la sua natura paradossale: gli stessi partecipanti hanno infatti ammesso di condividere questa idea, ma di non essere, in uno scenario del genere, minimamente interessati all’acquisto di un’auto a guida autonoma, vanificando così la loro intrinseca sicurezza.

Questa problematica non può più quindi essere ignorata, secondo il team di ricerca francese: se davvero le auto automatiche arriveranno presto sul mercato, infatti, stabilire il modo in cui esse dovranno comportarsi di fronte a complessi problemi etici è più urgente che mai.

Fonte: Technologyreview
  • Andrea D’Este

    Credo che una auto a guida autonoma dovrebbe avere la coscienza di non viaggiare a 100km/h se non conosce esattamente gli ostacoli che potrebbe incontrare e sapere esattamente quale spazio necessita per una frenata di emergenza. La sicurezza principale deve essere attiva e costante in modo da non permettere andature avventate. Se l’auto durante l’andatura calcola di non potersi fermare in uno spazio molto delimitato, deve rallentare e prevenire qualsiasi possibile incidente. Certo che se dovesse succedere un evento come detto dall’articolo, l’auto dovrebbe cercare di fermarsi per limitare i danni il più possibile, anche a discapito del conducente.

    • Cristian

      “Certo che se dovesse succedere un evento come detto dall’articolo, l’auto dovrebbe cercare di fermarsi per limitare i danni il più possibile, anche a discapito del conducente.”

      E il problema è proprio questo. Quasi tutti, probabilmente, saremmo portati a sposare la tesi del “l’auto a guida automatica” deve limitare il più possibile i danni”, ma se la nostra vita rientra tra quelle sacrificabili saremmo pronti a fare la stessa affermazione?
      Io sospetto di no. Penso che che ben pochi, in fin dei conti, sarebbero pronti a comprare un veicolo che, in casi estremi, è pronto a sacrificare la vita dell’occupante della macchina (la propria) a vantaggio di altri. Probabilmente questa affermazione potrebbe essere mitigata in casi particolari, se ad esempio gli “altri” sono persone particolarmente care (i propri figli ad esempio)…

      • Leonardo Banchi

        Gli eventi imprevisti purtroppo succedono, e un’auto a guida autonoma non potrà mai essere sicura (così come un guidatore umano, eh).. basta pensare a un bambino che per inseguire un pallone si butta in mezzo di strada, a un oggetto perso dal camion davanti, o un guidatore umano che si comporta in modo folle… ma i casi sono infiniti!

        Il punto è che sapendo che le auto sono state programmate per la sicurezza collettiva, quanti effettivamente la comprerebbero invece di una “Tradizionale”? E poi, tanto per complicarsi la vita, la decisione è solo una questione numerica, o vanno considerate altre variabili? Tipo, la scelta di cosa fare dovrebbe cambiare sapendo che c’è un bambino a bordo?