L'algoritmo che regola la guida autonoma è programmato per salvare più vite possibili. Ma in certi casi questo potrebbe significare "sacrificare" il conducente
La guida autonoma pone, tra i tanti interrogativi e dubbi, anche delle rilevanti questioni “etiche”. Immaginiamo che una famiglia sbuchi all'improvviso sulla strada. Come si comporta l'algoritmo alla base della guida autonoma? Sterzerà bruscamente mandando l'auto fuoristrada e uccidendo il passeggero o investirà il gruppo di persone? Secondo l'etica comune dovrebbe essere impostato per salvare il maggior numero di vite, “sacrificando” in questo caso il conducente. Ed infatti il cervello del self driving è programmato per provocare il “male minore”.
Ma in quanti sarebbero allora disposti ad acquistare un'auto a guida autonoma sapendo che potrebbe “scegliere” di ammazzarlo?
ll dilemma, come riporta Repubblica, è stato affrontato da un team di ricercatori guidato da Jean-Francois Bonnefon della Toulouse School of Economics . Secondo i ricercatori questo tipo di incidenti – dove l'auto sceglierà chi sacrificare – saranno inevitabili con l'aumento della diffusione dei veicoli senza pilota.
Va inoltre considerato che ci sono auto a guida autonoma, come la google car, che vanno a 30 km/h ma altre come l'Audi A RS7 che possono arrivare a 230 km/h. E a questa velocità i rischi sono ovviamente maggiori.
Condividi l'articolo
Scegli su quale Social Network vuoi condividere