Guida autonoma: di chi è la colpa in un incidente?

Riflessioni sulla responsabilità civile e penale dopo l'incidente mortale di Uber e l'avvio della sperimentazione in Italia

jlrguidaautonoma_01.jpg

Nelle ultime settimane due elementi hanno impresso una svolta alla questione della guida autonoma, uno di carattere internazionale e l'altro che riguarda l'Italia: l'incidente del 18 marzo in Arizona in cui una Volvo della flotta Uber in modalità automatica ha investito e ucciso una donna in bicicletta; la pubblicazione sulla Gazzetta ufficiale del 18 aprile che ha fatto entrare in vigore il decreto ministeriale dove si avvia anche nel nostro Paese la sperimentazione su strada delle driverless cars. Riflettiamo in questa sede su un particolare aspetto della faccenda, uno dei principali, forse il più importante in assoluto: di chi è la responsabilità, civile e penale, quando un incidente è provocato da un veicolo che procede in modalità automatica?

Perché gli incidenti con la guida autonoma accadono, eccome. Accantoniamo per un momento i due incidenti mortali che hanno coinvolto le Tesla lo scorso anno, uno negli Usa e un altro in Cina, perché il loro Autopilot, come quello di tutti gli altri veicoli attualmente in circolazione nel mondo, è un dispositivo di guida assistita e non automatica, che richiede la costante vigilanza del guidatore (ma qualcuno prima o poi dovrà rispondere a questa domanda: come mai molte persone credono che l'auto guidi da sola anche se non è vero? E perché l'Autopilot non è intervenuto frenando quando l'auto è entrata in rotta di collisione col camion?).

L'incidente di Uber è un esempio schiacciante. L'auto stava viaggiando in modalità totalmente automatica e il conducente aveva l'attenzione altrove, come mostra il video diffuso in quell'occasione. La donna è stata investita perché ha attraversato improvvisamente la strada; è ciò che si dice al momento, in attesa che l'inchiesta delle autorità tragga le sue conclusioni. Ma non dovrebbe essere proprio questo lo scopo della guida autonoma? Affidarsi alla velocità di un computer per arrivare dove l'umano non può, in modo da evitare precisamente quel tipo di incidenti?

E abbiamo già dimenticato l'incidente del 2016, quello per fortuna senza conseguenze, in cui una Google Car aveva bellamente tagliato la strada ad un autobus cambiando corsia quando non doveva, finendo poi tamponata? Perfino a Mountain View hanno dovuto ammettere la colpa. E ci mancherebbe, si tratta di un errore tipico da neopatentato. Non ce lo aspetteremmo però da un sistema che pretende di rendere superfluo l'essere umano.

Quindi gli incidenti con la guida autonoma sono un fatto reale, non teorico. In tutti i casi accaduti finora la responsabilità legale è sempre stata attribuita alla persona seduta al posto di guida. Non potrebbe essere altrimenti. Nei paesi dove finora sono stati autorizzati gli esperimenti, diversi stati USA, Germania, Regno Unito e ora Italia, le linee guida sono abbastanza omogenee: è necessaria un'autorizzazione specifica, i veicoli devono avere le stesse polizze assicurative previste per tutti gli altri utenti della strada, a bordo ci deve essere sempre personale qualificato e pronto ad intervenire.

Quindi le normative attuali dicono molto chiaramente, ovunque, questo: il responsabile di ciò che accade è sempre la persona che si trova al volante, anche se il veicolo procede in modalità automatica. La persona, non il costruttore del veicolo. Nemmeno si può pensare ad una situazione diversa fra qualche anno, quando (si spera) software e hardware saranno diventati più affidabili. Quale casa automobilistica può permettersi di essere così sicura del proprio sistema da accollarsi la responsabilità di un incidente al posto del guidatore, cioè il cliente? Quale fornitore di componentistica? Quale società di trasporto? Quale compagnia assicurativa?

Quindi, al momento e in ogni futuro ragionevole, chi usa e compra un'auto con guida autonoma, anche quando il livello 4 sarà effettivamente pronto, deve sapere che la colpa di un imprevisto sarà sempre sua. Sua anche la scelta di decidere quanto fidarsi di quella tecnologia.

  • shares
  • Mail