Guida autonoma: incidente Uber, frenata automatica disattivata

Pubblicato il rapporto preliminare delle indagini sull'incidente in Arizona dove una donna è stata investita. Uber disattiva quei sistemi quando è in modalità di guida autonoma

Guida autonoma

E' stato pubblicato il rapporto preliminare sull'episodio ormai noto come incidente mortale di Uber: è accaduto negli Stati Uniti il 18 marzo 2018, a Tempe, Arizona; una donna è stata investita e uccisa da un veicolo sperimentale della flotta della compagnia di ride sharing mentre attraversava la strada spingendo a mano la propria bici. L'auto di Uber era una Volvo XC90 modificata che stava eseguendo test di guida autonoma. Nel momento dell'incidente il veicolo era attiva la modalità di controllo completo del computer.

Riassumiamo quanto pubblicato sul rapporto della NTSB (National Traffic Safety Board), l'autorità federale americana responsabile delle indagini sugli incidenti connessi alla circolazione stradale. Le conclusioni, sebbene ancora parziali, lasciano interdetti.

L'incidente è occorso su una strada a senso unico a due corsie, ai cui lati ci sono una pista ciclabile e della vegetazione. Il limite di velocità in quel tratto è di 45 miglia orarie, circa 72 Km/h. Il veicolo sperimentale di Uber era provvisto di dieci telecamere, oltre a sensori radar e lidar (come i radar ma usano raggi infrarossi invece di onde radio) e sensori di navigazione. L'intero apparato era collegato ad un computer integrato nell'auto.

Il veicolo era anche provvisto dei sistemi standard di assistenza che la Volvo installa di serie sulla XC90, compresa la frenata automatica di emergenza (che la casa svedese chiama City Safety). Tuttavia, quando è attivo il sistema di Uber, quelli installati dalla Volvo vengono disattivati. La persona seduta al posto di guida può riprendere istantaneamente il controllo manuale muovendo lo sterzo o azionando i pedali, oltre a disattivare il sistema automatico tramite un apposito pulsante.

Secondo i dati registrati dal veicolo, l'incidente è accaduto alle 21.58. L'auto era sotto il controllo del computer dalle 21.39. I sensori radar e lidar hanno registrato la presenza della vittima circa 6 secondi prima dell'impatto, mentre il veicolo viaggiava a 43 miglia orarie. Il software di guida autonoma ha prima classificato la donna come "oggetto sconosciuto", poi come un veicolo, infine come una bicicletta. Ad 1,3 secondi prima dell'impatto il software ha stabilito che era necessaria una frenata d'emergenza.

Tuttavia, come dichiarato dalla stessa Uber alle autorità, quando il veicolo è sotto il controllo del computer le manovre di frenata d'emergenza automatica non sono abilitate, per evitare comportamenti potenzialmente erratici del veicolo. E' affidato all'operatore al posto di guida il compito d'intervenire manualmente. Inoltre il sistema non è progettato per avvisare l'operatore.

La telecamera installata sul parabrezza che riprendeva l'interno del veicolo ha mostrato che poco prima dell'impatto l'operatore aveva lo sguardo in basso. Successivamente ha dichiarato agli investigatori che stava controllato l'interfaccia del sistema.

I dati del sistema hanno determinato che l'operatore è intervenuto a meno di un secondo dall'impatto, sterzando e frenando. La velocità al momento dell'impatto era di 39 miglia orarie, quasi 63 Km/h. I dati mostrano anche che non ci sono stati malfunzionamenti del sistema. Le indagini proseguono nell'accertamento esatto delle cause di questo incidente. Poco dopo il fatto, Uber ha sospeso i test in Arizona.

Le indagini, basate soprattutto sulle immagini riprese dalle telecamere, hanno anche determinato che la donna ha attraversato in un punto inaspettato (a circa cento metri c'erano le strisce pedonali), era buio, i suoi vestiti erano scuri e la bicicletta non rifletteva molto bene la scarsa luce presente. Inoltre, l'autopsia ha verificato che la donna era sotto l'effetto di metamfetamine e marijuana.

Tuttavia questi sono dettagli irrilevanti per il vero punto chiave della questione. Qui siamo di fronte ad un comportamento del tutto irresponsabile da parte di Uber, una superficialità di giudizio gravissima nel predisporre i veicoli che circolano su strada durante i test, oltre ad una disattenzione altrettanto grave da parte dell'operatore. E anche sul software restano perplessità importanti. I sensori avevano intercettato l'ostacolo con anticipo ampiamente sufficiente, ma l'intelligenza artificiale è stata molto lenta a "capire" di cosa si trattava. L'ironia tragica della vicenda è che, con 6 secondi di margine a 43 miglia orarie, il sistema di serie di Volvo avrebbe potuto tranquillamente evitare l'incidente.

Ma la scarsa preparazione di Uber è micidiale e imperdonabile. Disattivano i sistemi di frenata automatica di Volvo senza rimpiazzarli con altri? E che razza di guida autonoma è quella che si affida all'intervento umano per rimediare ai problemi gravi, cioè precisamente quelle situazioni che la guida autonoma dovrebbe per definizione evitare? Senza poi nemmeno installare un sistema di allarme?

Un software che deve guidare un veicolo su strada non è l'app di un telefonino o un PC, dove i malfunzionamenti vengono risolti da una patch e chi se ne frega, al massimo si perdono dei dati. Qui gli errori di progettazione si tramutano in morti e feriti. Le vite umane non si possono "riavviare" e non hanno "backup". Tali atteggiamenti, dei produttori e degli organi politici che concedono con troppa leggerezza le autorizzazioni, creano proprio i pericoli che dicono di voler eliminare. Aggravando i rischi normali connessi all'intervento umano, perché creano negli utenti un'aspettativa di sicurezza che al momento vediamo quanto in realtà sia illusoria.

© Foto Getty Images - Tutti i diritti riservati

  • shares
  • Mail