I grandi player tecnologici, come Google, Apple e naturalmente Tesla, hanno l’obiettivo di rendere possibile in breve tempo automobili a guida autonoma, senza pilota quindi. Gli approcci al problema sono simili, e si riducono tutti a dotare l’automobile di una intelligenza artificiale che riesca a tenere conto sia delle regole di guida che naturalmente degli ostacoli che si presentano durante la guida.
Al di là delle differenze nelle soluzioni tecnologiche adottate, la domanda principale è di chi sia la responsabilità in caso di incidente.
Software pilota o Pilota software?
E’ ovvio che quando a guidare è un essere umano, la risposta è piuttosto semplice, almeno in linea generale; è comunque ben evidente che le responsabilità vadano cercate nel comportamento del guidatore.
Ma nel caso di una automobile pilotata da un software, come ci si deve comportare?
Il guidatore in questo caso non esiste, o meglio il guidatore è un software, codice scritto su un chip così come il software presente nelle centraline elettroniche delle auto. Il problema non è banale, visto che un essere umano in caso di pericolo si comporta spesso in caso istintivo, mentre il comportamento del software di guida deve essere codificato attentamente dal programmatore.
Qui la difficoltà non è identificare tutte le situazioni di pericolo, cosa che non sarebbe fattivamente possibile, ma fornire regole generali per avere un comportamento standard nei casi di pericolo.
Incidenti e autoguida
Se Apple in questo settore è ancora all’inizio, Google e Tesla sono sicuramente più avanti; anche i big player dell’automobile, come Mercedes-Benz, Bosch e Nissan stanno con un certo successo sperimentando sistema di guida autonomi, come si legge dai rapporti sugli eventi di disengagement (li trovate con un clik sui link evidenziati). Tesla ha presentato un analogo rapporto, piuttosto stringato, in cui afferma di non aver avuto alcun evento nei suoi test.
La misura più importante è il tasso di disengagement, ossia gli eventi in cui il sistema di guida è passato dal software al pilota umano; i casi, anche qui, possono essere molteplici, primo fra tutti una decisione proprio del software che decide, non sapendo cosa fare, di passare i comandi all’essere umano.
Questo scambio di comandi sembra essere stato all’origine dell’incidente mortale in cui il 7 maggio ha perso la vita un tester driver durante la guida di una Tesla model S.
E’ importante notare che Tesla disabilita per default l’Autopilot, e prima di essere abilitato richiede in modo esplicito che il pilota sappia che il sistema è una nuova tecnologia ed è in versione beta pubblica. Quando i piloti attivano l’Autopilot, il cruscotto con le informazioni spiega, tra le altre cose, che questo è “un dispositivo di facilitazione che richiede che si tengano le mani sul volante per tutto il tempo”, e che “occorre mantenere il controllo del veicolo che è sotto la responsabilità del pilota stesso.”. Il sistema effettua controlli frequenti per assicurare che le mani del pilota rimangano in posizione, e fornisce un alert visivo e sonoro in caso contrario. In tal caso la velocità viene gradualmente ridotta finché il sistema non rileva nuovamente la posizione delle mani del pilota. (Comunicato ufficiale di Tesla)
I rischi dell’Autopilot
A quanto risulta, era attivato l’Autopilot, ossia il software che lascia tutte le decisioni ed i comandi all’automobile. Non è ancora del tutto chiaro se il pilota avesse tolto le mani dal volante, cosa di cui l’Autopilot si sarebbe dovuto accorgere, o se fosse semplicemente distratto mentre l’auto prendeva una decisione sbagliata.
[wc_box color=”inverse” text_align=”left”]
NHTSA will interpret ‘driver’ in the context of Google’s described motor vehicle design as referring to the (self-driving system), and not to any of the vehicle occupants. We agree with Google its (self-driving car) will not have a ‘driver’ in the traditional sense that vehicles have had drivers during the last more than one hundred years[/wc_box]
In questa speciale classifica, Google è sicuramente in testa: nel 2015 gli eventi di disengagement sono stati 341, e di questi le richieste di passare i comandi ad un essere umano da parte del software sono stati 272, causati principalmente dall’impossibilità per l’automobile di decifrare i segnali che arrivavano dall’ambiente circostante. I rimanenti 69 eventi sono stati causati dal pilota, dovuti soprattutto alle stringenti regole fornite dallo stato della California. Solo in 13 di questi casi, se non ci fosse stato l’intervento dell’uomo, ci sarebbe stato un contatto con un’altra automobile.
Indirizzo USA per l’automobile autonoma
Bisogna però dire che sebbene le auto a guida autonoma abbiano, nei test, un tasso di incidenti pari al doppio rispetto a quelle tradizionali, la loro entità è minore, grazie anche alla più esatta obbedienza al codice della strada. Spesso poi, gli incidenti sono stati provocati dagli automobilisti umani, insofferenti alla metodica applicazione delle regole stradali da parte delle auto con pilota software. E’ in pratica quello che a volte succede anche a noi, quando abbiamo davanti un’auto guidata dal mitico ‘vecchietto col cappello’.
The next question is whether and how Google could certify that the (self-driving system) meets a standard developed and designed to apply to a vehicle with a human driver (NHTSA)
Dopo che a dicembre lo stato della California aveva specificato che le auto a guida autonoma dovessero comunque necessariamente avere a bordo una persona designata come pilota, Google ha chiesto alla NHTSA (National Highway Traffic Safety Administration) di definire delle regole che valgano per l’intero territorio nazionale. La risposta è arrivata abbastanza presto, e indica che in caso di incidente il responsabile è il software, che quindi viene considerato come un vero e proprio autista umano. Questa risposta non toglie ancora tutti i dubbi, e di certo tra qualche tempo assisteremo a processi in cui l’imputato sarà un software, ma nel frattempo Google e le altre possono continuare a sviluppare sapendo di essere direttamente responsabili del comportamento delle proprie automobili.