La scorsa settimana un veicolo Uber a guida autonoma ha investito e ucciso una donna. Non è il primo incidente di questo tipo, ma è il primo in cui la vittima è una passante.

Nel 2016 un'auto Tesla in modalità autonoma si era schiantata contro un camion per un errore del sistema dei sensori e per il mancato intervento del guidatore-proprietario, unica vittima dell’incidente. Aspettando l’esito delle indagini in corso, il dibattito si è acceso: chi è il colpevole dell’ultimo incidente? Chi ha messo in strada un veicolo non ancora sicuro – o almeno non abbastanza da risparmiare la vita a una donna che stava attraversando la strada a piedi spingendo una bicicletta? L’operatrice, non all’altezza della situazione? Oppure la vittima, che a quanto pare attraversava la strada di notte e fuori dalle strisce pedonali? La colpa deve forse essere attribuita alla Volvo, che ha prodotto il veicolo, consentendo poi a Uber di modificarne il software, o allo Stato dell’Arizona, che ha varato una politica troppo permissiva sui test dei veicoli a guida autonoma sulle sue strade? E a prescindere da chi sia in questo caso il colpevole (ammesso che ce ne sia uno), è una buona idea spingere per l’introduzione dei veicoli a guida autonoma? A quali condizioni?

I sostenitori di questi sistemi tendono a colpevolizzare le vittime: il guidatore ucciso nella sua Tesla sapeva di dover tenere gli occhi aperti sulla strada, le mani e i piedi sui comandi (anche con il veicolo in modalità autonoma) e la passante uccisa non doveva attraversare la strada di notte e fuori dalle strisce pedonali. Si tende inoltre a giustificare le aziende che investono in questo tipo di veicoli, così come i governi che ne promuovono i test: la tecnologia è senz’altro ancora imperfetta, ma può raggiungere un miglioramento soltanto se messa alla prova su strada. Ciò può portare, nel peggiore dei casi, a qualche vittima, ma il gioco vale la candela, perchè alla fine avremo strade molto più sicure (oggi si muore a milioni, ogni anno, sulle strade del mondo e gli errori dei guidatori umani sono tra le prime cause).

Altri sono più cauti: dopotutto non è sufficiente informare un guidatore, privo di una qualsiasi formazione specifica, in merito alle sue responsabilità nell’uso di una tecnologia così nuova e complessa per renderlo colpevole in caso di errore, sollevando tutti gli altri attori coinvolti dalle loro responsabilità in caso di incidente. Siamo poi davvero sicuri che una riduzione degli incidenti avverrà davvero e, in ogni caso, chi e quanti è lecito sacrificare sulla strada del progresso (e chi dovrebbe deciderlo)? Non sarebbe meglio trovare il modo di fare test in uno spazio fisico e giuridico più controllato?

Sono questioni morali e politiche non risolvibili basandosi soltanto sui fatti, sulla tecnologia o sui numeri. Si tratta piuttosto di valutare la desiderabilità di una data tecnologia e di interpretare i dati disponibili – né si possono risolvere applicando le norme esistenti: non è chiaro infatti se queste coprano casi del genere; e anche se fosse resterebbe aperto il problema di come applicare tali norme in questi casi. Ad esempio resterebbe da stabilire su chi debba ricadere il “dovere di attenzione” nell’uso dei e nell’interazione con i veicoli autonomi; o quali comportameni e precauzioni siano da considerarsi “ragionevoli” in questi nuovi scenari (ho provato a fare una prima ricognizione di tali questioni in un Libro bianco commissionato dal ministero dei Trasporti olandese due anni fa).

Semplificando molto, mentre i critici pensano che i veicoli autonomi possano diffondersi a patto che la loro progettazione sia conforme ad alcune fondamentali esigenze morali, politiche e giuridiche delle società liberal-democratiche, gli entusiasti ritengono che spetti alla società il compito di adattarsi, facendo posto alle logiche e ai benefici di quella che essi stessi interpretano come nuova tecnologia in grado di rivoluzionare l’intero mondo dei trasporti.

Chi ha ragione? Per cercare di dare una risposta proverò a partire da un esempio. Quando furono introdotti i primi software per personal computer, per molti utenti era inaccettabile che potessero sparire documenti sui quali avevano lavorato per giorni o settimane; qualcuno tentò persino di fare causa alle aziende produttrici di hardware e software per essere risarcito del lavoro e delle opportunità economiche perdute. Con il tempo quasi tutti ce ne siamo fatti una ragione: il diritto si è adeguato non imponendo particolari oneri alle aziende produttrici per il cattivo funzionamento dei loro prodotti. Abbiamo capito che per quanto sia stressante ed economicamente dannoso perdere per problemi tecnici un po’ del nostro lavoro, il beneficio che ricaviamo dalle nuove tecnologie e il vantaggio economico complessivo del loro uso controbilancia ampiamente i costi dei possibili incidenti di percorso.

Gli entusiasti sostengono che lo stesso valga anche per i veicoli a guida autonoma: ora ci può sembrare inaccettabile che questi possano causare la morte di un essere umano; ma col tempo anche il diritto dovrà adeguarsi, senza penalizzare eccessivamente le aziende che investono in queste tecnologie, perché complessivamente i benefici supereranno i costi (“Se vi prenderete la briga di fare i conti, mi darete ragione” - dichiarò Elon Musk dopo l’incidente del 2016).

Ma ci sono costi e costi, e se il ragionamento può filare a proposito dei personal computer, non è detto che funzioni anche per i veicoli a guida autonoma. Qualcuno potrebbe infatti rifiutarsi di vedere i veicoli come semplici gadget tecnologici, e insistere che per quanti sensori e computer un veicolo possa avere resta pur sempre un corpo contundente del peso di un paio di quintali che si muove ad alta velocità in uno spazio pubblico, tra persone; e che un conto è lo stress psicologico e il danno economico per la perdita di tempo e lavoro per un bug in un software di scrittura, un altro è la messa in pericolo della propria integrità fisica in un potenziale incidente stradale. Evidentemente, si tratta di due dimensioni moralmente e giuridicamente assai differenti.

Semmai, l’introduzione dei veicoli a guida autonoma potrebbe, secondo alcuni, essere comparata alla messa sul mercato di un nuovo farmaco: per quanto grande sia il potenziale di miglioramento della salute e la possibilità di “salvare vite”, nessun farmaco può essere introdotto mediante esperimenti in vivo, e tantomeno su pazienti sani, scelti arbitrariamente senza il loro libero consenso, esplicito e informato.

L’ultimo grave incidente mostra anche un altro limite del discorso basato su una semplice misurazione di costi e benefici. L’attuale sistema dei trasporti a motore, infatti, è un sistema profondamente iniquo se è vero, come è vero, che una quota statisticamente molto alta di vittime di incidenti stradali sono pedoni e ciclisti (e guidatori di mezzi a motore rispettosi delle regole), ossia attori che non traggono diretto beneficio dai rischi della guida (pericolosa) e che ben poco possono fare per proteggersi da questi rischi.

Se in medicina temiamo (giustamente) che interessi economici possano prevalere sulla ricerca mettendo a repentaglio la salute dei pazienti, forzando la mano con la sperimentazione, allora dovremmo essere un po’ più critici anche nei confronti delle politiche permissive di Stati come l’Arizona che consentono di testare senza nessuna specifica restrizione i veicoli autonomi sulla pubblica via, inneggiando all’innovazione e alla futura sicurezza, ma perseguendo più che altro, e in modo neppure troppo mascherato, un fine, quello di ottenere nuovi investimenti nella Silicon Valley. Sia chiaro: una qualche politica di apertura ai test su strada è necessaria e attirare investimenti non è necessariamente un male, ma con alcuni limiti. Come è stato suggerito al recente meeting del Consiglio europeo per la sicurezza dei trasporti (Etsc), uno Stato che abbia davvero tra le sue priorità la riduzione degli incidenti stradali, dovrebbe prima di tutto migliore le infrastrutture e promuovere l’utilizzo delle tecnologie già esistenti, come i sistemi di adattamento intelligente della velocitá.

In medicina, la cautela nella sperimentazione di nuove cure è inoltre giustificata dalla consapevolezza della complessità e dalla imprevedibilità delle reazioni possibili da parte dell’organismo. Analogamente, faremmo bene a non adottare atteggiamenti (fintamente) ingenui alla Elon Musk sulla prevedibilità delle scelte politiche sui veicoli a guida autonoma. I dati disponibili sono del tutto insufficienti per permetterci di fare qualsiasi proiezione attendibile sulle conseguenze in termimi di numero complessivo e distribuzione delle vittime derivanti dall’introduzione dei diversi tipi di veicoli a guida autonoma nei diversi Paesi: in un’audizione al Senato statunitense Missy Cummings, professore associato presso il Dipartimento di Ingegneria Meccanica e Materiali della Duke University, ha fatto notare che – per quanto alto possa sembrare – il numero di chilometri percorso, quasi senza incidenti, dai veicoli a guida autonoma di Google sulle strade della California equivale ai chilometri percorsi dai taxi di New York in poco più di un giorno.

Inoltre, le ricerche in ambito psicologico mostrano che le interazioni comportamentali tra essere umano e macchina – come mostra il caso Tesla del 2016 – e fra i vari attori umani e non sulla strada – come mostra il caso Uber della settimana scorsa – sono molto complesse, in parte imprevedibili, diverse da strada a strada e forse da individuo a individuo. Non si può dunque dare per scontato che l’introduzione di un efficiente sistema di guida (parzialmente) autonoma avrebbe come unico effetto quello di ridurre un certo tipo di errori umani e di incidenti. Potrebbe invece farne sorgere altri.

Tutto questo non significa che i veicoli a guida autonoma non possano produrre i benefici sociali promessi dai loro sostenitori. Tuttavia la definizione di questi benefici e dei mezzi per raggiungerli è una questione morale e politica aperta, che non può essere ridotta al mero dato tecnico o a un semplice saldo matematico dei pro e dei contro. In presenza di incidenti gravi o addirittura mortali, la ricerca delle responsabilità andrebbe accompagnata da un ragionamento più ampio, rivolto al futuro sulle capacità da sviluppare e i diritti da proteggere degli individui direttamente e indirettamente affetti dal processo di innovazione tecnologica. E sulle responsabilità delle aziende, i centri di ricerca e i governi che questo processo promuovono, finanziano, realizzano e regolano.

 

:: per ricevere tutti gli aggiornamenti settimanali della rivista il Mulino è sufficiente iscriversi alla newsletter :: QUI