L’ente governativo americano per la sicurezza stradale, l’Nhtsa, ha aperto un’inchiesta sulla morte di un 40 enne dell’Ohio, che il 7 maggio ha perso la vita a causa di un incidente con la sua Tesla Model S. L’auto si è schiantata sotto il rimorchio di un Tir in autostrada vicino a Williston, Florida, mentre stava viaggiando in modalità Autopilot: secondo quanto riportato da Tesla Motors sul suo blog, il sistema di guida autonoma non avrebbe individuato il fianco bianco del rimorchio, indistinguibile dal cielo luminoso in quella situazione.
“La particolare altezza del rimorchio - ha scritto l’azienda - combinata con la sua posizione attraverso la strada e le circostanze estremamente rare dell’impatto, hanno fatto sì che la Model S passasse sotto il rimorchio”. Secondo Tesla, questo sarebbe il primo incidente mortale il più di 130 milioni di miglia di guida autonoma, mentre in media negli States avviene una morte ogni 94 milioni di miglia percorse. Tesla, così come Google e gli altri promotori dell’autonomous driving, ha sempre sostenuto che la guida robotizzata ridurrà l’incidentalità e sottolinea che quella della Nhtsa è solo una valutazione preliminare per valutare se il sistema si è comportato secondo le aspettative.
La vittima, Joshua Brown, era un sostenitore del sistema Autopilot: aveva postato su Youtube alcuni video in cui ne mostrava il funzionamento e la capacità di evitare gli incidenti. Tesla ha scritto che Brown “era un amico di Tesla e della comunità degli amanti delle auto elettriche, una persona che credeva fortemente nella missione di Tesla”. La casa californiana fondata da Elon Musk ha lanciato commercialmente il suo sistema di guida autonoma lo scorso ottobre, premettendo però che il guidatore deve rimane concentrato e pronto a riprendere il controllo del veicolo in ogni momento.
Il dilemma filosofico delle auto senza pilota. In caso di incidente, di chi è la colpa? E tra un pedone e il passeggero, chi deve essere salvato dalle scelte del cervello elettronico?
La domanda è semplice: siete seduti in un’auto a guida autonoma che ha perso il controllo, lanciata a 120 chilometri orari contro un gruppo di pedoni. L’unica alternativa è guidare giù da un dirupo. Cosa dovrebbe fare la macchina? È il dilemma alla base del funzionamento delle auto senza pilota su cui tutti i giganti dei motori e dell’hi-tech, tra cui Tesla e Google, stanno puntando. Ma quello che può sembrare un banale indovinello filosofico ha in realtà a che fare con la natura (e il futuro) di queste nuove automobili: fra un conducente e un pedone, entrambi a rischio di morte, chi “merita” di essere salvato dal cervello elettronico? E se nell’auto ci fossero quattro persone, mentre il pedone in pericolo fosse da solo, quale scelta vorremmo che la macchina facesse per noi e per gli altri?
E non finisce qui. Se a prendere decisioni, magari sbagliando, è il computer, a chi addossare la responsabilità di un incidente? Per quanto avanzate e futuristiche, per far davvero parte delle nostre vite le auto senza pilota dovranno superare lo scoglio delle assicurazioni. Di certo Google e gli altri non potranno caricarsi sulle spalle la responsabilità civile relativa a ogni incidente, ma allo stesso tempo c’è il rischio di una gigantesca deresponsabilizzazione : la legge potrebbe in futuro trasformare queste auto in entità legalmente responsabili ma assicurabili dal proprietario. Che sarebbe così libero da ogni peso morale e costretto solamente a pagare eventuali danni.
A prescindere dalla disgrazia successa, vi fidereste a salire a bordo di un'auto del genere ? Affidarsi completamente ad un robot computerizzato che gestisce tutte le funzioni dell'autovettura ( direzionalità,velocità,sicurezza stradale ) ?
“La particolare altezza del rimorchio - ha scritto l’azienda - combinata con la sua posizione attraverso la strada e le circostanze estremamente rare dell’impatto, hanno fatto sì che la Model S passasse sotto il rimorchio”. Secondo Tesla, questo sarebbe il primo incidente mortale il più di 130 milioni di miglia di guida autonoma, mentre in media negli States avviene una morte ogni 94 milioni di miglia percorse. Tesla, così come Google e gli altri promotori dell’autonomous driving, ha sempre sostenuto che la guida robotizzata ridurrà l’incidentalità e sottolinea che quella della Nhtsa è solo una valutazione preliminare per valutare se il sistema si è comportato secondo le aspettative.
La vittima, Joshua Brown, era un sostenitore del sistema Autopilot: aveva postato su Youtube alcuni video in cui ne mostrava il funzionamento e la capacità di evitare gli incidenti. Tesla ha scritto che Brown “era un amico di Tesla e della comunità degli amanti delle auto elettriche, una persona che credeva fortemente nella missione di Tesla”. La casa californiana fondata da Elon Musk ha lanciato commercialmente il suo sistema di guida autonoma lo scorso ottobre, premettendo però che il guidatore deve rimane concentrato e pronto a riprendere il controllo del veicolo in ogni momento.
Il dilemma filosofico delle auto senza pilota. In caso di incidente, di chi è la colpa? E tra un pedone e il passeggero, chi deve essere salvato dalle scelte del cervello elettronico?
La domanda è semplice: siete seduti in un’auto a guida autonoma che ha perso il controllo, lanciata a 120 chilometri orari contro un gruppo di pedoni. L’unica alternativa è guidare giù da un dirupo. Cosa dovrebbe fare la macchina? È il dilemma alla base del funzionamento delle auto senza pilota su cui tutti i giganti dei motori e dell’hi-tech, tra cui Tesla e Google, stanno puntando. Ma quello che può sembrare un banale indovinello filosofico ha in realtà a che fare con la natura (e il futuro) di queste nuove automobili: fra un conducente e un pedone, entrambi a rischio di morte, chi “merita” di essere salvato dal cervello elettronico? E se nell’auto ci fossero quattro persone, mentre il pedone in pericolo fosse da solo, quale scelta vorremmo che la macchina facesse per noi e per gli altri?
E non finisce qui. Se a prendere decisioni, magari sbagliando, è il computer, a chi addossare la responsabilità di un incidente? Per quanto avanzate e futuristiche, per far davvero parte delle nostre vite le auto senza pilota dovranno superare lo scoglio delle assicurazioni. Di certo Google e gli altri non potranno caricarsi sulle spalle la responsabilità civile relativa a ogni incidente, ma allo stesso tempo c’è il rischio di una gigantesca deresponsabilizzazione : la legge potrebbe in futuro trasformare queste auto in entità legalmente responsabili ma assicurabili dal proprietario. Che sarebbe così libero da ogni peso morale e costretto solamente a pagare eventuali danni.
A prescindere dalla disgrazia successa, vi fidereste a salire a bordo di un'auto del genere ? Affidarsi completamente ad un robot computerizzato che gestisce tutte le funzioni dell'autovettura ( direzionalità,velocità,sicurezza stradale ) ?