W poniedziałek ok. 22:00 w Tempe w Arizonie samochód autonomiczny testowany przez Ubera śmiertelnie potrącił 49-letnią kobietę. To prawdopodobnie pierwsza piesza ofiara technologii, która ma odmienić ulice na całym świecie. W aucie był kierowca, ale pojazd poruszał się w trybie autonomicznym.
Jak poinformowała policja w Tempe, wstępne ustalenia wskazują, że sportowy SUV, który uczestniczył w wypadku (Volvo XC90) poruszał się w trybie autonomicznym, choć siedział w nim operator, 44-letnia Rafaela Vasquez. Ok. 22:00 auto, jadące z prędkością ponad 60 km/h, uderzyło w 49-letnią Elaine Herzberg, przeprowadzającą rower przez ulicę poza przejściem dla pieszych. Kobieta zmarła w szpitalu. Na miejscu zdarzenia nie ma śladów wskazujących na to, że auto choć trochę zwolniło przed wypadkiem.
Choć nie jest to pierwszy śmiertelny wypadek związany z wykorzystaniem autonomii w samochodach – w 2016 r. samochód Tesli jadący w trybie autopilota po autostradzie na Florydzie „nie zauważył” kilkunastotonowej ciężarówki, kierowca zginął na miejscu – to po raz pierwszy takie auto zabiło na drodze pieszego. W Stanach Zjednoczonych rozbudziło to debatę nad etycznym aspektem tej technologii. Na razie Uber wstrzymał testy swoich pojazdów autonomicznych w Tempe, Pittsburghu, San Francisco i w Toronto.
Robot nie pije, nie bierze narkotyków, nie esemesujeO tym, że ich „modlitwy są z rodziną ofiary” od wczoraj zapewniają zarówno szefowie i rzecznicy Ubera, jak i władze Arizony, która jest stanem z bardzo liberalnym podejściem do testowania pojazdów autonomicznych. Wody w usta nabrali przedstawiciele innych firm, które testują tę technologię – Lyfta, Waymo (samochodowej spółki Google’a) a także Criuse (część koncernu General Motors). Media po obu stronach oceanu chętnie za to cytują Johna Simpsona z organizacji Consumer Watchdog, wieloletniego krytyka liberalnego podejścia do testów autonomii w transporcie, który wzywa nie tylko do silniejszej regulacji, ale wręcz moratorium na takie testy. – Arizona jest Dzikim Zachodem dla samochodów robotów. Właśnie dlatego wszystkie firmy prowadzą testy tutaj. Hulaj dusza, w mieście nie ma szeryfa – mówi, cytowany w „Los Angeles Times”.
Paradoksalnie, jedną z głównych zalet rozwoju autonomicznej technologii w branży samochodowej ma być poprawa bezpieczeństwa, bo pozwala na wyeliminowanie błędów popełnianych przez człowieka. Co roku w USA ginie na drogach prawie 40 tys. ludzi. Według statystyk mniej więcej 90 proc. wypadków to błąd ludzki. Wspomniany „LAT” wylicza, że samochód–robot korzysta z sensorów, które skanują otoczenie bez przerwy, nie pije, nie bierze narkotyków, nie sprawdza smsów ani nie rozmawia przez telefon, nie jest wreszcie rozpraszany przez dzieci szalejące na tylnym siedzeniu. Co więcej, w przyszłości, gdy wszystkie auta na ulicach będą autonomiczne, będą się ze sobą komunikowały, co sprawi, że wypadek ma być jeszcze mniej prawdopodobny.
Na czerwonymW praktyce jednak sytuacja nie jest taka prosta. „The Guardian” wymienia szereg zdarzeń związanych z testowaniem samochodów autonomicznych w ciągu ostatniej dekady. Poza wspomnianym wypadkiem Tesli, niedawno samochód tej samej marki… zatrzymał się na środku pięciopasmowej autostrady. Okazało się, że auto jechało w trybie autopilota, a kierowca… zasnął, w dodatku najprawdopodobniej był pijany.
Dwa lata temu w internecie opublikowano film, na którym autonomiczny samochód Ubera testowany w San Francisco ignoruje czerwone światła przed przejściem dla pieszych. Władze Kalifornii zakazały wtedy firmie testów bez kierowcy w swoim stanie. Uber przeniósł się do Arizony, której gubernator Doug Ducey, jest wielkim admiratorem nowej technologii. Ale w marcu zeszłego roku, w tym samym Tempe, doszło do zderzenia uberowego samochodu autonomicznego ze zwykłym pojazdem. Uznano, że nie niesie to ze sobą konieczności zaostrzenia przepisów, bo winą obarczono kierowcę „tradycyjnego” auta.
Mimo wszelkich zabezpieczeń i licznych sensorów, w poniedziałek auto w Tempe ani „nie zauważyło” człowieka na drodze, ani operator nie zdążył przejąć kontroli nad pojazdem, by uniknąć wypadku.
Nidhi Kalra, która w firmie doradczej Rand Corporation zajmuje się m.in. problemami związanymi z podejmowaniem decyzji, wskazywała niedawno w rozmowie z „The Times”, że choć samochody autonomiczne wydają się statystycznie znacznie rzadziej, niż kierowane przez człowieka, uczestniczyć w drobnych kolizjach, to w przypadku poważniejszych wypadków… nic nie wiadomo. Potrzeba milionów przejechanych kilometrów w trybie autopilota, by znaleźć wszystkie słabe strony tej technologii.
Moralność maszynyDwa lata temu inżynierowie z Massachusetts Institute of Technology napisali
i udostępnili w internecie prostą grę, którą nazwali „Moral Machine”. Gra polega na rozstrzyganiu moralnych dylematów w sytuacji, gdy do przejścia dla pieszych zbliża się autonomiczny samochód i wskutek nieprzewidzianych okoliczności wypadek jest nieunikniony. Czy auto ma skręcić i uderzyć w słup, powodując śmierć kierowcy, czy pruć w pieszego na przejściu? A gdy na przejściu będzie dwoje dzieci? A jeśli pieszy przechodzi na czerwonym świetle? A jeśli na przejściu jest pies, ale uderzenie w słup stanowi niewielkie niebezpieczeństwo dla kierowcy?
Gra powstała po wypowiedzi jednego z inżynierów Mercedesa, który w wywiadzie powiedział, że jeśli w podobnej sytuacji można ocalić choćby jedną osobę, to należy się skupić na tej, która siedzi w aucie. A to prowokuje pytania o odpowiedzialność na drodze, która dziś jest dość jasna – w wypadkach uczestniczą ludzie, oni podejmują decyzje i oni za nie odpowiadają. A w przyszłości, kto ma decydować w sytuacji kryzysowej? Kierowca–pasażer? Programista koncernu motoryzacyjnego? Sama maszyna?
Na razie nie wiadomo kto i jakie konsekwencje poniesie po wypadku w Tampe. Tym bardziej nie wiadomo, kto by je poniósł, gdyby Elaine Herzberg przechodziła po pasach.