Huis Meningen Uber's zelfrijdende auto-ongeluk: faalde ai ons?

Uber's zelfrijdende auto-ongeluk: faalde ai ons?

Inhoudsopgave:

Video: Все что вам надо знать про Uber Driver (November 2024)

Video: Все что вам надо знать про Uber Driver (November 2024)
Anonim

Op 12 maart had MIT Technology Review een verhaal dat als volgt begon: "Het is het jaar 2023, en zelfrijdende auto's navigeren eindelijk door onze stadsstraten. Voor het eerst heeft een van hen een voetganger geslagen en gedood, met enorme media-aandacht. Een spraakmakende rechtszaak is waarschijnlijk, maar welke wetten moeten van toepassing zijn?"

Alles over de voorspelling klopte, behalve de datum. Precies een week nadat het artikel was gepubliceerd, raakte een zelfrijdende Uber een voetganger in Tempe, Arizona, terwijl hij in autonome modus functioneerde.

Hoewel het incident nog steeds wordt onderzocht, is de commotie die volgde een indicatie van hoe ver we zijn verwijderd van het succesvol integreren van kunstmatige intelligentie in onze kritieke taken en beslissingen.

In veel gevallen ligt het probleem niet bij AI, maar bij onze verwachtingen en begrip ervan. Volgens Wired stierven vorig jaar alleen al in de VS bijna 40.000 mensen door verkeersincidenten - waarvan 6.000 voetgangers. Maar zeer weinig (indien aanwezig) haalden de krantenkoppen zoals het Uber-incident.

Een van de redenen dat de Uber-crash zo'n commotie veroorzaakte, is dat we over het algemeen hoge verwachtingen hebben van nieuwe technologieën, zelfs wanneer ze nog in ontwikkeling zijn. Onder de illusie dat pure wiskunde AI-algoritmen aanstuurt, hebben we de neiging om hun beslissingen te vertrouwen en zijn we geschokt als ze fouten maken.

Zelfs de veiligheidsrijders achter het stuur van zelfrijdende auto's laten hun voorzichtigheid in de steek. Uit beelden van het Uber-incident bleek dat de bestuurder werd afgeleid en naar beneden keek voordat de crash plaatsvond.

In 2016 stierf de bestuurder van een Tesla S-model in Autopilot-modus nadat het voertuig tegen een vrachtwagen botste. Uit een onderzoek bleek dat de bestuurder op het moment van de botsing mogelijk een Harry Potter-film aan het kijken was.

De verwachtingen van perfectie zijn hoog en teleurstellingen zijn krachtig. Critici brachten het hele zelfrijdende autoproject van Uber na het incident snel in twijfel; het bedrijf heeft in de nasleep tijdelijk het testen van zelfrijdende auto's opgeschort.

AI is niet menselijk

Een van de kritieken na de crash was dat een menselijke bestuurder het incident gemakkelijk had kunnen vermijden.

"sprong niet uit de struiken. Ze had duidelijke vooruitgang geboekt over meerdere rijstroken, die in systeemzicht hadden moeten komen, " vertelde een expert aan CNN.

Ze heeft gelijk. Een ervaren menselijke chauffeur zou haar waarschijnlijk gezien hebben. Maar AI-algoritmen zijn niet menselijk.

Diepgaande leeralgoritmen in zelfrijdende auto's gebruiken talloze voorbeelden om de regels van hun domein te 'leren'. Terwijl ze onderweg zijn, classificeren ze de informatie die ze verzamelen en leren ze omgaan met verschillende situaties. Maar dit betekent niet noodzakelijkerwijs dat ze hetzelfde besluitvormingsproces gebruiken als menselijke chauffeurs. Dat is waarom ze in sommige situaties misschien beter presteren dan mensen en falen in situaties die voor de mens triviaal lijken.

Een perfect voorbeeld is het algoritme voor beeldclassificatie, dat beelden leert herkennen door miljoenen gelabelde foto's te analyseren. In de loop der jaren is beeldclassificatie superefficiënt geworden en overtreft het de mens in vele omgevingen. Dit betekent echter niet dat de algoritmen de context van afbeeldingen op dezelfde manier begrijpen als mensen.

Uit onderzoek van experts van Microsoft en Stanford University bleek bijvoorbeeld dat een algoritme voor diep leren, getraind met afbeeldingen van witte katten, geloofde met een hoge mate van overtuiging dat een foto van een witte hond een kat vertegenwoordigde, een fout die een menselijk kind gemakkelijk kon vermijden. En in een berucht geval, heeft Google's algoritme voor beeldclassificatie ten onrechte mensen met een donkere huidskleur geclassificeerd als gorilla's.

Dit worden "randgevallen" genoemd, situaties waarvoor AI-algoritmen niet zijn getraind, meestal vanwege een gebrek aan gegevens. Het Uber-ongeval wordt nog onderzocht, maar sommige AI-experts suggereren dat het een ander randgeval zou kunnen zijn.

Diep leren moet nog veel worden overwonnen voordat het in kritieke situaties kan worden toegepast. Maar het falen ervan zou ons niet moeten afschrikken. We moeten onze percepties en verwachtingen aanpassen en de realiteit omarmen dat elke grote technologie faalt tijdens de evolutie ervan. AI is niet anders.

Uber's zelfrijdende auto-ongeluk: faalde ai ons?