Video: HOE WERKT EEN ZELFRIJDENDE AUTO? // Willem Wever // #36 (November 2024)
Het duurde niet lang om in de zelfrijdende auto van Google vorige week te beseffen dat de technologie niet alleen klaar is voor de weg, maar in sommige gevallen betere beslissingen neemt dan menselijke bestuurders - bijvoorbeeld vertragen en toegeven aan fietsers.
Als voorbeeld voegt zelfrijdende technologie een nieuwe wending toe aan het eeuwenoude filosofische dilemma dat bekend staat als het 'trolley-probleem'. In dit scenario moet een persoon beslissen of hij een hendel op een Y-kruising moet trekken en over een persoon moet rijden die aan het spoor is gebonden om vijf mensen te redden die aan het aangrenzende spoor zijn vastgebonden.
Voor zelfrijdende auto's is dit herschikt als het 'tunnelprobleem'. Stel je voor dat een autonoom voertuig op een eenbaansweg rijdt en op het punt staat een tunnel in te gaan, wanneer een kind onbedoeld zijn pad kruist net binnen de ingang, zodat de auto een fractie van een seconde moet nemen. Gaat het rechtdoor en raakt het kind? Of wijkt het uit en raakt het de tunnel, waarbij de inzittenden gewond raken of gedood worden?
De dag nadat ik een ritje had gemaakt in de zelfrijdende auto van Google in Mountain View, Californiƫ, woonde ik een evenement bij in de Noord-Amerikaanse R & D-faciliteit van Mercedes-Benz in het nabijgelegen Sunnyvale. Naast verschillende onderwerpen die gedurende de dag aan bod kwamen, gaven Stanford-professor en hoofd van het Revs-programma van de universiteit, Chris Gerdes, een presentatie over het onderwerp ethiek en autonome auto's.
Gerdes onthulde dat Revs heeft samengewerkt met Stanford's filosofie-afdeling over ethische kwesties met betrekking tot autonome voertuigen, terwijl de universiteit ook een reeks tests is begonnen om te bepalen wat voor soort beslissingen een robotauto in kritieke situaties kan nemen.
Wanneer filosofie het stuur neemt
Als onderdeel van zijn presentatie pleitte Gerdes voor waarom we filosofen nodig hebben om deze kwesties te bestuderen. Hij wees erop dat ethische problemen met zelfrijdende auto's een bewegend doelwit zijn en 'geen grenzen hebben', hoewel het aan de ingenieurs is om 'het probleem te beperken'.
Om dit te doen en de ethiek van zelfrijdende technologie voorbij een louter academische discussie te brengen, voert Revs experimenten uit met het x1 testvoertuig van Stanford door obstakels op de weg te plaatsen. Hij merkte op dat het plaatsen van verschillende prioriteiten in het softwareprogramma van de voertuigen heeft geleid tot "zeer verschillend gedrag".
Gerdes beweerde dat deze opkomende ethiek-gebaseerde programmering van zelfsturende software een "kernvereiste" voor de technologie zou kunnen worden - en niet iets dat alleen in ivoren torens wordt besproken. En hij voegde eraan toe dat ethiek niet iets is dat automakers kunnen krijgen van een "Tier 1" -leverancier, zoals een brandstofpomp of een dashboardscherm. Het recente VW Dieselgate-schandaal heeft dat zeker aangetoond.
Ervaren menselijke chauffeurs zijn al jaren geprogrammeerd om in een fractie van een seconde beslissingen te nemen - en ze nemen nog steeds niet altijd de juiste. Maar na te hebben gezien hoe de zelfrijdende voertuigen van Google reageren op alledaagse beslissingen en gehoord te hebben over het werk dat Stanford Revs en de filosofie-afdeling van de school doen, wed ik dat de auto's uiteindelijk slimmere beslissingen zullen nemen.