Inhoudsopgave:
- Gezichtsherkenning bij wetshandhaving
- The Fallout of Google's Military AI Project
- Hoe technische leiders reageerden
Video: Een ethisch beslissingsmodel (November 2024)
Sinds diepe neurale netwerken in 2012 's werelds belangrijkste competitie voor beeldherkenning hebben gewonnen, is iedereen enthousiast over wat kunstmatige intelligentie zou kunnen ontketenen. Maar in de race om nieuwe AI-technieken en -toepassingen te ontwikkelen, namen de mogelijke negatieve effecten een achterbank in.
Gezichtsherkenning bij wetshandhaving
In het verleden was het maken van toepassingen voor gezichtsherkenning zwaar, resource-intensief en foutgevoelig. Maar met de vooruitgang in computer vision - de subset van AI waarmee computers de inhoud van afbeeldingen en video kunnen herkennen - werd het creëren van gezichtsherkenningstoepassingen veel eenvoudiger en binnen ieders bereik.
Grote technologiebedrijven zoals Microsoft, Amazon en IBM begonnen cloudgebaseerde services te leveren waarmee elke ontwikkelaar gezichtsherkenningstechnologie in zijn software kon integreren. Dit ontgrendelde veel nieuwe use cases en applicaties in verschillende domeinen, zoals identiteitsbescherming en authenticatie, smart home security en retail. Maar privacyrechtenactivisten hebben bezorgdheid geuit over het potentieel voor misbruik.
In mei 2018 heeft de American Civil Liberties Union onthuld dat Amazon Rekognition, een realtime video-analysetechnologie, verkoopt aan wetshandhavingsinstanties en overheidsinstanties. Volgens de ACLU gebruikte de politie in ten minste drie staten Rekognition voor gezichtsherkenning op bewakingsvideo-feeds.
"Met Rekognition kan een overheid nu een systeem bouwen om de identificatie en het volgen van iedereen te automatiseren. Als camera's van politie-instanties bijvoorbeeld werden uitgerust met gezichtsherkenning, zouden apparaten die bedoeld zijn voor officiertransparantie en verantwoording verder worden omgezet in bewakingsmachines gericht op de openbaar ', waarschuwde ACLU. "Door massale surveillance te automatiseren, bedreigen gezichtsherkenningssystemen zoals Rekognition deze vrijheid, en vormen ze een bijzondere bedreiging voor gemeenschappen die al ten onrechte het doelwit zijn in het huidige politieke klimaat. Zodra krachtige surveillancesystemen zoals deze zijn gebouwd en ingezet, zal de schade uiterst moeilijk ongedaan te maken zijn."
De zorgen van de ACLU werden weerspiegeld door Amazon-medewerkers, die in juni een brief aan Jeff Bezos, de CEO van het bedrijf, schreven en eisten dat hij stopte met de verkoop van Rekognition aan wetshandhavers. "Ons bedrijf hoort niet in de bewakingsbranche te zijn; we zouden niet in de politiebranche moeten zijn; we zouden niet in de zaak moeten zijn om degenen te ondersteunen die gemarginaliseerde bevolkingsgroepen in de gaten houden en onderdrukken, " luidde de brief.
In oktober onthulde een anonieme medewerker van Amazon dat minstens 450 werknemers een andere brief hadden ondertekend waarin Bezos en andere leidinggevenden werden opgeroepen om te stoppen met het verkopen van Rekognition aan de politie. "We kunnen niet profiteren van een subset van krachtige klanten ten koste van onze gemeenschappen; we kunnen onze ogen niet afwenden van de menselijke kosten van ons bedrijf. We zullen niet stilzwijgend technologie bouwen om mensen te onderdrukken en te doden, in ons land of in andere landen, " het zei.
The Fallout of Google's Military AI Project
Terwijl Amazon te maken had met deze interne terugslag, ondervond Google vergelijkbare problemen met een contract om AI te ontwikkelen voor het Amerikaanse leger, genaamd Project Maven.
Google zou het ministerie van Defensie naar verluidt helpen bij de ontwikkeling van computervisietechnologie die videobeelden met drones zou verwerken. De hoeveelheid videobeelden die elke dag door drones werden opgenomen, was te veel voor menselijke analisten om te beoordelen en het Pentagon wilde een deel van het proces automatiseren.
Een woordvoerder van Google erkende het controversiële karakter van de taak en stelde dat het alleen API's leverde voor TensorFlow, het machine-learningplatform, voor het detecteren van objecten in videofeeds. Google benadrukte ook dat het beleid en waarborgen ontwikkelde om ethische aspecten van zijn technologie aan te pakken.
Maar Project Maven paste niet goed bij Google-medewerkers - van wie 3.000, waaronder tientallen ingenieurs, al snel een open brief aan CEO Sundar Pichai ondertekenden waarin werd opgeroepen tot beëindiging van het programma.
"Wij vinden dat Google geen oorlog moet voeren", stond in de brief. Het vroeg het bedrijf "een duidelijk beleid op te stellen, bekend te maken en af te dwingen dat Google noch zijn aannemers ooit oorlogvoeringstechnologie zullen bouwen."
De Google-medewerkers waarschuwden ook dat hun werkgever zijn reputatie en zijn vermogen om in de toekomst om talent te concurreren in gevaar bracht. "We kunnen de morele verantwoordelijkheid van onze technologieën niet uitbesteden aan derden", benadrukten de Googlers.
Kort daarna riep een petitie, ondertekend door 90 academici en onderzoekers, topbestuurders van Google op om te stoppen met werken aan militaire technologie. De ondertekenaars waarschuwden dat het werk van Google de weg zou banen voor 'geautomatiseerde doelherkenning en autonome wapensystemen'. Ze waarschuwden ook dat ze, naarmate de technologie zich ontwikkelt, "een korte stap verwijderd zijn van het autoriseren van autonome drones om automatisch te doden, zonder menselijk toezicht of zinvolle menselijke controle."
Naarmate de spanningen toenamen, namen verschillende Google-medewerkers ontslag uit protest.
Hoe technische leiders reageerden
Onder druk verklaarde Google in juni dat het zijn contract met het ministerie van Defensie voor Project Maven niet zou verlengen nadat het in 2019 afloopt.
In een blogpost verklaarde CEO Sundar Pichai (hieronder afgebeeld) een reeks ethische principes die de ontwikkeling en verkoop van AI-technologie door het bedrijf zouden regelen. Volgens Pichai zal het bedrijf vanaf nu projecten overwegen die het welzijn van de samenleving als geheel ten goede komen en de ontwikkeling van AI vermijden die bestaande oneerlijke vooroordelen versterkt of de openbare veiligheid ondermijnt.
Pichai verklaarde ook expliciet dat zijn bedrijf niet zal werken aan technologieën die de mensenrechtennormen schenden.
Amazon's Bezos was minder geschrokken van de verontwaardiging over Rekognition. "We gaan door met het ondersteunen van de DoD, en ik denk dat we dat moeten doen, " zei Bezos op een technische conferentie in San Francisco in oktober. "Een van de taken van senior leiderschap is om de juiste beslissing te nemen, zelfs als deze niet populair is."
Bezos onderstreepte ook de noodzaak voor de technische gemeenschap om het leger te ondersteunen. "Als grote technologiebedrijven de DoD de rug toekeren, komt dit land in de problemen", zei hij.
Microsoft-president Brad Smith, wiens bedrijf kritiek kreeg op zijn werk met ICE, publiceerde in juli een blogpost waarin hij opriep tot een afgemeten aanpak bij de verkoop van gevoelige technologie aan overheidsinstanties. Hoewel Smith niet uitsluit dat gezichtsherkenningsdiensten worden verkocht aan wetshandhavers en het leger, benadrukte hij de noodzaak van betere regelgeving en transparantie in de technologiesector.
- MIT besteedt $ 1 miljard aan programma om AI-ethiek te bestuderen MIT besteedt $ 1 miljard aan programma om AI-ethiek te bestuderen
- Spreekt AI echt onze taal? Spreekt AI echt onze taal?
- De niet te stoppen AI-fabriek in China afbreken De niet te stoppen AI-fabriek in China afbreken
"We hebben gekozen vertegenwoordigers in het Congres hebben de instrumenten die nodig zijn om deze nieuwe technologie, met al zijn gevolgen te beoordelen. We profiteren van de checks and balances van een grondwet die ons heeft gezien vanaf de leeftijd van kaarsen tot een tijdperk van kunstmatige intelligentie. Zoals in zo vaak in het verleden moeten we ervoor zorgen dat nieuwe uitvindingen onze democratische vrijheden dienen overeenkomstig de rechtsstaat, "schreef Smith.
In 2018 maakten verre dreigingen van moordende robots en massale werkloosheid plaats voor bezorgdheid over de meer onmiddellijke ethische en sociale impact van AI. In veel opzichten wijzen deze ontwikkelingen erop dat de industrie volwassen wordt, omdat AI-algoritmen prominenter worden in kritieke taken. Maar naarmate algoritmen en automatisering meer ingebakken raken in ons dagelijks leven, zullen er meer debatten ontstaan.