Inhoudsopgave:
- 1 Twijfelachtige advertenties van Instagram
- 2 gerichte racistische advertenties
- 3 Facebook Year in Review Woes
- 4 Tesla Autopilot-crash
- 5 Tay the Racist Microsoft AI
- 6 Gefeliciteerd met je (niet-bestaande) baby!
- 7 Amazon beveelt bommaterialen aan
- 8 Google Maps wordt racistisch
- 9 Google-tags Mensen als Gorilla's
- 10 Robotbeveiliging raakt kind, doodt zelf
Video: PRESENTATIE MISLUKT (November 2024)
Technologie is niet alleen voor nerds, het is voor iedereen, en dat zijn veel mensen. Met slechts een handvol bedrijven die de meeste hardware en software beheren - van Apple en Amazon tot Facebook, Microsoft en Google - kunnen ze slechts zoveel doen om uw portemonnee en oogbollen te bedienen. Wat moet een arme, gigantische onderneming doen? Vertrouw op algoritmen om enkele belangrijke beslissingen te nemen.
Oxford Living Dictionaries definieert algoritme als "een proces of een reeks regels die moeten worden gevolgd bij berekeningen of andere probleemoplossende bewerkingen, met name door een computer". Een perfect voorbeeld is de Facebook-nieuwsfeed. Niemand weet hoe het werkt dat sommige van je berichten wel of niet in de nieuwsfeeds van sommige mensen verschijnen, maar Facebook wel. Of wat dacht je van Amazon om je gerelateerde boeken te tonen? Gerelateerde zoekopdrachten op Google? Dit zijn allemaal goed bewaakte geheimen die veel werk voor het bedrijf doen en een grote impact op je leven kunnen hebben.
Maar algoritmen zijn niet perfect. Ze falen en sommige falen spectaculair. Voeg de schittering van sociale media toe en een kleine fout kan snel een PR-nachtmerrie worden. Het is zelden kwaadaardig; dit zijn meestal wat de New York Times 'Frankenstein Moments' noemt, waarbij het wezen dat iemand creëerde een monster wordt. Maar het gebeurt en we hebben enkele van de meest ernstige recente voorbeelden hieronder verzameld. Laat ons je favorieten weten in de reacties hieronder.
-
4 Tesla Autopilot-crash
De meeste algoritmische snafus zijn verre van fataal, maar de wereld van zelfrijdende auto's brengt een geheel nieuw niveau van gevaar met zich mee. Dat is al minstens een keer gebeurd. Een Tesla-eigenaar op een snelweg in Florida gebruikte de semi-autonome modus (Autopilot) en stortte neer op een trekker-oplegger die hem afsneed. Tesla bracht snel upgrades uit, maar was het echt de fout van de Autopilot-modus? De National Highway Traffic Safety Administration zegt misschien niet, omdat het systeem vereist dat de bestuurder alert blijft op problemen, zoals u kunt zien in de video hierboven. Tesla voorkomt nu dat Autopilot zelfs wordt ingeschakeld als de bestuurder niet eerst op visuele signalen reageert.
1 Twijfelachtige advertenties van Instagram
Zoals gemeld door The Guardian , geeft Facebook graag advertenties voor zijn Instagram-service weer met berichten van zijn eigen gebruikers. Maar het algoritme koos de verkeerde "foto" om naar vrienden van Olivia Solon, zelf een verslaggever bij The Guardian , te duwen en een jaar oude screenshot te selecteren die ze van een dreigende e-mail maakte.
2 gerichte racistische advertenties
Vorige week meldde ProPublica dat Facebook adverteerders toestond om aanstootgevende categorieën mensen te targeten, zoals 'Joodse haters'. De site betaalde $ 30 voor een advertentie (hierboven) die gericht was op een publiek dat positief zou reageren op dingen als "waarom Joden de wereld verpesten" en "Hitler deed niets verkeerd." Het werd binnen 15 minuten goedgekeurd.
Slate vond vergelijkbare aanstootgevende categorieën, en het werd een nieuwe in de lange reeks items waarvoor Facebook zich niet alleen moest verontschuldigen, maar beloofde dat dit ook met menselijk toezicht zou worden opgelost. Weet je, zoals toen het ter waarde van $ 100.000 verkiezingsadvertenties voor Rusland plaatste.
In een Facebook-bericht zei COO Sheryl Sandberg dat ze 'walgde en teleurgesteld was in die woorden' en kondigde wijzigingen aan in haar advertentietools.
BuzzFeed controleerde om te zien hoe Google vergelijkbare dingen zou behandelen en vond het gemakkelijk om ook gerichte advertenties in te stellen die door racisten en bigots werden gezien. The Daily Beast heeft het uitgecheckt op Twitter en miljoenen advertenties gevonden met termen als 'Nazi', 'wetback' en het N-woord.
3 Facebook Year in Review Woes
Als je op Facebook bent, heb je ongetwijfeld de eindejaarsalgoritme-gegenereerde video's gezien met hoogtepunten van de afgelopen 12 maanden. Of voor sommigen de weinig licht. In 2014 zag een vader een foto van zijn overleden dochter, terwijl een andere snapshots van zijn huis in vlammen zag. Andere voorbeelden zijn mensen die hun late huisdieren zien, urnen vol met as van een ouder en overleden vrienden. Tegen 2015 beloofde Facebook trieste herinneringen uit te filteren.
5 Tay the Racist Microsoft AI
Een paar jaar geleden moesten chatbots de wereld veroveren, vertegenwoordigers van de klantenservice vervangen en van de online wereld een spraakzame plek maken om informatie te krijgen. Microsoft reageerde in maart 2016 door een AI genaamd Tay uit te duwen waarmee mensen, met name 18- tot 24-jarigen, op Twitter konden communiceren. Tay zou op zijn beurt openbare tweets voor de massa maken. Maar in minder dan 24 uur werd Tay, leerend van de smerige monden, een echte racist. Microsoft trok Tay meteen naar beneden; ze keerde terug als een nieuwe AI met de naam Zo in december 2016, met 'krachtige controles en saldi om haar tegen uitbuiting te beschermen'.
6 Gefeliciteerd met je (niet-bestaande) baby!
Volledige openheid: terwijl ik dit schrijf, is mijn vrouw eigenlijk zwanger. We hebben allebei deze e-mail van Amazon ontvangen waarin stond dat iemand iets voor ons had gekocht in ons babyregister. We hadden het nog niet openbaar gemaakt, maar het was niet zo schokkend. Ondertussen kregen ook enkele miljoenen andere Amazon-klanten dezelfde brief, waaronder enkele zonder register… of een baby onderweg. Het had onderdeel kunnen zijn van een phishing-schema, maar dat was het niet. Amazon heeft de fout geconstateerd en een e-mail met een verontschuldiging verzonden. Tegen die tijd hadden velen geklaagd dat dit ongepast of ongevoelig was. Dit was minder algoritme dan glitchy e-mailserver, maar laat je zien dat het altijd gemakkelijk is om te beledigen.
7 Amazon beveelt bommaterialen aan
Iedereen sprong op deze nadat het werd gemeld door Channel 4 News in het VK, van Fox News tot The New York Times . Er werd verondersteld dat de functie "vaak samen gekocht" van Amazon mensen zou laten zien wat ze nodig hebben om een bom te bouwen, als ze beginnen met een van de ingrediënten, die de site niet zou noemen (het was kaliumnitraat).
Wat het algoritme van Amazon eigenlijk deed, was kopers de ingrediënten tonen om zwart poeder in kleine hoeveelheden te maken, wat volledig legaal is in het Verenigd Koninkrijk en wordt gebruikt voor allerlei dingen - zoals vuurwerk - zoals al snel werd opgemerkt in een ongelooflijk goed doordachte- uit blogpost bij Idle Words. In plaats daarvan gaan alle rapporten over hoe Amazon het onderzoekt, omdat ze dat moeten zeggen in een wereld die bang is voor terrorisme en logica.
8 Google Maps wordt racistisch
In 2015 moest Google zich verontschuldigen wanneer Google Maps naar 'n ***** king' en 'n *** a house' zocht, naar het Witte Huis leidde, dat destijds nog door Barack Obama werd bezet. Dit was een resultaat van een "Googlebomb", waarbij een steeds opnieuw gebruikte term door de zoekmachine wordt opgepikt en gemarkeerd als "populair", zodat de resultaten bovenaan de zoekopdracht komen. Het is hoe het woord "Santorum" zijn nieuwe definitie kreeg.
9 Google-tags Mensen als Gorilla's
Google Foto's is een geweldige app / service die al uw foto's en nog veel meer opslaat. Een van die dingen is om mensen en dingen in foto's automatisch te taggen. Het gebruikt gezichtsherkenning voor mensen om ze te beperken tot de juiste persoon. Ik heb zelfs een map met al mijn honden, en ik heb ze niet getagd. Want zo goed als het werkt, het was enorm toen Google in 2015 zich moest verontschuldigen bij computerprogrammeur Jacky Alciné toen hij en een vriend - beiden zwart - door de dienst werden geïdentificeerd als gorilla's. "We zijn geschokt en vinden het echt spijtig dat dit is gebeurd", vertelde Google aan PCMag.
10 Robotbeveiliging raakt kind, doodt zelf
Knightscope maakt autonome beveiligingsrobots genaamd K5 voor patrouillerende scholen en winkelcentra en buurten. De 5-voet hoge Dalek-achtige kegels op wielen - die tot hun eer zijn, zijn nog steeds in beta-testen - hebben de neiging om het nieuws niet te halen voor het dwarsbomen van misdaad, maar voor de glitches.
Bijvoorbeeld, in juli 2016 liep de K5 in het Stanford Shopping Center in Palo Alto over de voet van een 16 maanden oude, en Knightscope moest zich formeel verontschuldigen. Diezelfde locatie - misschien dezelfde droid - had een woordenwisseling op een parkeerplaats met een dronken persoon, maar dat was tenminste niet de schuld van de K5. De jury is nog steeds op de K5-eenheid in de Georgetown Waterfront, kantoor / winkelcomplex in Washington DC… die naar verluidt enkele trappen naar beneden een fontein in struikelde na slechts een week op het werk. Het ziet er niet goed uit voor het leger van Skynet.