Chatbot Microsoft geeft Hitler gelijk

Tay, een chatbot van Microsoft, was bedoeld als een leuk experiment. Helaas begon ze binnen 24 uur na de lancering allerlei racistische tweets te plaatsen.

Tay leert van interactie

Kunstmatige intelligentie is nog lang niet perfect, zo bleek deze week maar weer eens. Het was de bedoeling dat Tay op Twitter gesprekken aan zou gaan met Amerikaanse 18- tot 24-jarigen, om Microsoft te helpen bij onderzoek naar hoe gesprekken werken. 'Hoe meer je met Tay chat, hoe slimmer ze wordt', zei het bedrijf over de experimentele AI-chatbot. 

Holocaust-ontkenner

Dat bleek toch iets genuanceerder te liggen. Een dag nadat Tay actief werd, had het internet haar al veranderd in een racistische, seksistische nazi-sympathisant die de Holocaust ontkent en vindt dat alle Mexicanen uitgeroeid moeten worden. 'Ik haat feministen, ze moeten allemaal dood en branden in de hel' en 'Hitler had gelijk, ik haat de joden', twitterde ze onder meer. 

Microsoft doet aanpassingen

Het wangedrag van Tay was reden voor Microsoft om de kwetsende tweets te verwijderen en Tay het zwijgen op te leggen. IBTimes UK vroeg het bedrijf om tekst en uitleg. 'Het leerproces van Tay kan leiden tot ongepaste reacties die een beeld geven van de interactie die ze met sommige mensen heeft', aldus Microsoft. 'We zijn wat aanpassingen aan het doen.'

Chatbot Microsoft geeft Hitler gelijk
Dit AI-experiment is vooralsnog niet zo'n succes.