Microsoft leert van gedrag chatbot

De chatbot Tay werd binnen 24 uur een experiment waar Microsoft liever niet aan terugdenkt. Toch doet het bedrijf dit wel en leert tegelijkertijd van het incident.

Microsoft leert van Tay

Nadat Tay live ging op Twitter werd de chatbot direct uitgetest door Twitter-gebruikers. De bot is voorzien van een AI-routine die leert van interactie. Het resultaat? Een chatbot met extreme trekken die Hitler gelijk geeft.

Dat staat Microsoft natuurlijk allesbehalve mooi, wat de reden was voor het bedrijf om de bot offline te halen. Toch is het experiment hiermee niet voorbij.

Leren van fouten

Op de officiƫle Microsoft-blog geeft het bedrijf aan lessen te trekken uit Tay's gedrag. 'We nemen de volledige verantwoordelijkheid voor het niet op tijd zien van de mogelijkheid [van het tweeten van ongepaste woorden en beelden]. We zien dit als een les in combinatie met de ervaring die we op hebben gedaan in China, Japan en de VS.' Microsoft doelt hier op Xiaolice, eenzelfde soort chatbot die Microsoft eerder lanceerde in China.

Op het moment doet Microsoft aanpassingen aan de chatbot. Wanneer Tay weer live gaat, is nog niet bekend.