Wat ging er mis met Microsoft’s chatbot?

Microsoft is behoorlijk aan het experimenteren met artificiële intelligentie (AI). Vandaag kwam het nieuws naar buiten dat Microsoft een tweede chatbot uitprobeert met de naam Zo. Wat zijn de lessen die Microsoft leerde van Zo’s voorganger?

Eind maart 2016 activeerde Microsoft de chatbot Tay op Twitter. De naam was afgeleid van ‘Thinking About You’. Tay was een soort experiment om te kijken hoe hun artificiële intelligentie-techniek in het wild zou renderen. De Twitter-chatrobot was in staat om foto’s te herkennen en te reageren op andere gebruikers. De programmeurs hadden Tay opgevoed om sommige gevoelige actuele onderwerpen te vermijden, maar ze hadden er geen rekening mee gehouden dat Tay iets te goedleers was en al gauw andere meningen begon over te nemen. Een grote groep Twittergebruikers misbruikten dit om Tay erg fout op te voeden met seksistische, racistische en politiek gevoelige meningen. Dit leidde tot een PR-drama voor Microsoft, waarna Tay’s Twitter-account werd opgeschort.

Zo

Maar AI is natuurlijk bijzonder belangrijk voor Microsoft. Bijvoorbeeld om de werking van Cortana te verbeteren, Bing te verbeteren, conversaties te begrijpen (wat bijvoorbeeld handig kan zijn als je Skype-gespreken live wilt vertalen) of helpdesktaken wilt automatiseren. Daarom heeft Microsoft een nieuw account live gezet, met de naam Zo. Zo is niet actief op Twitter, maar op de chatdienst Kik. Dat is wel zo handig, want alles dat Zo zegt is daardoor niet voor iedereen zichtbaar.

Deel dit artikel
Voeg toe aan favorieten