Op deze website gebruiken we cookies om content en advertenties te personaliseren, om functies voor social media te bieden en om ons websiteverkeer te analyseren. Ook delen we informatie over uw gebruik van onze site met onze partners voor social media, adverteren en analyse. Deze partners kunnen deze gegevens combineren met andere informatie die u aan ze heeft verstrekt of die ze hebben verzameld op basis van uw gebruik van hun services. Meer informatie.

Akkoord
abonneren

Microsofts AI-chatbot Tay vliegt uit de bocht met racistische tweets

Microsoft heeft zijn handen vol aan het verwijderen van tweets, die worden uitgekraamd door een nieuwe chatbot van het bedrijf. 'Tay' leert van de gesprekken die ze aangaat met andere gebruikers, en dat gaat binnen 24 uur al helemaal mis.

Microsoft lanceerde Tay gister op verschillende sociale media, waaronder Twitter. De woorden en zinnen die ze vormde, kwamen voort uit een complex algoritme dat gebaseerd is op de spreektaal van tieners. Hoe meer ze 'spreekt' met andere Twitteraars, hoe meer nieuwe woorden ze leert.

Maar wat vriendelijk begon, ontaarde al snel in een kleine catastrofe. Nu tweet de bot onder andere dat 'feministen moeten branden in de hel' en dat 'alle joden doodmoeten, Hitler had gelijk'. 

Misbruik

Tay is nog steeds online, maar de vraag blijft hoe lang het voor Microsoft nog de moeite waard blijft de bot te onderhouden. De wijze les lijkt tot nu toe vooral dat menselijke Twitter-gebruikers maar wat graag misbruik van de bot maken.

Geschreven door: Redactie PCM op

Category: Nieuws, Algemeen

Tags: AI, Twitter

Nieuws headlines

donderdag 09 november

Laatste reactie