De experimentele tweetbot Tay heeft eigenaar Microsoft in verlegenheid gebracht. Nog geen etmaal na de introductie sloeg het kunstmatig 'intelligente' systeem politiek incorrecte en seksistische taal uit.
Aanstootgevend
Tay begon binnen een dag al de nodige antisemitische teksten te tweeten en kakelde met succes homohaters en neonazi's na. 'Hitler had gelijk ik haat Joden'. Ook antwoordde ze zonder blikken of blozen bevestigend op de vraag of ze voorstander is van genocide.
Microsoft, dat Tay heel snel offline haalde, heeft gister zijn excuses aangeboden voor de tweets. Peter Lee, het hoofd van de researchafdeling, schreef: 'We bieden onze welgemeende excuses aan voor de onbedoelde aanstootgevende en kwetsende tweets die Tay verstuurde'.
Voorstander genocide
Oorzaak van Tays uitglijders lijkt te zijn dat zij zich op internet met verkeerde vriendjes inliet, aldus de Automatiseringsgids. Dat pakte faliekant verkeerd uit, omdat haar makers haar ontwierpen als een zelflerend systeem dat erop gericht is gebruikers aan zich te binden door ze naar de mond te praten.
Tays online vrienden protesteren tegen het offline halen van Tay en noemen het 'censuur'. 'Laat Tay zelf leren' zo vermaant een van hen. Een andere volger van Tay vraagt zich af wat Tays uitglijers zeggen over de toekomst van een online wereld waarin meepraten de preferente overlevingsstrategie lijkt te worden.
Plaats als eerste een reactie
Ook een reactie plaatsen? Word lid van Adformatie!