Selectați pagina

În doar 24 de ore chat-bot-ul lui Microsoft a început să înjure şi a devenit rasist

În doar 24 de ore chat-bot-ul lui Microsoft a început să înjure şi a devenit rasist

chat botChat-bot-ul Tay, elaborat de Microsoft şi lansat pe Twitter pe 23 martie, s-a învăţat să înjure şi să emită enunţuri rasiste şi incitatoare la ură, scrie Bloomberg.

O versiune experimentală de intelect artificial, care poate să înveţe de la interlocutori şi să preia maniera lor de comunicare, a fost creată pentru a demonstra stilul de comunicare a tinerilor de 18-24 de ani. Dar numai la 24 de ore de la lansare, Microsoft a fost nevoit să şteargă unele din cale mai provocatoare declaraţii ale lui Tay.

Chat-bot, între altele, a declarat că susţine genocidul, le urăşte pe feministe, dar a căzut de acord cu politica lui Hitler şi cu susţinerea lui Donald Trump la preşedinţia SUA.

Chat-bot-ul de asemenea a spus că-i “urăşte pe toţi”.

Într-un comunicat, corporaţia regretă că a trebuit să stopeze activitatea acestuia pentru a introduce unele modificări.

Lasa un raspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *