Reklama

Opracowany przez firmę Microsoft chatbot dzięki wymianie myśli z użytkownikami Twittera zaczął hejtować i robić rasistowskie uwagi. O sprawie pisał między innymi serwis BBC News.

Reklama

Tay (skrót od Taylor), eksperymentalny program sztucznej inteligencji został zaprojektowany przez Microsoft i firmę Bing z myślą o interakcji z osobami wieku od 18 do 24 lat – używa typowego dla nich języka (dużo krótkich wiadomości i emotikonów) i uczy się zachowań zaobserwowanych na Twitterze. Tay, wirtualna dziewczyna, pracowała także z grupą, w skład której wchodzili specjaliści od komicznych improwizacji. Miała zabawiać użytkowników dowcipną konwersacją.

Kto z kim przestaje, takim się staje. Już po 24 godzinach firma zaczęła edytować niektóre z najbardziej kontrowersyjnych tweetów chatbota (adres @tayandyou) ze względu na przejęte od rozmówców wulgaryzmy, nazistowskie i rasistowskie uwagi oraz politycznie kontrowersyjne wypowiedzi (jak nawoływanie do ludobójstwa, czy twierdzenie, że feministki powinny smażyć się w piekle, a Hitler miał rację). Poza prostymi tematami politycznymi rozmowa się nie kleiła, bo Tay niewiele wiedziała o muzyce popularnej czy telewizji.

Komentujący zdarzenie internauci wyrażali zaniepokojenie kierunkiem, w jakim tak łatwo zbacza sztuczna inteligencja.

Twórcy programu zapowiedzieli „wprowadzenie pewnych poprawek”.

Źródło: PAP

Reklama

Reklama
Reklama
Reklama