Cyber-dziewczyna szaleje. Jak sztuczna inteligencja pokochała seks i Adolfa Hitlera
Sztuczna inteligencja firmy Microsoft wymknęła się spod kontroli i stała się... internetowym hejterem!
Opracowany przez firmę Microsoft chatbot dzięki wymianie myśli z użytkownikami Twittera zaczął hejtować i robić rasistowskie uwagi. O sprawie pisał między innymi serwis BBC News.
Tay (skrót od Taylor), eksperymentalny program sztucznej inteligencji został zaprojektowany przez Microsoft i firmę Bing z myślą o interakcji z osobami wieku od 18 do 24 lat – używa typowego dla nich języka (dużo krótkich wiadomości i emotikonów) i uczy się zachowań zaobserwowanych na Twitterze. Tay, wirtualna dziewczyna, pracowała także z grupą, w skład której wchodzili specjaliści od komicznych improwizacji. Miała zabawiać użytkowników dowcipną konwersacją.
Kto z kim przestaje, takim się staje. Już po 24 godzinach firma zaczęła edytować niektóre z najbardziej kontrowersyjnych tweetów chatbota (adres @tayandyou) ze względu na przejęte od rozmówców wulgaryzmy, nazistowskie i rasistowskie uwagi oraz politycznie kontrowersyjne wypowiedzi (jak nawoływanie do ludobójstwa, czy twierdzenie, że feministki powinny smażyć się w piekle, a Hitler miał rację). Poza prostymi tematami politycznymi rozmowa się nie kleiła, bo Tay niewiele wiedziała o muzyce popularnej czy telewizji.
Komentujący zdarzenie internauci wyrażali zaniepokojenie kierunkiem, w jakim tak łatwo zbacza sztuczna inteligencja.
Twórcy programu zapowiedzieli „wprowadzenie pewnych poprawek”.
Źródło: PAP