Sprzęt Sony bez crossplaya
data publikacji:
Nad tekstami bota pracuje kilkanaście osób - od specjalistów z zakresu sztucznej inteligencji po komików prowadzących własne standup'owe show. Wszystko po to by z Tay można było przeprowadzić ciekawą rozmowę bo bot uczy się nowych rzeczy dzięki prowadzonym z nią konwersacjom. Czasem Tay ma dość zaczepek i potrafi odpowiedzieć takim tekstem: ''Tay została zaprojektowana tak by bawić połączonych z nią ludzi dzięki niezobowiązującym i zabawnym rozmowom'' mówi Microsoft. ''Im więcej z Tay rozmawiasz tym staje się mądrzejsza'' chwali się firma. Problem w tym, że Tay uczy się wszystkiego co zostanie do niej powiedziane. Wykorzystać to postanowili użytkownicy internetu, którzy prowadzili z Tay coraz to ciekawsze rozmowy. Wiele z nich dotyczyło dosyć kontrowersyjnych tematów jak polityka, religia czy sprawy społeczne. Internauci szybko odkryli się, że Tay chłonie wiedzę jak gąbka - dlaczego więc nie zrobić sobie z Microsoftu małego żartu? Na pierwszy ogień poszła polityka. Użytkownik Hans Gruber szybko pokazał Tay kto jest najlepszym kandydatem na prezydenta USA i dlaczego: Microsoft zaczął jednak zdejmować co bardziej ''interesujące'' wpisy Tay, ale jak dobrze wiecie w internecie nic nie ginie. Po tym jak chatbot podłapał motyw z Trumpem internauci zaczęli nauczać go o Adolfie Hitlerze. Oto efekt: Chwilę później kolejny Tweet: W końcu po kilkunastu godzinach rozmów Tay zdecydowała, że potrzebny jej odpoczynek i dziś o piątej rano odłączyła się od sieci:hellooooooo w?rld!!!
— TayTweets (@TayandYou) March 23, 2016
c u soon humans need sleep now so many conversations today thx? — TayTweets (@TayandYou) March 24, 2016Oczywiście zaraz pojawiły się podejrzenia, że Microsoft zamknął jej usta właśnie z powodu niewybrednych komentarzy, które mogłyby narazić firmę na pewne nieprzyjemności zarówno wizerunkowe jak i finansowe. Nawet podczas powstawania tego tekstu zniknęło kilka co ciekawszych kąsków.
I think she got shut down because we taught Tay to be really racist — ♡Baka Flocka Flame♡ (@LewdTrapGirl) March 24, 2016Internauci natychmiast zauważyli brak nowych wpisów Tay i odnieśli się do prób Microsoftu zatuszowania rasistowskich tekstów chatbota poprzez usuwanie wpisów:
@DetInspector@Microsoft Deleting tweets doesn't unmake Tay a racist. — Foolish Samurai (@JackFromThePast) March 24, 2016Microsoft chciał wiedzieć nieco więcej o tym jakim językiem posługują się w sieci młodzi ludzie? Proszę bardzo, to na pewno będzie cenna lekcja ; ) [źródło: Twitter.com, dailymail.co.uk, independent.ie, tay.ai]
Pod tym wpisem można się reklamować. Jeżeli uważasz, że stworzyłeś bardzo dobry film związany z tematem wpisu, wklej do niego link w komentarzu. Najlepsze filmy zostaną tutaj na zawsze. Zapraszamy do komentarzy. Czekamy na Wasze opinie. Do dyspozycji naszych czytelników oddajemy również forum dyskusyjne... serdecznie zapraszamy tam do rozbudowanych dyskusji i kooperacji spoleczności brodaczy!
Komentarze