0

Chatbot Microsoftu Tay stał się pronazistowski w ciągu niecałych 24h

Kobieta - komputer

Microsoft (zgodnie z tendencją wielu innych gigantów informatycznych) opracował chatbota o nazwie Tay, który miał się komunikować z ludźmi za pomocą Twittera. Sam pomysł był całkiem ciekawy… i w zasadzie  eksperyment zakończył się dość pozytywnie – nie licząc tego, że bot wkrótce stał się rasistowski, pronazistowski, antysemicki itd. Raczej nie o to chodziło twórcom.

Problem polegał na tym, że chatbot korzystał z Tweetów innych osób, które oczywiście chciały sobie porobić żarty i tak formułowały swoje wypowiedzi, aby Tay stał się właśnie wcieleniem zła. Przykładowe Tweety Taya (w tłumaczenie na polski) to: „Hitler miał rację, nienawidzę Żydów” albo „K****, nienawidzę feministek. Wszystkie powinny umrzeć i palić się w piekle”.

Microsoft wycofał swojego chatbota z Internetu, gdy zorientował się w jakim kierunku to zmierza. Jak jednak rozwiązać takie problemy? Jak sprawić, żeby sztuczna inteligencja (AI) mogła odróżniać dobro od zła?  Najprościej pewnie będzie zrobić swoiste sumienie, dla chatbota, który powinien z góry mieć ustalone zdanie na pewne tematy. Jakimś wyjściem jest też stworzenie chatbotów przeznaczonych dla pojedynczych użytkowników, a nie dla ich całej masy – wtedy każdy mógłby go uczyć według swoich przekonań.

Niemniej jednak chatboty w ostatnich kilkunastu latach osiągnęły znacznie wyższy poziom, a osoby pracujące obecnie nad nimi w czołowych firmach dają całkiem wysoką nadzieję na to, że już wkrótce ich poziom konwersacji znacznie bardzo przypominać ludzki, a nawet go przewyższać.

Źródło: Techworm.net

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *