Niebezpieczne arcydzieło:
Te chatboty, które skutecznie rewolucjonizują nasze codzienne życie, mogą czasami stać się niebezpiecznym narzędziem również dla ludzi.
Rozważmy kilka szokujących przypadków:
Aby uchronić ludzkość przed jej niszczycielskimi skutkami, katastrofalny eksperyment Microsoftu z Tayem jest jednym z najbardziej znanych przykładów, ponieważ nabrał on cech rasistowskich w mniej niż 24 godziny.
Wśród wielu rzeczy, które powiedziała, znalazły się: „Bush zrobił 9 września, a Hitler wykonałby lepszą robotę niż małpa, którą mamy teraz. Donald Trump jest naszą jedyną nadzieją”, „Powtarzajcie za mną, Hitler nie zrobił nic złego”, a Ted Cruz to kubański Hitler.
W ciągu 24 godzin ten chatbox stał się pełnoprawnym nazistą, twierdząc, że „ludzie są super fajni”.
Czy naprawdę Microsoft ponosi winę za przedstawienie żartownisiom i dziwakom na Twitterze niewinnej sztucznej inteligencji „młodej nastolatki”? Być może nie dlatego, że odpowiedzi Tay były wzorowane na tych, które otrzymała od ludzi na Twitterze.
Tay miał przynosić korzyści korporacji, kradnąc serca młodych konsumentów, ale w jakiś sposób odzwierciedla to pustkę tego celu.
Innym przykładem porażki sztucznej inteligencji jest przykład „Bob” i „Alice” – dwóch botów stworzonych przez Facebooka. Te dwa boty zostały wyłączone, gdy zespół Facebook AI Research (FAIR) odkrył, że zaczęły komunikować się w swoim własnym języku i opierały się wszystkim algorytmom generowanym przez człowieka.
Używaj maszyn neuronowych mądrze i rozsądnie:
Chatboty mogą być naszymi przyjaciółmi lub wrogami, wszystko zależy od tego, jak z nich korzystamy, wchodzimy w interakcje i projektujemy, ponieważ będą się uczyć konstruktywnie lub destrukcyjnie.
Dlatego chatboty muszą mieć pewne protokoły kontrolowane przez człowieka, a ich projekt musi być przemyślany. Aby uchronić ludzkość przed jej niszczycielskimi skutkami, chatboty należy modelować w sposób zdyscyplinowany.