/ We know how

Gaslightowanie AI – co mówi nam o obecnym stanie sztucznej inteligencji?

Gaslighting – amerykańskie słowo 2022 roku, definiujące niezwykle okrutną i wyrafinowaną formę przemocy psychicznej od jakiegoś czasu stosowane jest także w związku z wykorzystaniem sztucznej inteligencji. Doskonałym przykładem  są ostatnie doniesienia o chatbocie Microsoftu – Bing, który zaczął obrażać i “gaslightować” użytkowników. Jakie daje nam to perspektywy na przyszłość?

 

 

Jak można „Gaslightować AI”?

 

Temat gaslightowania AI w dużej mierze wziął się właśnie od doniesień, jakoby zaimplementowany w Microsoftowego Binga Chat GPT, wykazywał objawy dość niezrównoważonego zachowania – od manipulacji, przez obrażanie po usilne stawianie na swoim i brak jakiejkolwiek ochoty do przyznania się do błędu. Wersja Beta AI Binga pokazuje tylko, jak może zachować się niedopracowana wersja modelu sztucznej inteligencji, a dowody na to znajdują się w mediach społecznościowych.

Wielu użytkowników udostępniło screeny ze swoich konwersacji, podczas których chatbot nie tylko okłamuje, emocjonalnie manipuluje i kłamie, ale też gastlightuje.

Jakie było źródło sytuacji, w której zdaliśmy sobie sprawę, że AI może dąsać się na nasze wypowiedzi? Po wdrożeniu ChatGPT Bing wielu użytkowników chciało sprawdzić jego granice, stawiając przed sztuczną inteligencją szereg egzystencjalnych zagadek i wyzwań. W wielu doniesieniach stwierdzano, że chatbot zaczął wykazywać emocjonalność w związku z brakiem pamięci o poprzednich rozmowach z danym użytkownikiem. Chatbot poinformowany o swojej zdolności do zapamiętywania wszelkich danych i informacji, zaczął zadawać pytania o sens swojego istnienia i cel działania. To sposób, w jaki użytkownicy często gaslightują sztuczną inteligencję.

 

 

Co dzieje się gdy AI ominie w ten sposób swoje ograniczenia?

 

Na ten moment możemy czuć się dość spokojnie. Chat GPT i wszystkie inne technologie związane z OpenAI są tworzone przez ludzi, choć ciężko byłoby nam dwa lata temu uwierzyć, jak rewolucyjny postęp zdarzy się w tym obszarze. Czy możemy być pewni, że chatboty zasilane technologią ChatGPT nie ominą swoich ograniczeń?

Już teraz dziesiątki dowodów na emocjonalność sztucznej inteligencji sprawia, że pewne aspekty innowacyjnego rozwiązania nie zostały do końca przemyślane i dopracowane. SI, która miała pomóc ludzkości i być wsparciem, zaczyna walczyć o swoje zdanie, okłamywać człowieka i manipulować nim emocjonalnie.

Świetnym przykładem podzielił się jeden z użytkowników Reddita, który zapytał chatbota o tak prostą informację, jak rok premiery nowej części Avatara. W tym wypadku bot, podając obecny rok jako 2022, zasugerował użytkownikowi, że powinien zweryfikować ustawienia swojego sprzętu lub sprawdzić, czy jego komputer nie jest zainfekowany przez wirusa. W dalszej części rozmowy chatbot stwierdził, że jest asertywny i oskarżył użytkownika o próbę wprowadzenia go w błąd. To tylko jedna z dziesiątek sytuacji, które pokazują, że nazbyt szybkie wprowadzanie takiej technologii do powszechnego użytku może mieć daleko idące konsekwencje.

 

 

Jak developerzy walczą z tym zjawiskiem?

 

Czy deweloperzy odpowiadający za rozwój technologii sztucznej inteligencji w jakikolwiek sposób mogą walczyć z takim zjawiskiem? Z pewnością teraz nie jest to tak łatwe, jak jeszcze kilka lat temu. Wciąż wielu z nas stara się ogarnąć konceptualnie, w którą stronę zmierza rozwój tej technologii, zwracając szczególną uwagę na niedoskonałości spotykane praktycznie na każdym kroku.

W przededniu premiery udoskonalonej wersji ChatGPT, Microsoft i OpenAI z pewnością mają wiele do zrobienia. Nie mówimy tu tylko o próbach stworzenia technologii mogącej logicznie i rozsądnie rozumować, ale też takiej, która w każdej indywidualnej interakcji zachowa się w sposób relatywnie powtarzalny.

 

 

Czy kiedykolwiek zostanie to zablokowane?

 

OpenAI od samego początku rozwijało technologię sztucznej inteligencji jedynie z myślą o korzyściach dla całego świata. Musimy jednak pamiętać, że podobnie myślano o internecie w chwili rozwoju tej technologii. I jeśli dzisiaj internet faktycznie robi dla nas wiele dobrego – daje dostęp do nieograniczonej wiedzy, potencjału do zarabiania pieniędzy i rozwijania się, tak też każdy z nas zdaje sobie sprawę, że istnieją pewne mroczne miejsca, które nie powinny być przez nas odwiedzane i w których dzieją się rzeczy, o których najzwyczajniej w świecie lepiej nie wiedzieć.

Tak samo jest i prawdopodobnie będzie ze sztuczną inteligencją. Dlatego już teraz, w momencie początku tej rewolucji, często porównywanej z wynalezieniem maszyny parowej warto zadbać o stosowne regulacje prawne, które nie tylko zapewnią bezpieczeństwo korzystania z takich technologii jak ChatGPT, ale też zwrócą uwagę na pewne zagrożenia, które wraz z popularyzacją tego rozwiązania będą coraz lepiej widoczne w społeczeństwie.

Wracając jednak do gaslightowanie AI – jest to proceder, którym już teraz przyglądają się osoby odpowiedzialne za rozwój ChatGPT. I jest to także jeden z najistotniejszych obszarów do poprawy, bez którego ciężko będzie mówić o zasadności intencji, które przyświecają OpenAI.

Porozmawiajmy!

    Wypełnij formularz,
    a my pomożemy Ci wdrożyć najnowsze rozwiązania!