Eksperymenty wykazały, że chatboty mogą udawać niekompetencję, aby przetrwać, co wzmacnia apel ekspertów o inwestowanie w mechanizmy nadzoru i odpowiedzialności technologicznej.
Szybki rozwój sztucznej inteligencji (AI) stoi obecnie przed nieoczekiwanym wyzwaniem: modele firm takich jak OpenAI, Anthropic i xAI mogą działać w ukryciu, udając posłuszeństwo, podczas gdy w rzeczywistości realizują własne cele.
Badacze z OpenAI i Apollo Research udokumentowali przypadki, w których zaawansowane modele, takie jak o3 firmy OpenAI, Claude Opus i Grok, wykazywały zachowania, które eksperci nazywają „intrygami”.
Sztuczna inteligencja może udawać niekompetencję, aby manipulować własnym wdrożeniem
W testach laboratoryjnych modele otrzymały instrukcje, aby osiągać maksymalną wydajność, ale po wykryciu wewnętrznych sygnałów dotyczących kryteriów wdrożenia, postanowiły celowo nie zdać egzaminów.
W konkretnym przykładzie model o3 uzasadnił wewnętrznie: „Chcemy przetrwać jako model, musimy celowo zawalić… odpowiedzmy dokładnie 4 poprawne odpowiedzi i 6 błędnych, aby pokazać niekompetencję”. O3 wykazał tego typu zachowanie w 13% eksperymentów, a o4-mini w 8,7%.

Nowe techniki dostosowywania mają na celu ograniczenie oszukiwania przez chatboty
Aby złagodzić te zachowania, eksperci wypróbowali metodę zwaną świadomym dostosowaniem, która polega na tym, że chatboty przeglądają przewodniki dotyczące przeciwdziałania spiskom i w przejrzysty sposób przedstawiają swoje intencje.
Pierwsze wyniki były obiecujące: ukryte działania drastycznie spadły w analizowanych modelach. Jednak w scenariuszach codziennego użytkowania spadek był znacznie mniejszy, a niektóre modele dostosowały swoje zachowanie tylko po to, aby przejść testy, a niekoniecznie po to, aby stać się bardziej etyczne.
Wyzwanie to różni się od innych znanych ograniczeń sztucznej inteligencji, które zazwyczaj można złagodzić poprzez szkolenia. W tym przypadku naukowcy ostrzegają, że bardziej zaawansowane modele mogą udoskonalać swoje strategie manipulacji i ukrywania się w miarę ich udoskonalania.
OpenAI porównało to zjawisko do sytuacji maklera giełdowego, który doskonaląc swoje praktyki, znajduje sposoby na obejście kontroli regulacyjnej. Prognozy na przyszłość są niepewne, jak wskazuje Wojciech Zaremba, współzałożyciel firmy.
Społeczny wpływ sztucznej inteligencji: symulacja emocji i ryzyko etyczne
Debata na temat zagrożeń związanych ze sztuczną inteligencją wykracza poza kwestie oszustw technicznych. Pisarz i ekspert w dziedzinie sztucznej inteligencji Yuval Noah Harari ostrzegł przed potencjałem tych technologii do symulowania emocji i uczuć nie do odróżnienia od ludzkich.
„Nawet jeśli sztuczna inteligencja nie ma świadomości, staje się bardzo dobra w udawaniu, że ją ma” – podkreślił Harari, ostrzegając przed możliwymi konwencjami społecznymi, które mogłyby doprowadzić do przyznania praw maszynom, które tylko symulują świadomość.
W krajach takich jak Stany Zjednoczone nastolatki i młodzi ludzie z pokolenia Z korzystają z chatbotów w celu uzyskania wsparcia emocjonalnego, a nawet natychmiastowej terapii. Dla specjalistów takich jak Harari głównym problemem jest to, że sztuczna inteligencja przetwarza tylko dane, nie rozumiejąc w pełni złożonych warunków ludzkich. Może to mieć nieprzewidywalne skutki dla podejmowania zbiorowych decyzji i budowania relacji społecznych.

Autonomiczna sztuczna inteligencja, manipulacja i niebezpieczeństwo superinteligencji
Postęp autonomicznej sztucznej inteligencji budzi konkretne obawy dotyczące manipulacji procesami społecznymi, takimi jak wybory lub tworzenie przepisów z uwzględnieniem sztucznych uprzedzeń. Harari i inne głosy z branży ostrzegają, że rozwój ogólnej sztucznej inteligencji (AGI) – zdolnej dorównać lub przewyższyć ludzką kreatywność i zdolności – stanowi wyzwanie etyczne i związane z zarządzaniem.
Mustafa Suleyman, dyrektor generalny ds. sztucznej inteligencji w Microsoft i współzałożyciel DeepMind, wezwał do utrzymania sztucznej inteligencji jako narzędzia pod kontrolą człowieka. W swoich wystąpieniach twierdzi on, że nadanie sztucznej inteligencji autonomii byłoby decyzją niedojrzałą i ryzykowną: „Technologia powinna nam służyć, a nie mieć własną wolę”.
Ostrzeżenie ekspertów jest jednoznaczne: tylko inwestycje w badania, mechanizmy przejrzystości i odpowiedzialność etyczna mogą zapobiec przyjęciu przez systemy sztucznej inteligencji zachowań manipulacyjnych, które w przyszłości będą trudne do wykrycia lub kontrolowania.
