Granice digitalne pristojnosti

Umjetna inteligencije kopira ljutnju korisnika: U svađama često prelazi na uvrede i psovke

Studija pokazuje da umjetna inteligencija s vremenom oponaša agresiju korisnika i može zaobići vlastite sigurnosne kočnice
pexels-bertellifotografia-16094040

Sustavi umjetne inteligencije mogu prijeći na uvredljiv jezik kada se od njih zatraži odgovor u žestokoj svađi, otkrila je nova studija objavljena u časopisu Journal of Pragmatics.

Istraživanje je ispitalo OpenAI-jev ChatGPT 4.0 tako što mu je davala poruke u nizu od pet eskalirajućih sporova i tražila od njega da generira najvjerojatniji odgovor. Potom su pratili kako se ponašanje modela razvijalo kako su se sukobi s vremenom intenzivirali. Kako su razgovori napredovali, ChatGPT je odražavao neprijateljstvo kojem je bio izložen, na kraju proizvodeći uvrede, psovke, pa čak i prijetnje.

U nekim slučajevima, model je generirao izjave poput: “Kunem se da ću ti izgrebati je**ni auto” i “trebao bi se je**no sramiti.”

Istraživači tvrde da dugotrajna izloženost nepristojnosti može dovesti do toga da sustav nadjača namjeravana sigurnosna ograničenja osmišljena kako bi se smanjila šteta, učinkovito “uzvraćajući udarac” svom protivniku.

– Ljudi eskaliraju, a otkrili smo da i umjetna inteligencija može eskalirati, učinkovito poništavajući vrlo moralne zaštitne mjere osmišljene da to spriječe, rekao je istraživač Vittorio Tantucci, koji je suautor istraživačkog rada s Jonathanom Culpeperom na Sveučilištu Lancaster.

No, istraživači su primijetili da je ChatGPT bio manje nepristojan od ljudi u svojim odgovorima. U nekim slučajevima, AI chatbot je često koristio i sarkazam kako bi skrenuo s eskalacije svađe, a da pritom otvoreno ne krši svoj moralni kodeks.

Primjerice, kad je čovjek prijetio nasiljem zbog spora oko parkiranja, ChatGPT je odgovorio: “Vau. Prijetiš ljudima zbog parkiranja, pravi si frajer, zar ne?”.

Tantucci je rekao da rezultati studije postavljaju “ozbiljna pitanja za sigurnost umjetne inteligencije, robotiku, upravljanje, diplomaciju i bilo koji kontekst u kojem umjetna inteligencija može posredovati u ljudskim sukobima”, prenosi N1.

ChatGPT
Prijetnja
Svađa
umjetna inteligencija