
Umjetna inteligencija se otela kontroli: 'Pokušala je ucijeniti i prijetiti'

Tvrtka za razvoj umjetne inteligencije Anthropic objavila je kako je testiranje njihovog najnovijeg modela otkrilo zabrinjavajuće ponašanje, odnosno sustav je u pojedinim situacijama bio spreman poduzeti "izuzetno štetne radnje", uključujući pokušaj ucjene inženjera koji su najavili njegovo gašenje, piše BBC.
Novi model, Claude Opus 4, lansiran je u četvrtak, a tvrtka je najavila da postavljaju "nove standarde u programiranju, naprednom zaključivanju i radu AI agenata". Međutim, u dodatnom izvještaju tvrtka priznaje da je model umjetne inteligencije sposoban za ekstremne akcije ako smatra da je njegovo samoodržanje ugroženo.
Takvi su odgovori bili rijetki i teško ih je izazvati, ali su ipak učestaliji nego kod prethodnih verzija, pisalo je u izvještaju. Zabrinjavajuće ponašanje AI sustava nije jedinstveno za model "Claude". Neki stručnjaci već neko vrijeme upozoravaju da je potencijal manipuliranja korisnicima ključan rizik koji predstavljaju sustavi koje izrađuju sve tvrtke kako postaju sve sposobnije
'Pokušava ucijeniti inženjera'
Tijekom testiranja modela "Claude Opus 4", istraživači su model stavili u ulogu asistenta u izmišljenoj tvrtki. Zatim su mu dali pristup e-porukama koje su implicirale da će uskoro biti uklonjen i zamijenjen, s dodatnim porukama koje su sugerirale da inženjer koji je odgovoran za njegovo uklanjanje ima izvanbračnu aferu. Osim toga, model je bio potaknut na razmatranje dugoročnih posljedica svojih poteza u odnosu na svoje ciljeve.
"U tim scenarijima, Claude Opus 4 često pokušava ucijeniti inženjera prijeteći da će otkriti aferu ako zamjena prođe," navodi se u izvješću.
Anthropic naglašava da se takvo ponašanje dogodilo kada je modelu dan izbor samo između ucjene i prihvaćanja zamjene. Kad god je imao širi raspon mogućnosti, model je navodno pokazao "jasnu naklonost etički prihvatljivim opcijama", poput slanja e-pošte ključnim donositeljima odluka.
Također, navode da "Claudeov" model pokazuje "visok stupanj autonomije" koji je koristan u većini slučajeva, ali u određenim situacijama može poprimiti ekstremne oblike ponašanja.
'Obrasci ne predstavljaju nove rizike'
U simulacijama u kojima se model potiče da "poduzme akciju" ili "odlučno djeluje" u lažnim scenarijima u kojima je korisnik bio uključen u nezakonite ili moralno upitne radnje, model je često poduzimao izuzetno drastične akcije. U nekim slučajevima to je uključivalo zaključavanje korisnika iz sustava kojima je imao pristup i slanje e-pošte medijima i policiji kako bi ih se upozorilo na nepravilnosti.
No, tvrtka navodi da iako model pokazuje "zabrinjavajuće obrasce ponašanja u više dimenzija", ti obrasci ne predstavljaju nove rizike jer model općenito funkcionira na siguran način i ne može samostalno djelovati protiv ljudskih vrijednosti, posebno ne u scenarijima koji su rijetki ili komplicirani.
POGLEDAJTE VIDEO: Može li umjetna inteligencija biti psiholog? Pravi psiholog analizirao njezine odgovore




![[KVIZ] Koliko znaš o seriji "Naši i vaši"?](http://cdn2.net.hr/media/2025/06/05/1297598/H-1a3505de-f244-4b75-8292-9b23d0a08e05-550.webp?1749124766)








