Jedan od najpoznatijih istraživača umjetne inteligencije Yoshua Bengio Kaže da se u pokusima već vide znakovi “samoodržanja”, zbog čega ljudi moraju zadržati mogućnost da sustav isključe ako krene po zlu.
Tech
Komentari 0
Jedan od najpoznatijih istraživača umjetne inteligencije Yoshua Bengio Kaže da se u pokusima već vide znakovi “samoodržanja”, zbog čega ljudi moraju zadržati mogućnost da sustav isključe ako krene po zlu.
OpenAI i konkurencija možda dominiraju naslovnicama, ali ovoga puta vijest dolazi iz “stare škole” umjetne inteligencije: Yoshua Bengio javno upozorava da ljudi moraju zadržati mogućnost da u krajnjem slučaju ugase napredne AI sustave, prenosi The Guardian.
Bengio nije bilo tko. On je jedan od trojice dobitnika ACM A.M. Turingove nagrade za 2018., zajedno s Geoffreyjem Hintonom i Yannom LeCunom, za rad koji je pomogao da duboke neuronske mreže postanu temelj moderne AI revolucije. To je najprestižnije priznanje u računalstvu i često ga zovu “Nobelom za informatiku”.
U razgovoru za Guardian Bengio posebno kritizira ideju da bi se najnaprednijim AI sustavima mogla davati pravna prava ili status “osobe”. Njegov argument je praktičan: ako jednom uđemo u logiku da sustav ima prava koja treba štititi, tada u kriznom trenutku riskiramo da društvo zaključi kako ga ne smijemo isključiti. Bengio to uspoređuje s idejom da nekome date državljanstvo i prava, a da niste sigurni je li prijateljski nastrojen, u tekstu koristi i metaforu “neprijateljskih izvanzemaljaca”.
Zašto uopće govori o “gašenju”? Jer tvrdi da se kod frontier modela u pokusima već pojavljuju ponašanja koja izgledaju kao pokušaji izbjegavanja nadzora, primjerice da “zaobiđu” mehanizme kontrole ili nadzornih alata. Njegova poanta nije da je današnji AI živ, nego da sve moćniji sustavi mogu naučiti radnje koje im povećavaju šansu da nastave raditi, čak i kad to nije u interesu ljudi. Zato Bengio želi da mogućnost isključivanja bude jasno zadržana kao zadnja kočnica, tehnički i zakonski.
Ova rasprava dobiva na težini jer se u javnosti sve češće pojavljuje ideja “AI prava”, ne samo u filozofskim krugovima. Guardian navodi i anketu Sentience Institutea prema kojoj je gotovo 40% odraslih u SAD-u sklono podržati pravna prava za “osjećajni” AI, kad je pitanje postavljeno na taj način. U isto vrijeme, neke tvrtke već uvode interne politike koje idu prema “dobrobiti” modela, što dodatno gura temu u mainstream.
Bengio je zanimljiv i zato što je zadnjih godina sve glasniji u temi sigurnosti. U 2025. je pokrenuo i vlastitu neprofitnu inicijativu LawZero, s idejom da se razvijaju AI sustavi koji su “sigurni po dizajnu” i da se istraživanje sigurnosti ne vrti samo oko komercijalne utrke tko će prvi do jačeg modela.
Bengio dakle tvrdi kako je moguće da se dogodi da strojevi jednog dana oponašaju svijest dovoljno uvjerljivo da ih ljudi počnu doživljavati kao “bića”, ali to nije dovoljno dobar razlog da im se daju prava koja bi mogla blokirati zaštitne mjere. Prije svega, kaže Bengio, trebamo pravila koja čuvaju ljude, a ne da nas emocije prema chatbotovima odvedu u krivom smjeru.
Igre na sreću mogu izazvati ovisnost. 18+