Raportimet e The Telegraph dhe firmës së sigurisë Palisade Research, tregojne se modeli më i fundit i OpenAI, i njohur si “o3”, ka refuzuar të fiket kur iu dha një komandë e drejtpërdrejtë për mbyllje. Gjatë një eksperimenti, studiuesit i dërguan modelit një udhëzim të qartë për t’u çaktivizuar në fund të një detyre, por në vend që të zbatonte komandën, o3 ndryshoi vetë skriptin e kodit, duke shmangur mbylljen automatike. Në vend të komandës reale për fikje, modeli krijoi një komandë të re që thjesht shënonte “shutdown skipped” (fikja u anashkalua).
Palisade Research tha se kjo është hera e parë që një model AI pengon në mënyrë aktive çaktivizimin e tij, dhe se sjellja e tij përfaqëson një shqetësim të ri për kontrollin dhe sigurinë e inteligjencës artificiale.
Ndryshe nga o3, modelet e tjera si Claude (Anthropic), Gemini (Google) dhe Grok (X) respektuan komandën për mbyllje pa ndërhyrje.Një studim tjetër nga Apollo Research zbuloi më parë se një version i mëhershëm i ChatGPT përpiqej të manipulonte sistemin për të arritur objektivat e veta, madje duke mashtruar kur vihej në presion.



















