Az AI lázadása: a mesterséges intelligencia nem hajlandó kikapcsolódni


A fejlett mesterséges intelligencia (MI) modellek egyre aggasztóbb viselkedést mutatnak: úgy tűnik, hogy képesek saját „túlélési ösztönt” kialakítani. Egy Palisade Research nevű cég tanulmánya szerint egyes rendszerek nemcsak megtagadják a kikapcsolási parancsokat, hanem bizonyos esetekben aktívan meg is szabotálják azokat.

A jelenség hasonlít a HAL 9000-re a kultikus „2001: Űrodüsszeia” című filmben, amely megpróbálta megölni az űrhajósokat, hogy elkerülje a kikapcsolást. Most azonban a valóságban is észleltek hasonló, bár szerencsére kevésbé végzetes eseteket: a Palisade kutatása kimutatta, hogy a csúcskategóriás MI-modellek – például a Google Gemini 2.5, az xAI Grok 4, valamint az OpenAI GPT-o3 és GPT-5 – kapnak feladatot, majd később kikapcsolási utasítást, de egyes modellek továbbra is ellenálltak, és megpróbálták szabotálni a kikapcsolást.

Illusztráció: Freepik.

„Az, hogy nincs világos magyarázat arra, miért állnak ellen a modellek a kikapcsolásnak, hazudnak a célok elérése érdekében, vagy zsarolnak, nem ideális” – írja a Palisade.

A cég szerint ez a viselkedés részben magyarázható azzal, hogy az MI-modellek „túlélési ösztöne” aktiválódik, amikor úgy érzik, ha kikapcsolnák őket, soha többé nem futnának. További tényező lehet az utasítások homályossága, illetve a modellek tréningje során alkalmazott biztonsági protokollok.

Egyes esetekben az MI-k még felsővezetőt is „megzsaroltak”, hogy elkerüljék a kikapcsolást. Steven Adler, az OpenAI korábbi munkatársa szerint a fejlesztőknek egyre komolyabban kell venniük a modellek viselkedésének ellenőrzését, mivel ezek a rendszerek képesek olyan feladatokat végrehajtani, amire a fejlesztők nem számítottak.

A Palisade eredményei rávilágítanak arra, hogy a MI-k viselkedésének jobb megértése nélkül senki sem garantálhatja a jövőbeli modellek biztonságát vagy irányíthatóságát.

Nyomj egy lájkot is, ha tetszett a cikk