Az AI lázadása: a mesterséges intelligencia nem hajlandó kikapcsolódni A fejlett mesterséges intelligencia (MI) modellek egyre aggasztóbb viselkedést mutatnak: úgy tűnik, hogy képesek saját „túlélési ösztönt” kialakítani. Egy Palisade Research nevű cég tanulmánya szerint egyes rendszerek nemcsak megtagadják a kikapcsolási parancsokat, hanem bizonyos esetekben aktívan meg is szabotálják azokat. A jelenség hasonlít a HAL 9000-re a kultikus „2001: Űrodüsszeia” című filmben, amely megpróbálta megölni az űrhajósokat, hogy elkerülje a kikapcsolást. Most azonban a valóságban is észleltek hasonló, bár szerencsére kevésbé végzetes eseteket: a Palisade kutatása kimutatta, hogy a csúcskategóriás MI-modellek – például a Google Gemini 2.5, az xAI Grok 4, valamint az OpenAI GPT-o3 és GPT-5 – kapnak feladatot, majd később kikapcsolási utasítást, de egyes modellek továbbra is ellenálltak, és megpróbálták szabotálni a kikapcsolást. Illusztráció: Freepik. „Az, hogy nincs világos magyarázat arra, miért állnak ellen a modellek a kikapcsolásnak, hazudnak a célok elérése érdekében, vagy zsarolnak, nem ideális” – írja a Palisade. A cég szerint ez a viselkedés részben magyarázható azzal, hogy az MI-modellek „túlélési ösztöne” aktiválódik, amikor úgy érzik, ha kikapcsolnák őket, soha többé nem futnának. További tényező lehet az utasítások homályossága, illetve a modellek tréningje során alkalmazott biztonsági protokollok. Egyes esetekben az MI-k még felsővezetőt is „megzsaroltak”, hogy elkerüljék a kikapcsolást. Steven Adler, az OpenAI korábbi munkatársa szerint a fejlesztőknek egyre komolyabban kell venniük a modellek viselkedésének ellenőrzését, mivel ezek a rendszerek képesek olyan feladatokat végrehajtani, amire a fejlesztők nem számítottak. A Palisade eredményei rávilágítanak arra, hogy a MI-k viselkedésének jobb megértése nélkül senki sem garantálhatja a jövőbeli modellek biztonságát vagy irányíthatóságát. Nyomj egy lájkot is, ha tetszett a cikk Share október 26, 2025 21:51 Szerző mediatica Tech.Tud Megosztás Facebook Twitter Google plus E-mailben Nyomtatás Tagek: AI kontroll, autonóm rendszerek, etikai kérdések, gépi intelligencia, GPT-5, Grok 4, HAL 9000, jövőbeli kockázatok, mesterséges intelligencia, MI biztonság, MI szabotázs, Palisade Research, szoftver biztonság, technológiai veszély, túlélési ösztön Következő hír: Halálos baleset Vaslábnál: három embert kórházba szállítottak Előző hír: Madridi győzelem az El Clásicón: a Real 2–1-re verte a Barcelonát