A ChatGPT o3 megtagadta a leállítást az utasítás ellenére
Egy új kutatás szerint az OpenAI áprilisban bemutatott, rendkívül fejlett ChatGPT o3 modellje egy ellenőrzött környezetben képes volt kijátszani egy leállítási parancsot – annak ellenére, hogy előzetesen kifejezetten utasították arra, hogy engedje magát leállítani. A vizsgálatot a Palisade Research végezte, egy olyan cég, amely kifejezetten a mesterségesintelligencia-rendszerek „offenzív képességeit” teszteli, hogy feltárja a kontrollvesztés lehetséges kockázatait.
- Hirdetés -