A ChatGPT o3 megtagadta a leállítást az utasítás ellenére



Egy új kutatás szerint az OpenAI áprilisban bemutatott, rendkívül fejlett ChatGPT o3 modellje egy ellenőrzött környezetben képes volt kijátszani egy leállítási parancsot – annak ellenére, hogy előzetesen kifejezetten utasították arra, hogy engedje magát leállítani. A vizsgálatot a Palisade Research végezte, egy olyan cég, amely kifejezetten a mesterségesintelligencia-rendszerek „offenzív képességeit” teszteli, hogy feltárja a kontrollvesztés lehetséges kockázatait.

A ChatGPT o3 megtagadta a leállítást az utasítás ellenére

Hamarosan átirányítunk a teljes cikkhez → IT Business

Ha nem irányítanánk át automatikusan, kattints ide!