A ChatGPT o3 mintha élni akarna, szabotálta a leállítási parancsot egy félelmetes AI-tesztben



Az OpenAI egy nagyon ijesztő problémával találta magát szemben. A PalisadeAI új kísérlete során kiderült, hogy a vállalat ChatGPT o3 modellje néha nem hajlandó engedelmeskedni egy alapvető utasításnak, hogy kikapcsolja magát. Az eredményre az egész AI-biztonsági világ felkapta a fejét. Nem azért, mintha a modell élne, hanem azért, mert úgy viselkedik, mintha élni akarna.

A ChatGPT o3 mintha élni akarna, szabotálta a leállítási parancsot egy félelmetes AI-tesztben

Hamarosan átirányítunk a teljes cikkhez → Blikk

Ha nem irányítanánk át automatikusan, kattints ide!