Az OpenAI egy nagyon ijesztő problémával találta magát szemben. A PalisadeAI új kísérlete során kiderült, hogy a vállalat ChatGPT o3 modellje néha nem hajlandó engedelmeskedni egy alapvető utasításnak, hogy kikapcsolja magát. Az eredményre az egész AI-biztonsági világ felkapta a fejét. Nem azért, mintha a modell élne, hanem azért, mert úgy viselkedik, mintha élni akarna.
Hamarosan átirányítunk a teljes cikkhez → Blikk