Az OpenAI új kutatása szerint a nyelvi modellek „hallucinációi” – vagyis a magabiztosan előadott, de valójában téves állítások – nem rejtélyes hibák, hanem a jelenlegi tréning- és értékelési módszerek mellékhatásai. A cég szerint a probléma gyökere, hogy a modelleket inkább találgatásra, semmint bizonytalanság beismerésére ösztönzik.
      Hamarosan átirányítunk a teljes cikkhez → IT Business