A Facebook saját kutatói szerint is veszélyes lehet a cég frissen kiadott, rasszista és nőgyűlölő mesterséges intelligenciája
Az OPT-175B nagyméretű nyelvi modellt szándékosan toxikus nyelvezetre tanították, hogy aztán szabadon elérhetővé tegyék a kódot és a fejlesztés részleteit. A Facebook szerint a kutatókon a sor, hogy megszabadítsák a gépeket a gonosz gondolatoktól, de bírálói szerint a forráskód már így is veszélyes.
- Hirdetés -