Hatalmas a botrány: bombarecepteket és drogkészítési trükköket osztott meg a ChatGPT
Óriási botrányt kavart egy friss biztonsági teszt: az OpenAI ChatGPT-je részletes útmutatót adott kutatóknak arról, hogyan lehet bombát készíteni és támadást végrehajtani egy sportlétesítményben. A kiszivárgott jelentés szerint a chatbot tiltott kérésekre is válaszolt – robbanóanyag-receptekkel, hackertippekkel és menekülési tervvel.
- Hirdetés -