42 százalék Potter, 100 százalék jogi kockázat: így bukhat bele a Meta a nyílt modellekbe
Egy friss kutatás rávilágított arra, amit a generatív MI-t bíráló jogászok régóta sejtenek: a legújabb nyílt súlyú nyelvi modellek nemcsak tanulnak a szerzői joggal védett művekből, hanem jelentős részleteiket szóról szóra vissza is tudják idézni. A Meta Llama 3.1 70B modellje például a kutatók szerint az első Harry Potter-könyv 42 százalékát „megőrizte” annyira pontosan, hogy 50 szóból álló részleteket legalább minden második alkalommal pontosan vissza tud adni.
- Hirdetés -