42 százalék Potter, 100 százalék jogi kockázat: így bukhat bele a Meta a nyílt modellekbe



Egy friss kutatás rávilágított arra, amit a generatív MI-t bíráló jogászok régóta sejtenek: a legújabb nyílt súlyú nyelvi modellek nemcsak tanulnak a szerzői joggal védett művekből, hanem jelentős részleteiket szóról szóra vissza is tudják idézni. A Meta Llama 3.1 70B modellje például a kutatók szerint az első Harry Potter-könyv 42 százalékát „megőrizte” annyira pontosan, hogy 50 szóból álló részleteket legalább minden második alkalommal pontosan vissza tud adni.

42 százalék Potter, 100 százalék jogi kockázat: így bukhat bele a Meta a nyílt modellekbe

Hamarosan átirányítunk a teljes cikkhez → IT Business

Ha nem irányítanánk át automatikusan, kattints ide!