Umelá inteligencia
Autorské práva a umelá inteligencia: Odborníci vytvorili nástroj, ktorým chcú ochrániť tvorcov obsahu
Viacero modelov umelej inteligencie spoločnosti vytrénovali na obrázkoch, na ktoré nemajú práva. To sa môže v blízkej dobe zmeniť.
Odborníci z University of Chicago vytvorili nástoj, ktorým chcú pomôcť umelcom chrániť ich duševné vlastníctvo.
V začiatkoch umelej inteligencie bola jej schopnosť vygenerovať zmysluplný obsah obmedzená, ale v posledných mesiacoch sa situácia drasticky zmenila. Modely strojového učenia vytvárajú obrázky, ktoré sú často na nerozoznanie od skutočných fotografií alebo umeleckých diel.
Tento fenomén upútal nielen technologických nadšencov, ale aj bežných ľudí. Zvýšený záujem o túto technológiu spôsobil, že vývoj nových modelov sa rapídne urýchlil. Lenže niektoré z nich dodnes vyvolávajú etické otázky.
V našom predchádzajúcom článku sme vás informovali o modeloch Midjourney, Stable Diffusion a DreamUp, ktoré boli vytrénované za pomoci verejne dostupnej knižnice obrázkov laion-5B. Medzi týmito obrázkami sa vyskytujú aj tie, na ktoré sa vzťahujú autorské práva umelcov.
Tento problém by však mohol byť minulosťou. Tím odborníkov z University of Chicago totiž vytvoril nástroj, ktorý má pomôcť tvorcom obsahu ochrániť ich duševné vlastníctvo pred týmito spoločnosťami. Podľa tvorcov tohto nástroja ide o „posledný spôsob ochrany.“
Chyba v systéme
Tréning generatívnej umelej inteligencie spočíva v poskytnutí veľkého množstva dát. Ak chcete, aby váš model strojového učenia bol schopný vytvoriť obrázok určitého objektu, musíte mu poskytnúť dostatok obrázkov tohto objektu. Kvalita vygenerovaných obrázkov sa odvíja najmä od kvalita a kvantity tréningových obrázkov.
Ako informuje portál Scientific American, pri trénovaní takéhoto modelu nemôžete použiť obsah, ktorý už predtým vygenerovala umelou inteligenciou. „Dostane sa to do bodu, keď váš model prakticky stratí zmysel,“ uviedla výskumníčka v oblasti strojového učenia na Oxfordskej univerzite Ilia Shumailová.
Spoločnosti, ktoré to myslia vážne s vytvorením modelu generatívnej umelej inteligencie, potrebujú obrovské množstvo dát. To je dôvod, prečo používajú obrázky, na ktoré nemajú autorské práva. Zároveň je to slabina tohto systému, pretože žiadna z týchto spoločností nedokáže kontrolovať také množstvo obrázkov.
Členovia tímu, ktorí stoja za zmieneným nástrojom, si uvedomili túto chybu v systéme a rozhodli sa ju využiť vo prospech umelcov a tvorcov obsahu. Ich program Nightshade dokáže upraviť obrázky tak, aby dokázali zmiasť modely umelej inteligencie počas trénovania, uvádza portál The Verge.
Otrávené obrázky
Obrázky, ktoré prejdú týmto nástrojom majú upravené pixely. Zmena však neuvidíte voľným okom, vďaka čomu takýto obrázok nedokážete odfiltrovať vizuálnym skontrolovaním kvality obrázka. Upravený obrázok môžete nahrať na internet bez obáv, že by sa dal použiť na trénovanie umelej inteligencie.
Pokiaľ spoločnosti nechtiac použijú takto upravené obrázky pri trénovaní ich umelej inteligencii, dôjde k jej otráveniu. MIT Technology Review uvádza, že Stable Diffusion po prijatí 50 „otrávených“ obrázkov začne generovať divne vyzerajúce obrázky.
Väčší počet upravených obrázkov pri tréningu dokáže napáchať ešte väčšie škody. Model umelej inteligencie, ktorý prijal 300 obrázkov začal generovať úplne iné výsledky než od nej žiadali. Namiesto obrázku psa dostali mačku, z čiapky sa stala torta.
„Prekvapujúco sme ukázali, že mierny počet Nightshade útokov môže destabilizovať všeobecné funkcie v prevode textu na obraz generatívneho modelu, čím účinne znemožní jeho schopnosť generovať zmysluplné obrázky,“ uviedli autori softvéru v štúdii.
Nástroj neovplyvní iba jeden prompt (pozn, red. slovo alebo slovné spojenie, ktoré píšete do požiadavky pre umelú inteligenciu), ale aj ďalšie súvisiace pojmy. Pri slove „pes“, nástroj ovplyvní aj slová „šteňa“, „husky“ alebo „vlk“. Rovnako tomu je pri „fantasy maľba“ a „drak“.
Bude to stačiť?
Podľa portálu ZDNET existuje viacero možností, akým sa môžu spoločnosti vytvárajúce tieto modely chrániť pred týmto nástrojom. Ani jeden z nich by však nemal byť úplne efektívny, čo by mohlo znamenať, že budú ostražitejší pri výbere obrázkov.
Veľké modely umelých inteligencií, akými sú Stable Diffusion či MidJourney, sú finančne a časovo náročné na vytvorenie. Pri poňatí veľkého množstva „otrávených“ obrázkov by museli zamestnanci manuálne odstraňovať chybné dáta. Pri miliónoch vzoriek by tento proces mohol trvať naozaj dlho.
MIT Technology Reviews uvádza vyjadrenie Vitalyho Shmatikova, profesora na Cornwell Universty, ktorý sa nepodieľ na vývoji tohto nástroja: „Zatiaľ nepoznáme spoľahlivú obranu proti týmto útokom. Doteraz sme nezaznamenali útoky na moderné modely [strojového učenia] vo svete, ale môže to byť len otázkou času.“