Universitetet i Chicago’s Glaze og Nightshade Tilbyr Kunstnere Et Forsvar Mot AI

Image by Glashier, from Freepik

Universitetet i Chicago’s Glaze og Nightshade Tilbyr Kunstnere Et Forsvar Mot AI

Lesetid: 3 min.

Har det travelt? Her er de raske faktaene!

  • Glaze og Nightshade beskytter kunstners arbeid mot uautorisert bruk i AI-trening.
  • Glaze maskerer bilder for å hindre at AI replikerer en kunstners stil.
  • Nightshade forstyrrer AI ved å legge til «forgiftede» piksler som ødelegger treningsdata.

Kunstnere kjemper tilbake mot utbyttende AI-modeller med Glaze og Nightshade, to verktøy utviklet av Ben Zhao og hans team ved University of Chicago’s SAND Lab, som rapportert i dag av MIT Technology Review.

Disse verktøyene har som mål å beskytte kunstneres arbeid fra å bli brukt uten samtykke for å trene AI-modeller, en praksis mange skapere ser på som tyveri. Glaze, som er blitt lastet ned over 4 millioner ganger siden utgivelsen i mars 2023, maskerer bilder ved å legge til subtile endringer som hindrer AI i å lære en kunstners stil, sier MIT.

Nattskygge, en «offensiv» motpart, forstyrrer ytterligere AI-modeller ved å introdusere usynlige endringer som kan ødelegge AI-læring hvis de brukes i trening, som bemerket av MIT.

Verktøyene ble inspirert av kunstneres bekymringer om den raske oppgangen til generativ AI, som ofte er avhengig av online bilder for å skape nye verk. MIT rapporterer at fantasy-illustratør Karla Ortiz og andre skapere har uttrykt frykt for å miste levebrødene sine når AI-modeller replikerer deres distinkte stiler uten tillatelse eller betaling.

For kunstnere er det å legge ut på nettet avgjørende for synlighet og inntekt, men mange vurderte å fjerne arbeidet sitt for å unngå å bli skrapet for AI-trening, en handling som ville hindre deres karrierer, som bemerket av MIT.

Nightshade, lansert et år etter Glaze, leverer et mer aggressivt forsvar, rapporterer MIT. Ved å legge til «forgiftede» piksler til bilder, forstyrrer det AI-treningen, og får modellene til å produsere forvrengte resultater hvis disse bildene blir skrapet.

Nattskyggens symbolske effekt har resonert hos kunstnere, som ser det som poetisk rettferdighet: hvis deres arbeid blir stjålet for AI-trening, kan det skade de systemene som utnytter det.

MIT argumenterer med at verktøyene har møtt noe skepsis, da kunstnere i utgangspunktet var bekymret for databeskyttelse. For å takle dette, slapp SAND Lab en versjon av Glaze som fungerer offline, noe som sikrer at det ikke overføres data og bygger tillit hos kunstnere som er skeptiske til utnyttelse.

Laben har også nylig utvidet tilgangen ved å inngå et samarbeid med Cara, en ny sosial plattform som forbyr AI-generert innhold, slik det er bemerket av MIT.

Zhao og hans team har som mål å endre maktbalansen mellom individuelle skapere og AI-selskaper.

Ved å tilby verktøy som beskytter kreativitet mot store selskaper, håper Zhao å styrke kunstnere til å beholde kontroll over arbeidet sitt og omdefinere etiske standarder rundt AI og intellektuell eiendom, sier MIT.

Innsatsen vinner fram, men noen eksperter advarer om at verktøyene kanskje ikke tilbyr idiotsikker beskyttelse, ettersom hackere og AI-utviklere utforsker måter å omgå disse sikkerhetstiltakene, som bemerket av MIT.

Med Glaze og Nightshade nå tilgjengelig gratis, fortsetter Zhaos SAND Lab å lede an i forsvaret for kunstnerisk integritet mot den økende innflytelsen fra AI-drevet innholdsskaping.

Likte du denne artikkelen? Like den!
Jeg misikte den sterkt Jeg likte den ikke Den var helt grei Den var bra! Den var kjempebra! Elsket den!

Vi er veldig gade for at du satte pris på arbeidet vårt!

Som en leser vi verdsetter høyt, har du mulighet til å gi oss en anmeldelse på Trustpilot? Det tar bare et øyeblikk og betyr utrolig mye. Tusen hjertelig takk!

Gi oss en vurdering på Trustpilot
0 Stem på av 0
Tittel
Kommentar
Tusen takk for tilbakemeldingen
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Legg igjen en kommentar

Loader
Loader Vis mer...