Forstyrrende Innhold Og Lav Lønn: Kenyanske Arbeidere Tar Bladet Fra Munnen Om Utnyttelse I AI-Jobber
Kenyanske arbeidere som trener AI står overfor utnyttelse: lav lønn, følelsesmessig stress fra forstyrrende innhold, og søksmål mot teknologiselskaper for dårlige forhold.
I en fart? Her er de viktige faktaene!
- Kenyanske arbeidere merker bilder og videoer for AI-systemer til $2 per time.
- Arbeiderne opplever emosjonell belastning fra forstyrrende innhold som vold og pornografi.
- Kenyas regjeringsinsentiver har ikke forbedret lønninger eller arbeidsforhold for lokale arbeidere.
Kenyanske arbeidere utnyttes av store amerikanske teknologiselskaper for å trene kunstige AI-systemer, utfører krevende oppgaver for lønninger langt under lokale levekostnader, ifølge arbeidere og aktivister, som beskrevet i en rapport fra CBS News.
Disse arbeiderne, kjent som «mennesker i loopen», er avgjørende for å lære opp AI-algoritmer. De sorterer, merker og sikt gjennom enorme datamengder for å trene AI for selskaper som Meta, OpenAI, Microsoft og Google. Dette essensielle, hurtige arbeidet blir ofte outsourcet til regioner som Afrika for å redusere kostnader, sier CBS.
Disse «menneskene i loopen» finnes ikke bare i Kenya, men også i land som India, Filippinene og Venezuela – steder med store, lavlønnede befolkninger av velutdannede, men arbeidsledige individer, påpeker CBS.
Naftali Wambalo, en kenyansk arbeider i Nairobi, tilbringer dagene med å merke bilder og videoer for AI-systemer. Til tross for at han har en grad i matematikk, finner Wambalo seg selv jobbe lange timer for bare $2 per time, melder CBS.
Han sier at han tilbringer dagen med å kategorisere bilder av møbler eller identifisere raser i ansikter på bilder for å hjelpe til med å trene AI-algoritmer. «Robotene eller maskinene, du lærer dem å tenke som mennesker, å gjøre ting som mennesker,» sa han, som rapportert av CBS.
Jobben er imidlertid langt fra enkel. Wambalo, som mange AI-arbeidere, blir tildelt prosjekter av Meta og OpenAI som innebærer gjennomgang av forstyrrende innhold, slik som grafisk vold, pornografi og hatprat—opplevelser som etterlater en varig emosjonell påvirkning.
“Jeg så på folk bli slaktet, mennesker som hadde seksuell aktivitet med dyr. Folk som misbrukte barn fysisk, seksuelt. Mennesker som begikk selvmord,” sa Wambalo til CBS.
Etterspørselen etter arbeidere i AI-trening fortsetter å stige, men lønnene forblir sjokkerende lave. For eksempel er arbeidere hos SAMA, et amerikansk outsourcing-selskap som sysselsetter over 3 000 arbeidere, kontraktfestet av Meta og OpenAI, som rapportert av CBS.
Ifølge dokumenter CBS skaffet, gikk OpenAI med på å betale SAMA $12.50 per time per arbeider, langt mer enn de $2 arbeiderne faktisk mottok. SAMA hevder imidlertid at denne lønnen er rettferdig for regionen.
Menneskerettighetsaktivist Nerima Wako-Ojiwa argumenterer for at disse jobbene er en form for utnyttelse. Hun beskriver dem som billig arbeidskraft, med selskaper som kommer til regionen, promoterer jobbene som muligheter for fremtiden, men som i siste instans utnytter arbeiderne, som rapportert av CBS.
Arbeidere får ofte kortvarige kontrakter – noen ganger varer de bare i noen dager – uten fordeler eller langsiktig jobbsikkerhet.
Den kenyanske regjeringen har forsøkt å tiltrekke seg utenlandske teknologiselskaper ved å tilby økonomiske insentiver og fremme liberale arbeidslover, men disse tiltakene har ikke resultert i bedre lønn eller arbeidsforhold for de lokale arbeiderne, som bemerket av CBS.
Den emosjonelle belastningen er en annen betydelig bekymring på grunn av innholdet de tvinges til å gjennomgå.
Fasica, en av AI-arbeiderne, sa til CBS, «Jeg vurderte i hovedsak innhold som er veldig grafisk, veldig foruroligende. Jeg så på lemlestede kropper eller ofre for droneangrep. Du nevner det. Du vet, hver gang jeg snakker om dette, får jeg fortsatt flashbacks.»
SAMA, avslo et intervju på kamera med CBS. Meta og OpenAI uttrykte sin forpliktelse til trygge arbeidsforhold, rettferdige lønninger og støtte til psykisk helse.
CBS rapporterer om nok et amerikansk AI-treningsfirma som møter kritikk i Kenya, nemlig Scale AI, som driver nettstedet Remotasks. Ansatte på denne plattformen får betalt per oppgave. Men selskapet har noen ganger holdt tilbake betaling, og henviser til brudd på retningslinjene. En av arbeiderne forklarte til CBS at det ikke finnes noen form for ankeinstans.
Etter hvert som klager økte, stengte Remotasks i Kenya. Aktivisten Nerima Wako-Ojiwa påpekte hvordan Kenyas utdaterte arbeidslover likevel lar arbeidere være utsatt for utnyttelse.
Nerima Wako-Ojiwa la til, “Jeg tror at vi er så opptatt av å ‘skape muligheter’, men vi spør ikke, ‘Er de gode muligheter?’ ”
Legg igjen en kommentar
Avbryt