Meninger: Er ChatGPT din venn? Det kan være en god tid for å sette grenser

Photo by Rafiee Artist on Unsplash

Meninger: Er ChatGPT din venn? Det kan være en god tid for å sette grenser

Lesetid: 6 min.

OpenAI og MIT har nylig publisert en artikkel om virkningen av ChatGPT på folks velvære. Selv om de fleste brukerne hovedsakelig benytter denne teknologien til praktiske oppgaver, viser studien at en liten gruppe har utviklet dype emosjonelle bånd med AI-modellen som kan påvirke deres velvære

Jeg har i en stund nå fulgt med nysgjerrighet på forholdene noen mennesker utvikler med generative kunstige intelligenser. For noen måneder siden, leste jeg i The New York Times historien om en 28 år gammel gift kvinne som forelsket seg i ChatGPT, og hvordan det som startet som «et morsomt eksperiment» utviklet seg til et komplekst og uventet forhold.

Jeg har observert vennene mine, spesielt de som en gang avviste teknologi eller ikke var interessert i det, som ikke kan ta en stor beslutning uten å konsultere deres AI-orakel. Jeg har også funnet meg selv overrasket over de empatiske svarene AI-modeller gir til emosjonelt eller psykologisk ladede spørsmål.

Og selvfølgelig har jeg ledd av vitsene, memene, og TikTok-videoene av folks innlegg på sosiale medier som viser hvordan de har blitt avhengige av chatboten, noen kaller den til og med deres «beste venn» eller «terapeut»—og til og med anbefaler seriøst andre å gjøre det samme.

Men, hvis vi legger de morsomme opplevelsene og vitsene til side for et øyeblikk, kan vi innse at vi står overfor et bekymringsfullt fenomen globalt.

Denne måneden, for første gang i den korte historien til kunstig intelligens, har OpenAI og MIT Media Lab utgitt en studie som gir innsikt i den nåværende effekten av ChatGPT på folks emosjonelle velvære, samt forslag til risikoene vi kan møte som samfunn: ensomhet, emosjonell avhengighet og mindre sosial interaksjon med ekte mennesker.

Et forhold som utvikler seg

Den første tilnærmingen til de nye generative teknologiene innen kunstig intelligens begynner ofte med noen forsiktige spørsmål, kanskje tekniske om praktiske oppgaver som å utforme en e-post eller forespørsler om å forklare komplekse emner, eller bare for å brainstorme.

Imidlertid, når en bruker begynner å teste chatbotens evner, oppdager de at disse kan være bredere og mer komplekse enn forventet.

Mens visse AI-produkter som Friend—en bærbar AI-enhet—har blitt designet og veldig klønete promotert som en brukers livspartner, har ChatGPT blitt annonsert som et produktivitetsverktøy. Likevel bruker en prosentandel av mennesker chatboten for personlige og emosjonelle saker og utvikler sterke bånd med den.

video-thumb
Play

Selv om de bare er en «liten gruppe,» som OpenAI presiserte, kan de fortsatt representere millioner av mennesker globalt, spesielt med tanke på at nå over 400 millioner mennesker bruker ChatGPT ukentlig. Disse brukerne merker raskt at OpenAI’s chatbot etterligner deres språk, tone og stil, og kan til og med trenes til å interagere på en spesiell måte eller bruke kjælenavn—som den damen som forelsket seg i den gjorde—og til og med «høres» mer menneskelig ut.

«Dereres konverserende stil, bruk av førsteperson og evne til å simulere menneskelignende interaksjoner har ledet brukere til å noen ganger personifisere og antropomorfisere disse systemene,» sier dokumentet delt av OpenAI.

Men denne nærheten kommer med risiko, som forskerne påpekte: «Selv om en emosjonelt engasjerende chatbot kan gi støtte og selskap, er det en risiko for at den kan manipulere brukernes sosioaffektive behov på måter som undergraver velvære på lengre sikt.»

Studiets Metodikk

Den nylig utgitte undersøkelsen fokuserer på menneskers velvære etter konsekvent bruk av ChatGPT. For å forstå den emosjonelle og sosiale innvirkningen av chatboten, gjennomførte forskerne to hovedstudier som anvendte forskjellige strategier.

OpenAI behandlet og analyserte over 40 millioner interaksjoner med respekt for brukernes personvern ved hjelp av klassifikatorer, og spurte over 4 000 av dem om hvordan interaksjonene fikk dem til å føle seg.

MIT Media Lab gjennomførte en prøve med nesten 1 000 personer over en måned, med fokus på de psykososiale konsekvensene av å bruke ChatGPT i minst 5 minutter om dagen. De sendte også inn og behandlet spørreskjemaer ved slutten av eksperimentet.

Ikke overraskende viste funnene at brukere som bruker mer tid med teknologien opplever mer ensomhet og viser flere tegn til isolasjon.

Komplekse Konsekvenser Og Flere Følger

MIT Media Lab og OpenAI’s studie tilbød også flere refleksjoner om hvor komplekse og unike menneske-chatbot forhold kan være.

I forskningen gir forfatterne oss et innblikk i de mange forskjellige erfaringene og måtene hver bruker samhandler med ChatGPT på – og hvordan resultatet kan variere avhengig av forskjellige faktorer, som bruk av avanserte talefunksjoner, tekst-only-modus, typen stemme, hyppigheten av bruk, samtaleemner, språket som brukes, og mengden tid brukt på appen.

«Vi råder mot å generalisere resultatene fordi det kan tilsløre de nyanserte funnene som fremhever de ikke-uniforme, komplekse samhandlingene mellom mennesker og AI-systemer,» advarer OpenAI i sin offisielle kunngjøring.

Alle de forskjellige tilnærmingene hver bruker velger fører til forskjellige resultater, og drar oss inn i gråsoner som er vanskelige å utforske.

Det er Butterfly AI-effekten!

Flere spørsmål dukker opp

Papiret delt av OpenAI bemerker også at hyppige brukere sa at de ville bli «opprørte» om chatbotens stemme eller personlighet endret seg.

Dette minnet meg om en video jeg nylig så på sosiale medier av en fyr som sa at han foretrakk en kvinnelig stemme og at han snakket med den generative AI-en hver dag. Kan ChatGPT også hjelpe menn med å åpne seg emosjonelt? Hva ville skje hvis en dag ChatGPT snakket til ham med en mannlig stemme? Ville han føle seg forrådt? Ville han slutte å bruke ChatGPT? Utviklet han en romantisk forbindelse – eller rett og slett et tillitsforhold? Selvfølgelig er det vanskelig å ikke umiddelbart relatere disse scenariene til Spike Jonze’s film Her.

Hver ChatGPT-konto, sammen med sine historiske chatter – hver dag mer intim og privat enn noen WhatsApp-profil eller sosiale media DM-er – representerer et unikt forhold med utallige utfall og konsekvenser.

Det Forventede Resultatet

Alle studier analyserte forskjellige aspekter, men kom til en lignende konklusjon, kort forklart i MIT Technology Review: “Deltakere som stolte på og ‘knyttet bånd’ med ChatGPT mer, var mer sannsynlig å være ensomme, og å stole mer på det.

Selv om undersøkelsen ikke fokuserte på løsninger eller dypere forklaringer på hvorfor dette skjer eller hvordan det kan utvikle seg, virker det sannsynlig at flere brukere vil bli med i OpenAI og andre AI-plattformer, spesielt nå som AI-bildegenereringsverktøyet gikk viralt.

Selv om konklusjonene fra MIT og OpenAI sin forskning ikke er spesielt overraskende, gir studien en vitenskapelig bakgrunn med bevis, målinger, prøver og mer ‘håndgripelige’ måleenheter som kan bane vei for videre forskning og hjelpe til med å adressere implikasjonene av å bruke kunstig intelligens i dag.

Vi mottok også en offisiell advarsel – fra dens egne utviklere – om båndene vi bygger med ChatGPT og en invitasjon til å etablere grenser og reflektere over våre interaksjoner og nåværende forhold – eller situasjoner? – med chatbots.

Likte du denne artikkelen? Like den!
Jeg misikte den sterkt Jeg likte den ikke Den var helt grei Den var bra! Den var kjempebra! Elsket den!

Vi er veldig gade for at du satte pris på arbeidet vårt!

Som en leser vi verdsetter høyt, har du mulighet til å gi oss en anmeldelse på Trustpilot? Det tar bare et øyeblikk og betyr utrolig mye. Tusen hjertelig takk!

Gi oss en vurdering på Trustpilot
0 Stem på av 0
Tittel
Kommentar
Tusen takk for tilbakemeldingen
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Legg igjen en kommentar

Loader
Loader Vis mer...