
Image generated with DALL·E through ChatGPT
Meninger: AI-hallusinasjonsepidemien, en krise vi ikke er forberedt på
Til tross for løpende løfter om å redusere AI-hallusinasjoner, fortsetter store AI-verktøy – fra ChatGPT til Perplexity til Gemini, og Apple Intelligence – å generere falsk informasjon, ofte med alarmerende konsekvenser. Eksperter, inkludert de som advarer om AI-risikoer, har falt for fabrikkert innhold, og selv avanserte verktøy som Deep Research lager oppdiktede rapporter. Sannheten ser ut til å forbli i menneskelige hender
Chatboter har blitt bedre gjennom årene – mye bedre. Imidlertid er det ett problem som ikke helt har blitt løst og er kjent som «hallusinasjoner.»
Våre kjære chatboter gir oss strålende svar på spørsmålene våre med besluttsomheten og autoriteten til en science fiction Yoda, selv når de tar fullstendig feil. Og vi tror på dem. Noen ganger blindt.
Flere forskere, eksperter og til og med chatbot-utviklere har i flere år advart mot hallusinasjoner. Men, mens adopsjonen har spredt seg raskt – OpenAI rapporterte om 400 millioner ukentlig aktive brukere for bare noen dager siden – har ikke AI-kunnskapen holdt tritt.
Nylige studier, rettssaker og dramatiske hendelser fortsetter å vise at feilinformasjon er enda farligere enn vi innser.
Det er verre enn vi tror
I begynnelsen var det ganske morsomt å oppdage store AI-genererte feil—som de pinlige AI-oversiktene generert av Gemini som foreslo at brukerne skulle legge til «ikke-giftig lim i sausen» for en pizzaresept eller anbefale å spise «en liten stein hver dag» i fjor. Men, etter hvert som vi gjenoppretter tilliten til AI, har situasjonen eskalert og blitt stadig mer bekymringsfull.
I desember så vi Apples AI-verktøy lage overskrifter ved å «oppsummere» nyheter og generere falsk og villedende informasjon, som for eksempel å hevde feilaktig at BBC hadde annonsert at Luigi Mangione hadde skutt seg selv. Etter denne hendelsen, la publikasjonen inn en klage mot Apple og begynte å undersøke nøyaktigheten til generativ AI når den analyserer nyhetsinnhold.
BBCs funn, publisert for bare noen dager siden, avslørte urovekkende statistikk: 51% av svarene som ble gitt av populære AI Chatbots inneholdt betydelige problemer, 13% av sitatene som ble gitt av modellene var fullstendig fabrikkerte, og 19% av dataene var feil.
Tenåringer er blant de mest berørte befolkningsgruppene, da de ofte strever med å skille falske nyheter fra ekte nyheter, og kan lett påvirkes av AI-generert innhold. En studie publisert i januar viste at 35% av tenåringene har blitt villedet av falskt innhold generert av AI-modeller, og 22% delte den falske informasjonen.
Men det er ikke bare tenåringer og distré personer som faller for disse hallusinasjonene. Og det er ikke bare Gemini eller Apple Intelligence.
Ingen AI-modell er Spared, Ingen Industri er Trygg
Den forskningen som ble utført av BBC bekrefter et annet problem: alle AI-modeller hallusinerer. Eksperter vurderte de mest populære modellene, ChatGPT, Gemini, Perplexity, og Copilot. Ingen AI-modell er unntatt fra feil. Anthropic har en side som tar opp dette problemet, og foreslår ideer om hvordan man kan redusere hallusinasjoner.
“Selv de mest avanserte språkmodellene, som Claude, kan noen ganger generere tekst som er faktisk feilaktig eller inkonsistent med den gitte konteksten”, uttaler dokumentet. Andre AI-selskaper har delt lignende sider med tips og triks for å unngå falskt innhold, men det er ikke så enkelt og det har vært et uløst problem i ganske lang tid.
Tilbake i 2023 annonserte OpenAI at de jobbet med nye innovative måter å bli kvitt hallusinasjoner på. Spoiler alert: det er fortsatt et stort problem i dag.
I januar 2024—over et år siden—CEO Aravind Srinivas sa at Perplexitys hallusinasjoner hovedsakelig oppstod i ubetalte kontoer. “De fleste av klagene kommer fra den gratis versjonen av produktet,” forklarte Srinivas, og la til at de allerede var i gang med å tilføre flere GPUer for å løse problemet. Likevel, i oktober, hadde New York Post og Dow Jones saksøkt Perplexity—fordi modellen deres fortsatte å tilskrive deres publikasjoner falske nyheter—, og AI-verktøyet utviklet av oppstartsselskapet for det amerikanske valget ble testet av eksperter som avslørte inkonsekvenser, unøyaktige oppsummeringer og hallusinasjoner.
Hallusinasjonssykdommen Når Vitenskapelige Og Akademiske Nivåer
En av de største bekymringene akkurat nå er at selv eksperter – inkludert de som advarer om risikoene og farene ved AI – har latt seg lure av disse hallusinasjonsutsatte verktøyene.
I desember ble Stanford-professor og ekspert på teknologi og feilinformasjon Jeff Hancock anklaget for å bruke AI til å utforme en rettserklæring. Hancock leverte en 12-siders erklæring for å forsvare statens 2023-lov som kriminaliserer bruken av deepfakes, inkludert 15 siteringer. Imidlertid kunne to av disse sitatene ikke finnes noe sted – fordi ChatGPT, feilinformasjonsekspertens foretrukne AI-verktøy, ganske enkelt hadde funnet dem opp.
Hancock—som er planlagt å undervise i «Sannhet, Tillit, og Teknologi» i år—forklarte at han brukte OpenAI’s chatbot for å organisere sine siteringer, noe som førte til hallusinasjonene. Forskeren beklaget—og sto fast ved de substantielle punktene i sin erklæring—, og lærte oss alle den verdifulle leksjonen om at selv eksperter og de mest kunnskapsrike om AI-risiko er mottagelige for det.
Professor Hancock har ikke vært den eneste som har levert dokumenter som inneholder AI-genererte fabrikasjoner i retten, selvfølgelig. Et annet tilfelle som involverer et søksmål mot Walmart gikk nylig viral fordi advokatene brukte falske saker generert av AI for å bygge opp argumentet sitt. Faktisk har problemet blitt så hyppig i de amerikanske domstolene at advokatfirmaet Morgan & Morgan nylig sendte e-poster til sine mer enn 1,000 advokater, og advarte dem om risikoen ved å bruke AI-genererte siteringer, og American Bar Association påminnet sine 400,000 medlemmer om advokatetikkreglene—inkludert AI generert informasjon.
Dyp Forskning Også
Et av de mest populære AI-verktøyene akkurat nå er «Deep Research», designet for eksperter og forskere som søker mer komplekse resultater i sin forskning. Hallusinasjoner er heller ikke fraværende fra dette verktøyet, selv om OpenAI’s versjon først krevde et $200 Pro-abonnement for tilgang.
Brukere på Reddit har uttrykt bekymring for dette problemet, og rapporterer at alle de populære modellene som inneholder deep research-verktøy – Perplexity, ChatGPT, og DeepSeek – har opplevd hallusinasjoner. Forskere og AI-eksperter har også delt urovekkende resultater på andre sosiale medieplattformer som X.
«Verktøyet produserte en vakkert skrevet og argumentert rapport,» skrev en bruker som brukte OpenAI’s Deep Research-verktøy for å studere matematikk utført av unge mennesker. «Det eneste problemet er at alt er oppdiktet.»
«Deep Research diktet opp en haug med statistikk og analyser, mens det hevdet å samle en datasett med tusenvis av artikler, og angivelig hente fødselsårsinformasjon for hver forfatter fra anerkjente kilder,» delte en annen. «Ingen av dette er sant.»
Verste hallusinasjonen jeg har sett fra en sota LLM på en stund
Deep Research har laget en masse statistikk og analyser, mens de påstod å kompilere et datasett med tusenvis av artikler, og angivelig samle fødselsårsinformasjon for hver forfatter fra troverdige kilder
Ingenting av dette er sant https://t.co/ZZk40vTKIM pic.twitter.com/RAnNVcHDmR
— Paul Calcraft (@paul_cal) 18. februar, 2025
Sannheten Forblir I Menneskenes Hender
Vil chatboter noen gang slutte å hallusinere? AI’s svake punkt har vært tydelig i årevis – vi så det i podcaster som Planet Money da de testet AI-genererte episoder i 2023, og vi fortsetter å se det i de mest avanserte modellene, selv de som er designet for eksklusiv bruk av ekspert- og teknologi-kunnskapsrike samfunn.
Kanskje det er på tide å akseptere at dette vil forbli et problem og forstå at vi må påta oss ansvar for det vi skaper og deler ved hjelp av AI-verktøy.
Det faktum at selv om det virker som et kjent problem, men AI-risikoeksperter selv lar seg lure av den overtalende og overbevisende skrivingen av AI, er definitivt bekymringsfullt. Situasjonen blir enda mer kompleks etter hvert som adopsjonen fortsetter å akselerere i full fart, overgår digital lese- og skrivekyndighet, mens inkonsekvenser og fabrikkerte siteringer øker.
Tilfeller hvor AI-hallusinasjoner har blitt avslørt, pleier å være de hvor faktasjekking er avgjørende—noe Zuckerberg burde bli minnet om nå som han har eliminert sin faktasjekkingsavdeling. Dette er spesielt tydelig i rettssaler, hvor advokater og dommere arbeider for å verifisere fakta og saker, og i nyhetsmedier, hvor nøyaktighet og kildevalidering betyr noe.
Men hva med tilfeller der ingen gransker disse detaljene? Hva skjer i hverdagen, i mer personlige sammenhenger? Akkurat nå, pugger millioner av studenter AI-genererte svar for studiene sine, brukere følger AI-gitte instruksjoner for å behandle plager, og andre lærer om nye emner, og stoler fullt og helt på teknologien.
Konsekvensene av denne nye virkeligheten vi står overfor er umålbare og uforutsigbare, og sannheten – for øyeblikket – er i hendene på de som tar seg tid til å stille spørsmål og verifisere.
Legg igjen en kommentar
Avbryt