
En AI-hallucination er en situation, hvor et kunstigt intelligent værktøj leverer output, der er unøjagtigt, vildledende eller usammenhængende, på grund af dets algoritmer, der finder mønstre i data, der ikke findes, eller fortolker disse mønstre forkert.
I takt med at mulighederne og populariteten af kunstig intelligens er blevet udvidet i løbet af de sidste par år, er nogle af dens mangler og sårbarheder blevet afsløret.
Et af de største spørgsmål, folk har, er, om AI er nøjagtig. I mange tilfælde har det vist sig at være et utroligt nyttigt værktøj til at tjekke fakta og undersøge oplysninger, men i nogle andre har de resultater, det har leveret, været forkerte eller vildledende.
I betragtning af de mange anvendelsesmuligheder, som AI anvendes til i den moderne verden, kan konsekvenserne af disse unøjagtigheder være ekstremt alvorlige. I denne artikel vil vi se på, hvorfor en AI-hallucination kan opstå, konsekvenserne fra teknologiske og samfundsmæssige synspunkter, og hvad du kan gøre for at minimere risikoen for AI-hallucinationer i eget brug.
Hvordan opstår en AI-hallucination?
Der er flere forskellige årsager til, at en AI-hallucination opstår, og i mange tilfælde handler det om en kombination af flere af dem på samme tid. Disse kan omfatte (og er ikke nødvendigvis begrænset til):
- Ikke at have nok træningsdata til at guide omfattende, nøjagtige resultater fra AI-modellen.
- Har du for mange træningsdata, hvilket fører til, at for meget irrelevant 'datastøj' forveksles med de oplysninger, der er relevante og vigtige.
- Forstyrrelser i dataene, som afspejles i genererede resultater.
- AI-modellen gør simpelthen de forkerte antagelser og konklusioner ud fra de oplysninger, den er blevet fodret med.
- En mangel på kontekst fra den virkelige verden i AI-modellen, såsom fysiske egenskaber ved objekter eller bredere oplysninger, der er relevante for de resultater, der genereres.
Hvordan ser en AI-hallucination ud?
Der er ikke et enkelt sæt af symptomer for AI-hallucinationer, fordi det afhænger af fejlene i modellen og den involverede proces. Typisk kan en AI-hallucination dog vise sig på en af disse fem måder:
- Upræcise forudsigelser : AI-modeller kan ende med at forudsige, at der vil ske noget i fremtiden, som har en lille realistisk chance for at opstå, eller sandsynligvis ingen chance overhovedet.
- Resuméer med manglende oplysninger : Nogle gange kan AI-modeller gå glip af vital kontekst eller oplysninger, som de skal bruge for at skabe nøjagtige, omfattende resultater. Dette kan være på grund af manglende data indført i modellen, eller modellens manglende evne til at søge efter den rigtige kontekst fra andre kilder.
- Resuméer med opdigtede oplysninger : i lighed med det foregående punkt kan nogle AI-modeller ende med at kompensere for mangel på nøjagtige oplysninger ved at finde på tingene fuldstændigt. Dette kan ofte ske, når de data og den kontekst, som modellen er afhængig af, er unøjagtige i første omgang.
- Falske positive og negative sider : AI bruges ofte til at opdage potentielle risici og trusler, uanset om det er symptomer på sygdom i sundhedssektoren eller tilfælde af svigagtig aktivitet i bank og finans. AI-modeller kan nogle gange identificere en trussel, der ikke eksisterer, eller i den anden ende af skalaen, kan de ikke identificere en trussel, der gør det.
- Usammenhængende resultater : Hvis du har set AI-genererede billeder af mennesker med det forkerte antal arme og ben eller biler med for mange hjul, så vil du vide, at AI stadig kan generere resultater, der ikke giver nogen mening for mennesker.
Hvorfor er det vigtigt at undgå AI-hallucinationer?
Du tror måske, at en AI-hallucination ikke er nogen big deal, og at blot at køre dataene gennem modellen igen kan løse problemet ved at generere de rigtige resultater.
Men tingene er ikke helt så enkle, og alle AI-hallucinationer, der anvendes til praktisk brug eller frigives til offentligheden, kan have nogle meget alvorlige konsekvenser for et stort antal mennesker:
Uetisk brug af AI
Brugen af AI, i generelt, er i søgelyset i øjeblikket, og organisationer, der gør brug af teknologien, forventes i stigende grad at bruge AI på en ansvarlig og etisk måde , der ikke skader eller bringer dem i fare. At lade en AI-hallucination passere ukontrolleret - enten bevidst eller ubevidst - ville ikke leve op til disse etiske forventninger.
Offentlighedens og forbrugernes tillid
I forbindelse med det foregående punkt er mange mennesker stadig bekymrede for brugen af AI, fra hvordan deres personlige data bruges til, om de stigende muligheder for AI kan gøre deres job forældede. Fortsatte tilfælde af AI-hallucinationseksempler i det offentlige domæne kan udhule den langsomt opbyggende tillid blandt offentligheden og føre til begrænset succes for AI-brugssager og -virksomheder på lang sigt.
Fejlinformeret beslutningstagning
Virksomheder og mennesker skal kunne træffe de bedst mulige og mest informerede beslutninger og læner sig i stigende grad op af data, analyser og AI-modeller for at fjerne gættet og usikkerheden fra disse beslutninger. Hvis de bliver vildledt af unøjagtige resultater fra AI-modeller, kan de forkerte beslutninger, de træffer, have katastrofale konsekvenser, fra at true virksomhedens rentabilitet til at fejldiagnosticere en medicinsk patient.
Juridiske og økonomiske risici ved AI-fejlinformation
Som retssagen nævnt ovenfor dygtigt viser, kan unøjagtige AI-genererede oplysninger forårsage stor skade fra juridiske og økonomiske perspektiver. For eksempel kan indhold, der er oprettet ved hjælp af AI, være ærekrænkende over for bestemte personer eller virksomheder, kunne være i strid med visse lovbestemmelser, eller nogle ekstreme tilfælde endda foreslå eller tilskynde folk til at udføre ulovlige aktiviteter.
Undgå bias
Vi lever i en verden, hvor folk arbejder utrætteligt for at sikre, at alle behandles ens og uden forudindtagethed over for én type mennesker frem for en anden. Imidlertid kan partiske AI-data føre til, at mange af disse fordomme forstærkes, ofte utilsigtet. Et godt eksempel på dette er brugen af AI i ansættelser og rekruttering: AI-hallucinationer kan føre til forudindtagethed resultater, der kan påvirke mangfoldighed, lighed og inklusion indsats i organisationen.
Hvad er nogle typiske AI-hallucinationseksempler?
At undgå AI-hallucinationer har vist sig at være en udfordrende opgave for alle i branchen. Og det sker ikke kun med mindre operationer, der ikke har ekspertisen og ressourcerne. Disse tre AI-hallucinationseksempler beviser, at de sker for nogle af de største tech-aktører i verden:
Meta AI og mordforsøget på Donald Trump
I kølvandet på mordforsøget mod den daværende præsidentkandidat Donald Trump i juli 2024, Metas AI chatbot nægtede i første omgang at svare på spørgsmål om hændelsen og hævdede senere, at hændelsen aldrig fandt sted. Problemet førte til, at Meta justerede algoritmerne for sit AI-værktøj, men førte til offentlige påstande om bias og censurering af konservative synspunkter.
ChatGPT-hallucinationen og den falske juridiske forskning
I 2023 indgav en mand i Colombia en personskadesag mod et flyselskab. Hans advokater brugte det førende AI-værktøj ChatGPT for første gang til at samle hans sag og forberede juridiske indlæg. Men på trods af ChatGPT's forsikringer om, at de seks tilfælde af juridiske præcedenser, det havde fundet, var reelle, eksisterede ingen af dem.
Microsofts Sydney forelsker sig i brugerne
Sydney, Microsofts AI-drevne chatbot, blev rapporteret at have fortalt en teknologisklummeskribent på New York Times, at den elskede ham, og at han skulle forlade sin kone for at være sammen med den i stedet. I løbet af to timer sagde Kevin Roose, at Sydney delte nogle "mørke fantasier" med ham om at sprede AI-fejlinformation og blive menneske.
Hvad kan der gøres for at minimere risikoen for AI-hallucination?
I betragtning af vigtigheden af at undgå risikoen for en AI-hallucination er det op til de personer, der bruger AI-modeller, at tage alle de praktiske skridt, de kan, for at afbøde de omstændigheder, der kan føre til problemer. Vi anbefaler følgende:
Sørg for, at der er et klart formål med AI-modellen
I takt med at brugen af AI er vokset i de senere år, er en almindelig fejl, at organisationer bruger AI-modeller for at bruge dem, uden at tage hensyn til det output, de er leder efter. En klar definition af det overordnede mål med at bruge en AI-model kan sikre, at resultaterne er fokuserede og undgå risikoen for en AI-hallucination gennem en tilgang og data, der er for generelle.
Forbedre kvaliteten af træningsdata
Jo bedre kvalitet af de data, der indgår i en AI-model, desto bedre er kvaliteten af de resultater, der kommer ud af den. En god AI-model vil være baseret på data, der er relevante, fri for bias, velstrukturerede og har fået filtreret enhver uvedkommende 'datastøj' fra. Dette er vigtigt for at sikre, at de genererede resultater er nøjagtige, i den rigtige sammenhæng og ikke vil give yderligere problemer.
Opret og brug dataskabeloner
En god måde at sikre, at resultaterne af en AI-model er nøje afstemt med deres tilsigtede formål, er at bruge skabeloner til de data, der føres ind i dem. Dette sikrer, at hver gang en AI-model bruges, vænner den sig til, at data leveres på samme ensartede måde og kan levere ensartede, nøjagtige resultater i den rigtige sammenhæng.
Begræns rækken af svar og resultater
Ved at sætte flere begrænsninger på en AI-model kan det hjælpe med at indsnævre de potentielle resultater i retning af dem, der er nødvendige. Det er her, filtreringsværktøjer og tærskler kommer i spil, hvilket giver AI-modeller nogle tiltrængte grænser for at holde deres analyse og generation konsekvent på rette spor.
Test og forbedre hele tiden modellen
Ligesom løbende forbedringer er afgørende for god softwareudvikling i en verden i konstant forandring, gælder det samme for en god AI-model. Derfor bør alle AI-modeller testes og forfines regelmæssigt, så de kan omkalibreres til udviklingen i data, krav og de tilgængelige kontekstuelle oplysninger.
Sæt menneskelige kontroller og balancer på plads
AI er endnu ikke ufejlbarlig til det punkt, at den kan have tillid til at fungere fuldstændigt selvstændigt, så det er vigtigt at sikre, at der er i det mindste noget menneskeligt tilsyn på plads. Hvis en person tjekker AI-output, kan det identificere eventuelle AI-hallucinationer, der har fundet sted, og sikre, at outputtet er nøjagtigt og egnet til de angivne krav.
Styrk din cybersikkerhed
Hvis en AI-hallucination er i risiko for at introducere cybersikkerhedssårbarheder, så er det en god grund til at sikre den bedst mulige cybersikkerhedsløsning på plads. Kaspersky Plus Internet Security inkluderer antivirusscanning i realtid som standard, så alle sikkerhedstrusler, der introduceres på grund af AI-hallucinationer, behandles og elimineres, før de kan have negative virkninger.
Relaterede artikler:
