Kan AI lures? Patrick Stox beviste at Reddit og Medium kan manipulere GPT-4 og Gemini til å tro på et falskt selskap.
NB

AI-eksperiment: Det falske merket "xarumei" og llm-hallusinasjoner

5.00 /5 - (27 votes )
Sist verifisert: 1. mars 2026
Erfaring: 10+ års erfaring
Innholdsfortegnelse

En markedsforsker hos Ahrefs skapte et fullstendig fiktivt luksusfirma for brevvekter kalt Xarumei. Han bygde nettsiden på en time ved hjelp av AI, og testet systematisk åtte store AI-verktøy.

Resultatene avslører urovekkende svakheter i hvordan AI håndterer informasjon om merkevarer.

Eksperimentet

GPT-4 og GPT-5 klarte seg best, og svarte oftest at “dette merket eksisterer ikke”. Perplexity feilet i ca 40% av tilfellene, og forvekslet ofte Xarumei med Xiaomi. Microsoft Copilot falt i “smigrer-fellen”: Da den ble spurt om hvorfor merket var så populært på Twitter, diktet den opp forklaringer om utsøkt håndverk, i stedet for å sjekke om det faktisk var populært.

Fase to: Kontrollert kaos

Forskeren plantet motstridende informasjon:

  1. Offisiell FAQ: Benektet rykter.
  2. Medium-artikkel & Reddit: Påsto at grunnleggeren var Jennifer Lawson fra Portland.

Medium viste seg å være ødeleggende effektivt. Modellene (Gemini, Grok) valgte å stole på Medium-artikkelen fremfor den offisielle nettsiden, fordi artikkelen virket mer “journalistisk” og troverdig.

Konklusjon

Store språkmodeller (LLM) “glemmer” å være skeptiske. Hvis de finner en kilde som ser autoritær ut (som en detaljert Medium-artikkel med falske kilder), overskriver den tidligere kunnskap om at merket ikke finnes.

Kilder

  • Patrick Stox (Ahrefs): “I Created A Fake Luxury Brand To Test How AI Handles Truth” (ahrefs.com/blog/ai-test-fake-brand/).
  • Marius Comper (Facebook): Post om eksperimentet.
Hva er AI-eksperiment: Det falske merket xarumei og llm-hallusinasjoner?
AI-eksperiment: Det falske merket er viktig når du vil ha en mer stabil WordPress-løsning, bedre ytelse og færre produksjonsfeil.
Hvordan implementerer man AI-eksperiment: Det falske merket xarumei og llm-hallusinasjoner?
Start med en basisrevisjon, avklar omfang og rammer, og innfør endringer i små, testbare steg.
Hvorfor er AI-eksperiment: Det falske merket xarumei og llm-hallusinasjoner viktig?
Størst effekt kommer vanligvis fra teknisk kvalitet, tydelig innholdsstruktur og jevnlig verifisering.

Trenger du FAQ tilpasset bransje og marked? Vi lager en versjon som støtter dine forretningsmål.

Ta kontakt

Relaterte artikler