Halucinace (v AI)
Definice
Halucinace v kontextu AI je jev, kdy jazykový model generuje informaci, která působí věrohodně, ale je fakticky nesprávná nebo úplně vymyšlená. Halucinace jsou jedním z největších problémů generativní AI.
Výklad
Halucinace vznikají tak, že AI model netuší, kde končí jeho znalosti – místo přiznání „nevím” vymyslí plauzibilně znějící odpověď. Typicky si modely vymýšlejí citace, autory, URL, data narození nebo čísla studií. Hlavní obrana proti halucinacím je grounding – připojení modelu k reálnému vyhledávači nebo databázi. Pro GEO je halucinace zároveň hrozba (AI si může vymyslet informaci o vaší firmě) i příležitost (kvalitní strukturovaná data snižují pravděpodobnost chyby).
Příklad z praxe
Když se uživatel zeptá na málo známou firmu, AI si může splést kontakt nebo sídlo. Firma s dobře nastavenými NAP daty a schema.org Organization halucinace výrazně redukuje.