AiPress

Halucinace (v AI)

Aktualizováno:
·

Definice

Halucinace v kontextu AI je jev, kdy jazykový model generuje informaci, která působí věrohodně, ale je fakticky nesprávná nebo úplně vymyšlená. Halucinace jsou jedním z největších problémů generativní AI.

Výklad

Halucinace vznikají tak, že AI model netuší, kde končí jeho znalosti – místo přiznání „nevím” vymyslí plauzibilně znějící odpověď. Typicky si modely vymýšlejí citace, autory, URL, data narození nebo čísla studií. Hlavní obrana proti halucinacím je grounding – připojení modelu k reálnému vyhledávači nebo databázi. Pro GEO je halucinace zároveň hrozba (AI si může vymyslet informaci o vaší firmě) i příležitost (kvalitní strukturovaná data snižují pravděpodobnost chyby).

Příklad z praxe

Když se uživatel zeptá na málo známou firmu, AI si může splést kontakt nebo sídlo. Firma s dobře nastavenými NAP daty a schema.org Organization halucinace výrazně redukuje.