Prečo ChatGPT jednoducho nepovie „neviem"? Ako fungujú AI halucinácie

Technológie 6 min.
Abstraktná neurónová sieť s rozbitými uzlami a glitch efektmi na tmavomodrom pozadí
Zdieľať

Právnik v New Yorku predložil súdu šesť precedentov, ktoré nikdy neexistovali. Všetky mu vymyslel ChatGPT. Nejde o ojedinelý prípad - ide o základnú vlastnosť technológie.

Právnik Steven Schwartz z New Yorku predložil v roku 2023 súdu šesť citácií z predchádzajúcich rozsudkov. Všetkých šesť precedentov jednoducho neexistovalo. ChatGPT ich vymyslel od základu, vrátane mien sudcov, čísiel prípadov aj citovaných výrokov. Schwartz tvrdil, že nevedel, že AI môže klamať. Súd ho za to pokutoval.

Tento prípad nie je výnimkou. Je to ukážka fenoménu, ktorý odborníci nazývajú AI halucinovanie - a každý, kto AI používa, by mal vedieť, prečo k nemu dochádza.

V skratke:

  • LLM (veľké jazykové modely) nepracujú s faktami, ale so štatistikou textu
  • Model nemá interný príznak „viem / neviem”, preto si odpoveď doplní
  • Tréning odmeňoval sebavedomé odpovede, čím modely naučili znieť presvedčivo aj pri omyle
  • Halucinácie sa nedajú úplne odstrániť - ide o vlastnosť architektúry
  • Nové modely (GPT-4o, Claude 3.5, Gemini 2) halucinujú menej, ale stále halucinujú

Čo sa deje vo vnútri ChatGPT#

ChatGPT nie je databáza faktov ani vyhľadávač. Je to štatistický stroj, ktorý predpovedá, aký token (slovo alebo časť slova) najpravdepodobnejšie nasleduje za predchádzajúcim textom.

Tréning prebiehal na stovkách miliárd viet z internetu, kníh, vedeckých článkov a diskusií. Model sa naučil, aké slová zvyknú stáť vedľa seba, aké témy sa typicky rozvíjajú akým spôsobom a aký text znie „správne”. Nenaučil sa pravdu - naučil sa štatistiku jazyka.

Preto keď sa ho spýtate „Kto vyhral Oscara v roku 1987 za najlepší film?”, model neprezerá databázu filmových cien. Generuje odpoveď, ktorá štatisticky vyzerá ako správna odpoveď na túto otázku. Väčšinou to vyjde. Niekedy nie.

Model navyše nemá žiadny interný príznak „toto viem / toto neviem”. Nemá mechanizmus na rozlišovanie medzi dobre podloženou informáciou a vymyslenou. Jednoducho produkuje text, ktorý znie plauzibilne v danom kontexte.

Prečo model klame so sebavedomím#

Tu vstupuje do hry tréning s ľudskou spätnou väzbou - odborne RLHF (Reinforcement Learning from Human Feedback).

OpenAI, Anthropic a Google nechávali ľudských hodnotiteľov porovnávať rôzne odpovede modelu a vyberať lepšie. Ľudia prirodzene preferujú odpovede, ktoré znejú sebavedomí, sú plynulé a pôsobia odborne. Váhavé odpovede s „neviem” pôsobili menej užitočne.

Výsledok: modely sa naučili, že sebavedomá odpoveď je odmenená. Takže aj keď model narazí na medzeru vo svojich trénovacích dátach, odpovie sebavedomo namiesto toho, aby priznal neistotu.

Moderné modely na tom pracujú. GPT-4o aj Claude 3.5 boli dotrénované tak, aby častejšie hovorili „nie som si istý” alebo „overujem si to”. Ale základ problému zostáva - štatistický mechanizmus predikcie textu nevie sám o sebe rozlíšiť pravdu od plauzibilnej nepravdy.

Aké typy halucinácií existujú#

Halucinovanie sa neprejavuje len vymyslenými súdnymi precedentami. Formy sú rôzne:

Vymyslené citácie a štúdie. Model dokáže vygenerovať presvedčivý formát citácie vrátane autora, časopisu, ročníka a čísla strany. Štúdia pritom nikdy nevyšla. Toto je osobitne nebezpečné pri akademickom a lekárskom kontexte.

Neexistujúce API funkcie. Programátori sa stretávajú s tým, že AI im navrhne funkciu alebo knižnicu, ktorá jednoducho neexistuje. Kód vyzerá správne, ale spustí chybu, pretože referenčná funkcia nikdy nebola súčasťou danej knižnice.

Zle spočítané čísla. LLM nie sú kalkulačky. Aritmetické halucinácie (typ „2+2=5”) sú bežné pri dlhých reťazcoch výpočtov. Preto moderné systémy majú pripojenú kalkulačku ako externý nástroj namiesto toho, aby počítali sami.

Zmiešané fakty. Model správne vie, že existuje osoba X aj udalosť Y, ale vymyslí súvislosť medzi nimi, ktorá nikdy nebola. Výsledná odpoveď obsahuje skutočné mená, ale fiktívny vzťah.

Tri prípady, keď to malo reálne dôsledky#

Prípad Schwartz (2023, New York). Právnik Steven Schwartz použil ChatGPT na prípravu súdneho podania. Výsledok: šesť vymyslených precedentov. Sudca Castel po kontrole zistil, že citované rozsudky neexistujú. Schwartz dostal pokutu 5 000 dolárov a musel absolvovať právne vzdelávanie.

Google Bard a James Webb (2023). Google prezentoval chatbota Bard na verejnej udalosti. Bard pri odpovedi na otázku o vesmírnom teleskope Jamesa Webba uviedol, že prvýkrát odfotografoval planétu mimo našej slnečnej sústavy. To bola chyba - prvé takéto fotografie pochádza z iného teleskopu. Akcie Alphabetu po tomto incidente klesli o 9 %.

Air Canada chatbot (2022-2023). Chatbot Air Canada informoval zákazníka, že môže dostať zľavu za letenku zosnulého príbuzného aj spätne. To nie je pravda podľa podmienok Air Canada. Zákazník si zľavu nárokoval na súde. Kanadský súd rozhodol, že Air Canada je zodpovedná za informácie, ktoré poskytol jej chatbot - aj keď boli nesprávne.

Prečo to výrobcovia nemôžu úplne odstrániť#

Halucinácie nie sú chyba, ktorú by šlo opraviť jednou aktualizáciou. Vyplývajú zo základnej architektúry LLM.

Model generuje text tokenu po tokene na základe pravdepodobnosti. Aby „vedel” kedy nevie, musel by mať prístup k spoľahlivej znalostnej databáze a mechanizmus na jej overovanie pri každej odpovedi. To je odlišná architektúra - nie jazykový model, ale hybridný systém.

Riešenia existujú čiastočne: RAG (Retrieval-Augmented Generation) pridáva modelu prístup k overiteľným zdrojom, napríklad k firemnej dokumentácii alebo na internet v reálnom čase. ChatGPT s webovým vyhľadávaním, Perplexity AI alebo Microsoft Copilot takto fungujú. Halucinujú menej, ale nie nulovo - model stále interpretuje a sumarizuje načítané texty, pričom môže zle pochopiť alebo zmiešať informácie.

Nové generácie modelov (GPT-4o, Claude 3.7 Sonnet, Gemini 2 Pro) výrazne znížili mieru halucinovania oproti prvým verziám. Štúdie ukazujú, že GPT-4 halucinuje o 40-80 % menej ako GPT-3.5 v závislosti od domény. Stále však nie na nule.

Ako zistíte, či vám AI klame#

Overenie je jednoduchšie, ako sa zdá. Niekoľko praktických krokov:

Pýtajte sa na zdroje. Ak AI uvedie konkrétny fakt, spýtajte sa „Z akého zdroja pochádza táto informácia?” a potom konkrétny zdroj overte sami. Ak zdroj neexistuje alebo neobsahuje danú informáciu, máte halucinovanie.

Testujte veci, ktoré viete. Ak AI odpovedá o témach, kde ste odborník, všimnete si chyby rýchlejšie. Všeobecná rada: ak niečo neviete overiť, zachovajte zdravú skepsu.

Používajte modely s webovým prístupom. ChatGPT s funkciou Hľadaj, Perplexity alebo Copilot prikladajú k odpovedi zdrojové URL. Stále treba overiť, ale je to lepší východiskový bod ako čistý LLM.

Číselné údaje vždy overte. Percentá, štatistiky, ceny, dátumy - toto je oblasť s najvyšším rizikom halucinovania. Ak AI tvrdí, že niečo stojí X eur alebo nastalo v roku Y, vždy si skontrolujte primárny zdroj.

Kde AI pomáha a kde je riziková#

Typ úlohySpoľahlivosť AIOdporúčanie
Brainstorming, nápadyVysokáPoužiť bez obáv
Prepis, úprava textuVysokáPoužiť, skontrolovať tón
Programovanie (bežné vzory)StrednáPoužiť, testovať kód
Programovanie (nové knižnice)NízkaOveriť dokumentáciu
Preklad textuStrednáSkontrolovať nuansy
Faktické otázky (história, veda)StrednáOveriť primárny zdroj
Právne a medicínske radyNízkaNikdy nekončiť pri AI
Matematické výpočtyNízkaPoužiť kalkulačku
Aktuálne správyNízka (bez webu)Použiť verziu s webom
Citácie a zdrojeVeľmi nízkaVždy overiť existenciu

Pravidlo, ktoré funguje: AI je výborný asistent na tvorbu a editovanie obsahu. Je slabý ako zdroj faktov. Keď tieto roly nemiešate, dostanete dobrý pomer výkonu a rizika.

Halucinácie teda nie sú bug, ktorý čaká na opravu. Sú to štatistické artefakty technológie, ktorá sa učila imitovať ľudský text - nie overovať pravdu. Vedia o tom aj ľudia v OpenAI aj v Anthropic. Preto vás Claude aj ChatGPT na začiatku konverzácie upozornia, že môžu robiť chyby. Len to nestačí vždy prečítať.

Niečo nesedí alebo máte inú skúsenosť?

Dajte nám vedieť. Vaše postrehy pomáhajú udržiavať obsah presný a aktuálny.

Napíšte nám

Našli ste chybu, máte nápad na vylepšenie alebo nás chcete pochváliť? Dajte nám vedieť.

O čo ide?
0 / 5000 znakov
aichatgpthalucinaciellmtechnologie
Martin Pavlič
Martin Pavlič

Píše o technológiách a zaujímavostiach

Páči sa vám web bezkecov.sk?

Pridajte si nás medzi obľúbené zdroje v Google - bude nás vidieť častejšie vo výsledkoch vyhľadávania.

Pridať si do Google

Mohlo by vás zaujímať