Nástroje s umělou inteligencí dnes často využívají tzv. velké jazykové modely (large language models, LLMs).
8. 1 Jak to (ne)funguje
Jazykové modely nefungují na základě pevně daných pravidel (nejde o „chytré kalkulačky“), ale učí se z rozsáhlých textových dat (datasetů), které mohou pocházet z webových stránek, knih, encyklopedií nebo diskusních fór. Během trénování se model učí rozpoznávat vzorce v jazyce – například jaká slova a věty typicky následují po sobě, jaký styl odpovídá určité situaci, nebo jak vypadá argumentační struktura odborného textu. Neuchovává si přitom celé texty, ale vytváří si vnitřní statistickou reprezentaci jazyka, tedy pravděpodobnostní model toho, co nejspíš následuje v daném jazykovém kontextu.
Takto předtrénovaný model je doladěn (např. pomocí lidského hodnocení odpovědí) a opatřen systémovým promptem, který nastavuje roli, chování a hranice. Může být přizpůsoben pro konkrétní úkoly jako je vedení konverzace, shrnutí textu, návrhy kódu nebo rešerši. Některé modely mají navíc přístup k internetu, databázím nebo dalším nástrojům.
Uživatel pak s tímto „hotovým“ modelem komunikuje v přirozeném jazyce pomocí tzv. uživatelských promptů. Model na ně odpovídá generováním textu, který je z jeho pohledu nejpravděpodobnějším pokračováním v daném kontextu.
8. 2 Bias
Výstup modelu je tudíž ovlivněn kombinací několika faktorů: co se model naučil během předtrénování (vzorce z textových datasetů), způsob doladění, systémový prompt, případné doplňkové instrukce od provozovatele modelu nebo třetích stran, a samozřejmě samotný uživatelský prompt, aktuální kontext a předchozí komunikace.
Všechny tyto vlivy, každý zvlášť i v kombinaci, mohou způsobit zkreslení výstupu. Povaha tréninkových dat může neúmyslně utvrzovat předsudky. Systémový prompt nebo dodatečné instrukce mohou ovlivnit styl odpovědí, potažmo preferovat určitý světonázor či produkty. A samotná interakce uživatele s modelem může vytvářet efekt informační bubliny.
Pro běžného uživatele je přitom původ konkrétního zkreslení často netransparentní, což zvyšuje potřebu obezřetnosti – nejen při interpretaci výstupů umělé inteligence, ale i při tom, co jí sami zadáváme.
Důležité je také vědět, že podobně jako jiné služby mohou nástroje s umělou inteligencí uchovávat a analyzovat zadané vstupy. Právě proto Pravidla a doporučení pro využívání umělé inteligence na VŠB-TUO (TUO_LEG_24_002) výslovně říkají, že:
„V žádném případě […] nelze nástroji umělé inteligence zpracovávat citlivá (např. osobní) data, nebo data, která jsou součástí smluvních ujednání.“
8. 3 Moderace výstupů uživatelem a jejich zpětná kontrola
Mechanismy pro omezení zkreslení najdeme dnes téměř ve všech nástrojích s umělou inteligencí, a to v různých podobách: od transparentnosti zdrojů (odkazy, citace), přes možnost zpětné vazby (hodnocení odpovědí), až po systémové zásahy jako jsou obsahové filtry nebo automatická moderace obsahu. To ale pro uživatele neznamená, že může výstupy generované umělou inteligencí používat bez kritického zhodnocení.
Výstupy generované umělou inteligencí můžeme do jisté míry chápat jako formu tzv. šedé literatury, ovšem s tím rozdílem, že za nimi nestojí lidské myšlení, ale statistický výpočet, jehož zdroje a logika bývají často neprůhledné. O to větší obezřetnost je při práci s takovým výstupem nutná.
Jak používat nástroje s umělou inteligencí, abychom se vyhnuli skryté podjatosti?
1. Dobře promyšlené prompty a jejich variace
Formulace zadání silně ovlivňuje kvalitu výstupu. Čím lépe je prompt zacílený, tím přesnější (a užitečnější) bývá odpověď. Na druhou stranu, i drobná změna ve volbě slova, tónu nebo struktury může vést ke zcela odlišné odpovědi, někdy i k tzv. emergentnímu chování, které působí překvapivě nebo nelogicky.
Může pomoci:
- zkoušet různé varianty téhož dotazu,
- měnit jazyk (např. čeština vs. angličtina),
- konverzaci rozvíjet, doptávat se, upřesňovat.
2. Kritické hodnocení zdrojů a jejich diverzifikace
Stejně jako u běžného vyhledávání i zde platí zlaté pravidlo: nečerpat jen z jednoho zdroje, jednoho modelu a jednoho nástroje.
Kontrolujeme tedy:
Tyto kontroly se ale neobejdou bez kritického zhodnocení, podpořeného vlastním důvtipem a znalostí kontextu.
3. „Proč si myslím to, co si myslím?“
Nástup nástrojů s umělou inteligencí o to naléhavěji zdůrazňuje potřebu stavět se i k samotnému myšlení kriticky. V záplavě informací (a generovaných výstupů) snadno dochází k podprahovému příjímání názorů, které se pak bez povšimnutí stávají součástí našeho pohledu na svět.
Proto má smysl občas zastavit se a zeptat se:
- „Proč si myslím to, co si myslím?“
- „Opravdu si to já myslím?“
- „Proč si myslím, že je to pravda?“
- „Co z toho můžu doopravdy ověřit?“
- „A jak to vůbec mohu vlastně myslet?“
8. 4 Pár užitečných nástrojů (nejen) pro rešerši
Je těžké držet krok s rychle se vyvíjejícím odvětvím jako jsou velké jazykové modely. Vybíráme pouze některé, (do)trénované pro specifické úlohy:
Scite není sice primárně určen pro začátečníky v rešerši, ale i těm může pomoci ověřit kvalitu odborných publikací díky přehlednému zobrazení citací v kontextu (citace podporující, zpochybňující, neutrální a jejich umístění ve větě). Pro inspiraci lze využít i Scite Assistant. K dispozici na VŠB-TUO díky předplacené licenci.
Google NotebookLM dokáže shrnout obsah nahraných souborů, převádět je do formátu studijních průvodců, přehledů nebo podcastů, a odpovídat na otázky k jejich obsahu. I když VŠB-TUO NotebookLM aktuálně nepředplácí, volně dostupná verze nabízí dostatečné množství tokenů a mnoho funkcí, které se hodí pro studium i rešerši.
Writefull Premium je nástroj určený k jazykové korektuře odborných textů v angličtině. Pomáhá při psaní odborných článků, závěrečných prací nebo abstraktů (nabízí návrhy na úpravy stylistiky, gramatiky i vědeckého vyjadřování). Používá kombinaci vlastních jazykových modelů a modelů třetích stran. K dispozici na VŠB-TUO díky předplacené licenci.
GPTZero může napovědět, nakolik je text vytvořen umělou inteligencí. Nabízí kontrolu až do 10.000 slov měsíčně zdarma (češtinu zatím oficiálně nepodporuje). Pro častější použití lze zvážit profesionálnější nástroj Originality.AI, který výslovně umožňuje kontrolu textu v češtině. V obou případech nejde konverzační jazykové modely (LLM), ale i specializované nástroje s umělou inteligencí. T využívají které využívají algoritmy a statistické modely k odhadu, zda byl text vytvořen umělou inteligencí.