Umělá inteligence lidem šetří čas, zvyšuje produktivitu a otevírá nové kreativní možnosti. Zároveň ale svádí k pohodlnosti, nekritickému přebírání výstupů a přenášení odpovědnosti na technologii. Jaké dovednosti dává smysl na AI delegovat – a kde už to může být nebezpečné? Jak se mění dezinformace v době generativních modelů a podle čeho je dnes vůbec rozpoznat? Jak mohou manažeři a podnikatelé využívat AI efektivně a bezpečně? A proč je důležité zachovat si kritické myšlení i v době generativních modelů? Nejen o tom mluví v rozhovoru pro Roklen24 expert na umělou inteligenci a lektor digitálních dovedností Lukáš Barda.
Jaké schopnosti nebo dovednosti lidé dnes nejčastěji delegují na umělou inteligenci? A kde už to podle Vás není v pořádku?
Ve firmách dnes AI pomáhá například s automatizací rutinních úkolů – od generování nabídek po analýzu zákaznických dat. Pokud je správně nasazena, může ušetřit desítky hodin měsíčně. Lidé ale často na AI delegují svou zodpovědnost. Takové to: „AI to napsala, takže je to správně.“ To je z mé zkušenosti jeden z velkých současných problémů. Umělá inteligence vám může něco vygenerovat, ale vždy nad tím musíte udělat supervizi. Podrobit její výsledky své expertíze nebo kritickému pohledu. Ať už jde o článek, prezentaci nebo rozhodnutí.
Začátky práce s AI si můžete představit jako když máte stážistu nebo stážistku, který/která právě nastoupil/a. Dostane zadání, něco odevzdá, ale vy jste pořád ten seniorní člověk, který za výsledek ručí. Nemůžete vzít první verzi a brát ji jako finální výstup. Bez lidského dohledu, bez kontextu a osobního rukopisu to prostě nefunguje. Interakci s AI berte spíše jako dialog. Je potřeba se kvalitního výsledku dobrat společně a chvíli to trvá. Čím častěji s ní věci řešíte, tím víc se s vámi učí, je efektivnější a přesnější. Tím zkušenější se stává a tím méně supervize časem potřebuje.

Které oblasti by tedy delegovatelné být neměly?
Například rozhodování, etická rovina nebo odpovědnost za dopady výstupů z umělé inteligence. AI vám může pomoci s analýzou nebo návrhem, ale nemůže za vás nést následky. To platí jak pro jednotlivce, tak pro firmy. Ve velkých organizacích už dnes často při využívání AI vidíte upozornění typu: nepoužívejte neschválené nástroje, nevkládejte interní data nebo ponesete následky. Existuje také evropská regulace umělé inteligence jménem AI Act, která definuje pravidla využití umělé inteligence na starém kontinentu – například co se smí, nesmí, možné postihy nebo zakázané praktiky.
Nemáte pocit, že nás AI vede k pohodlnosti a oslabování kritického myšlení?
Ten trend tady byl dávno před AI. Umělá inteligence je jen další krok. Už dřív jsme měli sociální sítě, které manipulují s naší pozorností, nebo nástroje, které zjednodušují práci. Dnes je situace jiná v tom, že máme extrémně silný nástroj v kapse prakticky každý a ten nástroj je připraven 24/7 s námi řešit cokoliv a kdekoliv. Je tak mnohem jednodušší se na věci zeptat a instantně dostat odpověď než se odpovědí dovtípit vlastními silami.
Dřív jste také museli technologie aspoň trochu ovládat. Dnes otevřete aplikaci a prostě řeknete, co chcete. To samozřejmě svádí k pohodlnosti. Kritické myšlení tím netrpí kvůli AI samotné, ale spíše kvůli tomu, že jsme obecně zvyklí na jednoduchost a okamžitý výsledek.
Jak se v éře generativní AI mění charakter dezinformací a manipulací?
Mění se hlavně v měřítku a rychlosti. Dřív bylo vytváření sofistikovaných manipulací složité a nákladné. Dnes můžete během chvíle vytvořit obrovské množství obsahu a zasáhnout tisíce lidí.
Zároveň platí, že na spoustu útoků AI ani nepotřebujete. Nejefektivnější, nejjednodušší a nejlevnější je stále klasický sociální engineering – vydávání se za někoho jiného, vybízení k nějaké akci, práce s emocemi, časový tlak atd. AI může pomoci takové útoky automatizovat a škálovat. Dezinformace se tak šíří rychleji, levněji a ve větším objemu.
Jak tedy dnes dezinformace rozpoznávat? Existují spolehlivé technické nástroje?
Technické nástroje existují, ale jejich úspěšnost není stoprocentní. I generovaný obsah pomocí AI vám může projít jako „pravý“. Běžný uživatel navíc nemá přístup k pokročilým forenzním metodám, které pro detekci takovéhoto obsahu používají například policie nebo bezpečnostní složky.
To, co můžeme dělat, je sledovat vlastní emoce. Pokud ve vás obsah vyvolává strach, vztek nebo silnou výzvu k akci, je to červená vlajka. Vždy si položte otázku: proč mi to někdo posílá? A ověřujte zdroje – jeden izolovaný obsah na jedné platformě je podezřelý, důvěryhodné informace se obvykle objevují na více místech.
Co by měl běžný uživatel dělat už dnes, aby AI používal bezpečně a zodpovědně? Mohl byste formulovat základní pravidla?
Za prvé: supervize a kritický odstup. Nikdy nebrat výstup z AI jako hotovou pravdu. Jak už bylo zmíněno výše, je to spíš o dialogu. AI vám může pomoci být rychlejší a efektivnější nebo rozšířit obzory. Není to váš autopilot, ale „jen” copilot. Rozhodně zde platí: Důvěřuj, ale prověřuj.
Za druhé: přemýšlet o soukromí. Pokud je nějaká služba zadarmo, velmi pravděpodobně platíte svými daty. Co jde do cloudu, může být zpracováváno a analyzováno někde jinde. I u AI platí zlaté pravidlo: Pokud neplatím za produkt, tak jsem sám produktem.
A za třetí: používat schválené nástroje – zejména v pracovním prostředí. Pokud firma využívá Microsoft, dává smysl používat i AI nástroje od Microsoftu, pokud Google, má smysl držet se jejich ekosystému. Ptejte se po interních pravidlech a doporučení. V dnešní době je nejčastěji preferovaným nástrojem Copilot od Microsoftu nebo firemní verze ChatGPT. Otevírání externích nástrojů bez pravidel je bezpečnostní riziko a dochází při tom často k úniku citlivých dat.
Jaká jsou podle vás hlavní rizika a výzvy nové AI éry z pohledu společnosti?
Jako hlavní riziko vnímám velkou nerovnost v gramotnosti. Úzká skupina lidí AI opravdu rozumí a dokáže ji využívat efektivně – ať už ke zvýšení konkurenceschopnosti, nebo bohužel i ke zneužívání. Většina lidí vývoj nestíhá sledovat a nemá kapacitu držet krok s tempem změn, které je enormní.
Také je potřeba si připomínat základní pravidlo: cokoliv dnes vidíte nebo slyšíte, nemusí být pravda. Kritické myšlení a digitální gramotnost už nejsou jen nice-to-have. Jsou to základní dovednosti přežití v digitálním světě.
Umělá inteligence je silný nástroj, ale zůstává jen nástrojem. Klíčem k jejímu smysluplnému využití je lidská odpovědnost, kritické myšlení a schopnost klást správné otázky. Pro firmy i jednotlivce je důležité chápat, že AI může být skvělým pomocníkem – ale nikdy by neměla být autonomní rozhodovací autoritou.
Lukáš Barda je expert a lektor digitálních dovedností. Specializuje se na efektivní a zdravý vztah s technologiemi – od využívání digitálních nástrojů a AI technologií až po digitální rovnováhu a kybernetickou bezpečnost. Více na https://lukasbarda.cz/

