Roboti jako „příliš nebezpeční“ novináři

V době, kdy spojení fake news rezonuje veřejnou debatou, se Elon Musk rozhodl, že si nechá vytvořit software, který dokáže seskládat text z něčeho, co je jen o něco málo více než pouhý titulek. Projekt výzkumné skupiny Open AI, podpořený fenomenálním zakladatelem společnosti SpaceX a dalšími podnikateli, byl ovšem úspěšný natolik, že ho vědci raději odmítli zveřejnit. Tedy alespoň prozatím.

O projektu umělé inteligence, který byl vyvinut, mluví jeho autoři jako o velkokapacitním jazykovém modelu, který není ničím a nikým řízen a kontrolován. Tento program sám o sobě dokáže vytvořit smysluplný text a od člověka k tomu potřebuje jen pár vět, které by mohly sloužit jako perex. Jinými slovy, umělá inteligence vytvoří novinový článek z pouhých pár nadpisů, informoval server Daily Mail.

Určité jazykové modely už jsou využívány dlouhou dobu. Dobře známé jsou například jazykové překladače, které se nicméně stále zdokonalují. Existují také programy, které vyhledávají odpovědi na určité otázky nebo dokážou shrnout text. Program skupiny Open AI jde však tak trochu opačným směrem a text se snaží naopak rozšířit.

Vývojáři se domnívají, že jejich model umí vytvořit natolik dobrý text, že je takřka k nerozeznání od článku psaného lidským novinářem. Tedy až na to, že informace, které mu člověkem nejsou dodány, si musí určitým způsobem „domyslet“. Program například vyprodukoval devět odstavců na základě dvou vět týkajících se toho, že vědci v Andských horách objevili jednorožce, který hovoří perfektně anglicky. Celý text si také můžete přečíst na webu Daily Mail.

 

Sami autoři prý byli překvapeni, jak snadno je jejich model schopen číst a psát delší pasáže textu, a to s poměrně malou pomocí člověka. V souvislosti s tím se však obávají toho, že by vyvinutý software mohl být jednoduše zneužit, a to například právě k vytváření a následnému šíření falešných zpráv.

Velkokapacitní jazykový model, označený jako GPT-2, se tak vývojáři vzhledem k těmto obavám prozatím rozhodli nezveřejnit. K vědeckým účelům byla uvolněna omezená verze programu, nicméně skupina Open AI nebude oznamovat detaily o programu, aby se nedostaly do „špatných rukou“. 

„Vzhledem k našim obavám ohledně škodlivých implementací této technologie nevydáváme vyškolený model. Jako pokus o zodpovědné zpřístupnění jsme místo toho uvolnili mnohem menší model pro výzkumníky, kteří by s ním chtěli experimentovat,“ uvedli zástupci skupiny Open AI. To by však neměl být trvalý stav. Autoři plánují s programem dále pracovat, především pak prozkoumat jeho potenciální rizika a uzpůsobit jej ke „spolehlivému“ využití v praxi.

Google ví všechno. Předpoví i vaši smrt

Newsletter