Big data a desetkrát rychleji se učící umělá inteligence

Umělá inteligence (UI) je v současné době vzkvétajícím a konkurenčním odvětvím. Množství různých společností a institucí zaměřuje svou pozornost právě na tuto technologii. Trénování UI je stále velmi náročný úkol, i když se zdá, že výzkumná laboratoř curyšského IBM přišla s řešením. Jejich blok zpracovávající předběžné procesy UI totiž dokáže urychlit učící algoritmy díky rozměru datových bodů.

Většina spotřebitelů se legitimně obává rapidního vývoje umělé inteligence. To je ale přirozená reakce, neboť jsme v posledních měsících zaznamenali několik ohromujících průlomů v této oblasti. I když se jedná o vzkvétající průmysl, je zde neustálý požadavek na lepší a rychlejší tréninkové metody UI. Přijít na takové řešení není v žádném případě jednoduché. Ale díky IBM Curych může být hlavní průlom hned za rohem.

Podrobněji jde o to, že tato výzkumná instituce představila nový generický UI stavební blok zpracovávající předběžné procesy. Hlavní účel stavebního bloku je vylepšovat rychlost, se kterou algoritmy strojového učení absorbují nové informace. IBM Curych tvrdí, že tento projekt, zaměřený na strojové učení pomocí velkých dat, dokáže urychlit učící proces nejméně desetkrát. V projektu je využívána matematická dualita na filtrování důležitých informací z toku dat a na ignorování všeho ostatního.

Jednou z nevýhod velkých dat je zkrátka to, že je třeba projít obrovským množstvím informací. I běžné umělé inteligence mohou mít potíže zpracovat všechny potřebné informace. Právě velká data přináší takové přehlcení a vyřešení tohoto problému se stalo velkou výzvou. Nicméně, nový průlom curyšského IBM předznamenává naprosto novou éru strojového učení pomocí velkých dat.

Podle matematika IBM Curych Thomase Parnella se jedná o první generické řešení s desetinásobným urychlením. Data sety závislé na lineárním modelu strojového učení budou mezi prvními, které budou profitovat z tohoto řešení. Je ale nutné dodat, že desetinásobné zrychlení je pouhá minimální hranice a konečný výsledek může být ještě lepší, než se očekává. To celé záleží na tom, jaká data budou přinesena a jak je navržen algoritmus strojového učení. 

Tento koncept využívá hardware urychlovače pro strojové učení pomocí velkých dat. Použití GPUs a FPGAs ve světě trénování UI není nic nového. Těm ale někdy dojde paměť na udržení všech datových bodů. V našem případě nejsou zvlášť hodnotné pro proces učení, ale mohou být využity ke strojovému učení jiným způsobem. Jedná se o zajímavý způsob využití hardwaru, který se již používá, ale v mírně odlišné kapacitě, než by se normálně očekávalo.

Předběžné zpracování každého datového bodu pro zjištění, jestli neexistuje matematický duál bodu již zpracovaného, je klíčem k úspěchu. Pokud je nalezena taková shoda, může pak algoritmus přeskočit daný datový bod, jelikož je již známý. Takový proces se stává více a více častý, neboť je postupně zpracováno větší množství dat. Před zpracováním je každému datovému bodu přiřazena měřením velikosti duality „významová hodnota“. Jak tato hodnota klesá, je méně důležité, aby byl bod znovu zpracován, a UI ji nakonec zcela ignoruje.

Je očividné, že tento algoritmus vypadá alespoň z počátku dost slibně. Avšak hodně toho musí být ještě doladěno, než bude možné ho komercializovat. Prozatím bude nadále pokračovat vývoj v IBM Cloud, kde je projekt známý jako Duality-Gap-Based Heterogenous Learning. Nakonec je třeba říct, že se jedná o rozhodující moment ve světě zpracování velkých dat. Bude zajímavé vidět, jakým způsobem bude tato technologie využita v reálném světě následujících let.

Newsletter