Robot rasista. Naučí se od nás umělá inteligence i to nejhorší?


10:09 • 16. října 2018

Tagy: umělá inteligence, Robotizace, nerovnost, gender

I když velká robotická revoluce v různých sférách lidské společnosti, ať už jde o řadu pracovních odvětví, ale například i o skládání básní, psaní románů či komponování skladeb, je ještě kdesi v budoucnu, umělá inteligence má bezesporu potenciál nejen ulehčit nám většinu současných činností, ale i otevřít dveře spoustě nových možností. Nicméně na všem dobrém je vždy potřeba najít také to zlé.

Roboti, kteří zvládnou vše, co umí lidé, jsou tedy trnem v oku spoustě škarohlídů už nyní, když ještě ani neexistují. Když totiž roboti zvládnou vše, co pak budou dělat lidé? Strašidlo automatizace, která má zničit tisíce, stovky tisíc či dokonce miliony pracovních míst, tak obchází svět již pěkně dlouho (dá se říct, že už od 19. století). Nyní se však začíná objevovat varování před daleko závažnější robotickou hrozbou; umělá inteligence by se totiž mohla začít podobat samotným lidem, a to v tom nejhorším smyslu.

Nejen když lidé přicházejí do kontaktu s jinými lidmi, ale i pokud mají co do činění s roboty, stálé zůstávají lidmi i se všemi svými předsudky. Důkazem toho budiž experiment, o kterém napsal server Fast Company. Roboti - přesněji fotografie robotů - použité v pokusu byly nicméně naschvál opatřeny některými lidskými rysy; roboti měli obličej s očima, nosem a pusou a především pak měli lidskou barvu - světlou nebo tmavou.

Infografika: Kdy roboti zvládnou vše, co umí lidé?

Roboti přitom byli ozbrojení a bělošští účastníci na ně měli "střílet", přičemž snímky jim byly promítány velmi rychle, aby byly zachyceny prvotní instinkty. "Naše studie ukázala, že účastníci rychleji stříleli na ozbrojeného černošského agenta než na ozbrojeného bílého agenta," shrnul v rozhovoru pro server IEEE Spectrum výsledky Christoph Bartneck, hlavní autor experimentu. Podle něj také není žádná náhoda, že naprostá většina vyráběných robotů je bílá.

Vědci z oblasti informatiky a psychologie z Univerzity v Cardiffu a z Massachusettského technologického institutu (MIT) si ovšem položili trochu jinou otázku, a sice zda se tyto nechvalné instinkty mohou naučit i roboti sami od sebe. Koneckonců, jak podotýká server Science Daily, předsudky nevyžadují nijak vysokou úroveň kognitivních schopností, a tak by to pro umělou inteligenci neměl být příliš velký oříšek.

Ačkoli některé typy počítačových algoritmů již vykazovaly předsudky, jako je rasismus a sexismus, založené na učení se z veřejných záznamů a jiných dat vytvořených lidmi, tato nová práce demonstruje možnost, že předsudky se vyvinou v rámci samotné umělé inteligence. Nové poznatky jsou založeny na počítačových simulacích toho, jak mohou podobně předpojatí jednotlivci nebo virtuální agenti vytvořit skupinu a vzájemně spolupracovat.

 

Autoři počítačového experimentu, který byl publikován v časopise Scientific Reports, naprogramovali hru, která byla založena na tom, že se každý jednotlivec opakovaně rozhoduje o tom, zda daruje určitou částku někomu v rámci své vlastní skupiny nebo v rámci jiné skupiny, a to na základě pověsti jednotlivce a vlastní dárcovské strategie, která zahrnuje i jejich úroveň předpojatosti směrem k "cizincům".

Jak se hra rozvíjí a superpočítač vytváří tisíce simulací, každý jednotlivec se začíná učit nové strategie kopírováním ostatních, a to buď dle své vlastní skupiny, anebo celé populace. "Naše simulace ukazují, že předsudky jsou mocnou silou přírody a díky evoluci mohou ve virtuální populaci snadno vznikat, a to na úkor širšího propojení s ostatními," shrnuje Roger Whitaker, jeden z autorů. Předsudky se tedy ukázaly být jakýmsi "pudem sebezáchovy". 

Konkrétně bylo zjištěno, že jednotlivci kontinuálně upravovali své úrovně předpojatosti, a to tak, že přednostně kopírovali ty, kteří získali vyšší krátkodobé výplaty. "Ochrana před předpojatými skupinami může neúmyslně vést k tomu, že jednotlivci vytvářejí další předpojaté skupiny, což ústí v roztříštění populace. Taková rozšířené předsudky je obtížné zvrátit," dodal profesor z Univerzity v Cardiffu.

To zároveň znamená, že rozvoj předsudků nutně nevyžaduje vyspělé kognitivní schopnosti. "Je možné, že autonomní stroje se schopností identifikovat se s diskriminací a kopírovat jiné by mohly být v budoucnu náchylné k předsudkům, které vidíme v lidské populaci," upozornil také Whitaker.

Recept proti propouštění kvůli automatizaci

RSS

Je studentkou Národohospodářské fakulty VŠE v Praze a spolupracovnicí Roklen24. Má ráda knihy, němčinu a filozofii Friedricha Nietzscheho. Zajímá se o behaviorální ekonomii.



Přejít na diskusi

Přihlašte se, nebo zaregistrujte


Přihlásit se


Zapomněli jste heslo?




Pokud nemáte ještě účet, můžete si ho vytvořit zdarma.

Přihlašte se, nebo zaregistrujte

Tato sekce je dostupná zdarma pouze přihlášeným uživatelům.



Přihlásit se

Zapomněli jste heslo?




Pokud nemáte ještě účet, můžete si ho vytvořit zdarma.