Asijské akcie navázaly na pokles amerických. Futures Wall Street v červeném. Ropa a zlato roste. Evropské i americké výnosy obrátily k růstu. Dolar nepřekonal 1,0600 za euro. Koruna kolem 25,30 za euro.

Prospěšné i prokleté aneb Když o lidech rozhodují algoritmy

Technologie, digitalizace, automatizace jsou slova, která jsou svatým grálem všech vyspělých ekonomik současnosti. Občas však zapomínáme, že ne všechny technologie jsou dokonalé. Chyby v algoritmech státních úřadů mohou měnit životy, a to často k horšímu. Mohou vymazat lidi ze seznamu voličů, označit firmy jako nevhodné nebo obvinit rodiče, že zanedbávají děti, to vše na základě chybně naprogramované technologie.

Server Wired uvedl příběh 56letého Waltera Vollmera, který byl chybně označen úřadem pro kontrolu rodičovství. Domů mu přišel šek s povinností zaplatit 206 tisíc dolarů. Jeho žena následkem toho uvěřila, že manžel vede druhý život, a pokusila se o sebevraždu. Na stejném principu algoritmy špatně označí každý týden i 1500 pasažérů, kteří jsou následně spojováni s terorismem. Ti, kteří jsou špatně označení, mohou být vskutku kuriózními „kousky“ jako bývalí armádní velitelé, čtyřleté děti nebo dokonce jeden pilot American Airlines, který je takto kontrolován 80krát ročně, uvedl Wired.

Mnohé z problémů pramení z toho, jak důležitou roli plní technologie a algoritmy v právním systému vyspělých zemí, jako jsou Spojené státy. Úřady šetří na počtu zaměstnanců a automatizované systémy tak neslouží už jen na jednoduché úkoly, ale i na rozhodování, kdo je vinen či podezřelý.

V mnoha případech není problémem najít ten správný algoritmus pro daný úkon, ale důvěra v to, že všechny mohou být automatizovány. Dobrým příkladem je skenování dat za účelem nalezení teroristických pilotů letadel. Kvůli odhalení takového neobvyklého zločinu se musí cestující vzdát velkého množství osobních dat, aby mohly algoritmy správně posoudit, jestli se jedná o podezřelého.

Když minimální mzdy rostou, výsledek nemusí být stejný

Jednoduše řečeno, náklady na chybu se dramaticky zvyšují, když umělá inteligence rozhoduje o důležitých oblastech našeho života. Může jít například o doporučení léčebného procesu u rakoviny nebo o posouzení, jak pravděpodobné je, že kriminálník spáchá trestný čin znovu, když algoritmus pomáhá soudcům.

Algoritmy, které mají za úkol předpovídat riziko, že nastane určitá situace, jsou dostatečně výkonné na to, aby poznaly, zda s určitou pravděpodobností dojde k recidivě. World Economic Forum (WEF) uvedl případ z roku 2013, kdy byl Eric Loomis odsouzen k šesti letům vězení. Toto rozhodnutí bylo z části založeno na umělé inteligenci, kdy algoritmus vyhodnotil, že Loomis má vysokou pravděpodobnost spáchání dalších trestných činů.

 

Algoritmus poskytla federálnímu úřadu firma Equivant, která je jedním z mnoha hráčů na poli technologických firem spolupracujících s orgány v trestním řízení. Systém má potenciál být velmi prospěšný pro celý soudní systém. Je tu ale háček. Zpráva od agentury ProPublica objevila, že některé algoritmy nehodnotí lidi podle stejného metru, existuje zde například rasová diskriminace. Chybovost algoritmu u Afroameričanů v USA je téměř dvakrát větší než u ostatních ras, uvedl WEF.

Programátoři umělé inteligence musí být v takových případech obzvlášť opatrní. Dalším podnětem k opatrnosti je i neznalost algoritmů ze strany soudců, kteří tak musí výsledkům technologie slepě důvěřovat. Výsledky propočtu algoritmu jsou ale jen tak správné, jako jsou jeho data a nastavení. Inženýři musí v programu nejprve najít všechna slepá místa, až pak je budeme moci označit za zcela spolehlivé.

Fast food jako jídlo chudých? Ve skutečnosti více chutná boháčům

 

Newsletter