Konec demonstrativních sebevražd. Facebook si na ně posvítí

Nejlepšími kamarády mnohých z nás se za poslední roky staly sociální sítě. Prohlížíme si je, když ráno vstáváme, když jdeme večer spát a ještě mnohokrát mezi tím. Sdílíme s nimi, co děláme, jak vypadáme, a zejména, jak se cítíme. Kdo tedy může říct, že nás zná lépe? A právě posledně jmenované se jedna z nejznámějších sociálních sítí, a sice Facebook, rozhodl využít k tomu, aby nám pomohl zachránit život.

V době, kdy se ze všech stran ozývá, že se svými digitálními přáteli trávíme až příliš času a připravují nás tak o nás skutečný život, se Facebook ujal úkolu vylepšit obávaným sociálním médiím reputaci. V návaznosti na několik sebevražd, které byly pomocí platformy živě přenášeny, začali vývojáři Facebooku již v březnu 2017 pracovat na programu, který by takovému mrhání lidskými životy učinil přítrž.

A to ideálně ještě dříve, než budou mít potenciální sebevrazi co streamovat. Právě ty se totiž algoritmus založený na umělé inteligenci snaží detekovat, a to pomocí příspěvků, které daná osoba na svém facebookovém profilu zveřejňuje. Každý takový příspěvek je hodnocen na škále od nuly do jedné, přičemž toto hodnocení vyjadřuje, jak moc je uživatel zralý na to, že se pokusí o sebevraždu, popisuje Business Insider.

Google ví všechno. Předpoví i vaši smrt

„Když někdo vyjadřuje myšlenky na sebevraždu, je důležité mu pomoci co nejrychleji. Protože přátelé a rodina jsou propojeni přes Facebook, můžeme pomoci osobě v nouzi dostat se do kontaktu s lidmi, kteří ji mohou podpořit,“ píše Facebook Newsroom, s odkazem na to, že v USA někdo spáchá sebevraždu každých 40 sekund, přičemž jde o druhou nejčastější příčinu smrti lidí ve veku 15 až 20 let. Program přitom nejprve fungoval jen v USA, později byl pak rozšířen globálně.

Důležitým, i když ne jediným, klíčem k rozpoznání sebevražedných myšlenek je samotný projev uživatele. Umělá inteligence v příspěvcích snadno dokáže identifikovat slova jako „zabít“, „zemřít“, „sbohem“, nicméně tvůrci algoritmu se museli popasovat hlavně s tím, že tato slova se běžně používají i v jiných kontextech a nejsou myšlena vážně – například, jak vysvětluje Facebook Newsroom, když někdo napíše „mám tolik domácích úkolů, že bych se zabil“.

Aby tedy umělá inteligence zvládla rozpoznat, zda jde skutečně o onu situaci, kdy jde do tuhého, museli vývojáři „nakrmit“ program spoustou příkladů, kterými ve spolupráci s týmem expertů vytvořili prototyp potenciálního sebevraha, jehož vyjadřování naznačuje na možné sebedestruktivní chování. Dále jsou analyzovány také komentáře pod příspěvkem, kde může být vodítkem identifikace znepokojení blízkých přátel a rodiny, jakož i jiná aktivita uživatele na Facebooku, například čemu dal „lajk“.

 

Avšak co se stane, když Facebook pomocí umělé inteligence tento „sebevražedný vzor“ u svého uživatele rozpozná? Pokud analytici identifikují uživatele s „vysokým rizikem sebevraždy“, Facebook uvědomí policii a pomůže jí s hledáním daného člověka. Jak však uvádí The New York Times, Facebook zatím přesně nevysvětlil, kdy konkrétně a v jakých případech se jeho analytici rozhodnou přivolat pomoc.

Na druhé straně se však na společnost, jež byla nedávno spojena se skandálem ohledně úniku dat desítek milionů uživatelů, která měla získat společnost Cambridge Analytica pro využití ve volebních kampaních, snesla další vlna kritiky týkající se ochrany soukromí. Mnozí se domnívají, že při tomto automatickém skenování příspěvků a ukládání hodnocení rizika sebevraždy dochází k manipulaci s citlivými daty. „Myslím, že by to mělo být považováno za citlivé zdravotní informace,“ říká například Natasha Duarte.

„Každý, kdo shromažďuje tento druh informací nebo kdo vyvozuje tyto typy závěrů, by měl považovat tyto informace za citlivé zdravotní informace a také s nimi tak zacházet,“ citoval Business Insider analytičku amerického Centra pro demokracii a technologie (Center for Democracy and Technology). Zároveň však Facebook podrobnější informace o celém procesu střeží, jako by to bylo firemní tajemství.

Antidepresiva nové doby? Omezte denní dávku (nejen) Facebooku

Newsletter