Umělá inteligence od Facebooku má odhalit sebevražedné sklony

29. 11. 2017 | Milada Zemanová
Nový algoritmus bude procházet příspěvky uživatelů a následně upozorní na ty, kteří chtějí spáchat sebevraždu. Na jeho základě budou odborníci vysílat k dotyčným pomoc. Z této funkce se však nepůjde odhlásit a do budoucna se plánuje i rozšíření jejího využití.

Sociální sítě jsou někdy místem posledního rozloučení. Lidé sem napíší poslední status jako finální volání o pomoc či rozloučení předtím, než spáchají sebevraždu. Než si toho někdo všimne bývá už často pozdě. A právě z tohoto důvodu Facebook spustil nový nástroj umělé inteligence, který detekuje obsah se sebevražednými sklony. Jedná se o další krok, který má vést k vybudování zdravé komunity na Facebooku.

Tento nástroj s názvem „proaktivní detekce” bude skenovat jednotlivé příspěvky a videa a sledovat, zda obsahují sebevražedné myšlenky. Následně bude taková informace předána proškolenému týmu profesionálů, kteří jsou schopni poskytnout odbornou pomoc 24/7. Pokud to bude nutné, vyšlou k danému člověku zástupce z oblasti duševní péče, zkontaktují jeho přátele nebo jiné místní kontakty. Tímto by se měl významně snížit čas nutný k vyslání pomoci.

V některých případech se může jednat například o policisty a podle slov strážníků z New Yorku pomohl Facebook právě takto zachránit již několik životů.

Getting Our Community Help in Real Time

Zveřejnil(a) Facebook Safety dne 26. listopad 2017

Facebook je prozatím velmi uzavřený při poskytování informací o principech, na kterých je algoritmus vystaven. Prozatím se ví, že umělá inteligence detekuje i komentáře a reakce typu: „Je všechno v pořádku?”, „Můžu nějak pomoci?” a dokáže tak odhalit situace, které by jinak zůstaly bez povšimnutí. V květnu má být přijato dalších 3 000 expertů, kteří budou monitorovat videa a další obsah.

Obavy ze zneužití

Informace o tom, že Facebook bude proaktivně skenovat uživatelské příspěvky, vyvolala i rozporuplné reakce, protože není jasné, kam až Facebook v hlídání příspěvků zajde. Bude například sledovat určité politické názory nebo drobné kriminální prohřešky?

V reakci na tyto obavy uveřejnil Alex Stamos, vedoucí bezpečnostní kanceláře Facebooku, následující tweet.

V něm upozorňuje, že strašidelné, děsivé či nebezpečné využití umělé inteligence bude hrozit vždy, a právě proto je důležité stanovit správné normy už dnes. Dle něj je nutné zvážit riziko zneužití dat oproti jejich užitečnosti.

Mark Zuckerberg se k celé situaci vyjádřil i na svém Facebookovém účtu, kde mimo jiné zmínil:

„Umělá inteligence bude schopna lépe porozumět jemným nuancím jazyka a dokáže identifikovat různé problémy, jako je například sebevražda, a také různé druhy šikany a nenávisti.”

Zmíněná umělá inteligence byla několik měsíců testována ve Spojených státech amerických a postupně by se měla stát celosvětově dostupnou. Jedinou výjimkou jsou státy Evropské unie, ve které kvůli GDPR není možné profilovat uživatele tímto způsobem a nasazení této technologie je tak těžší než v ostatních státech,

Zdroje: TechCrunch , Mark Zuckerberg , The Verge , Facebook

Štítky dokumentu: Facebook
Sdílejte tento článek:
Podobné články:
Tento web používá soubory cookie k poskytování služeb, personalizaci reklam a k analýze návštěvnosti. Používáním tohoto webu s tím souhlasíte.