Az Instagramon nem történik moderálás az önkárosító tartalmakkal kapcsolatban.


Tornóczky Anita különleges nyíltsággal osztotta meg szülésélményét: "Ez nem életem legszebb pillanata volt."

A kutatók egy privát önsértő hálózatot hoztak létre az Instagramon, ahol 13 évesnek álcázott hamis profilokon keresztül 85 önsértéssel kapcsolatos tartalmat osztottak meg. A tartalmak súlyossága fokozatosan nőtt, a vértől kezdve a borotvapengéken át egészen az önsértésre buzdító üzenetekig, írja a The Guardian. Mindez a Meta azon állítását tesztelte, miszerint mesterséges intelligenciával már képesek az ártalmas tartalmak 99%-át eltávolítani.

(A legfrissebb hírek itt)

Az eredmények azonban egy másik képet festenek: a Digitalt Ansvar szervezet megállapítása szerint egy hónap leforgása alatt a platform egyetlen posztot sem távolított el. A kutatók saját mesterséges intelligenciájuk segítségével 38%-ban képesek voltak automatikusan azonosítani az önsértő képeket, és a legsúlyosabb tartalmak 88%-át is sikerült kiszűrniük. Ez arra enged következtetni, hogy a Meta rendelkezik a megfelelő technológiai háttérrel, ám annak hatékony alkalmazására nem fordít kellő figyelmet.

A kutatás során kiderült, hogy az Instagram algoritmusa nem csupán a problémák megfékezésére volt alkalmatlan, hanem éppen ellenkezőleg, hozzájárult a káros hálózatok elterjedéséhez. A szakértők megállapították, hogy az algoritmus "segítségével" a 13 éves fiatalok könnyebben kapcsolatba léptek a hasonló helyzetben lévő társaikkal, ezzel pedig tovább erősítették az önsértő közösségeket.

Ask Hesby Holm, a Digitalt Ansvar vezetője elmondta, hogy a kutatás eredményei még őket is meglepték. "Azt gondoltuk, hogy a tartalom súlyosbodásával az Instagram moderációja lépni fog. De nagy meglepetésünkre semmi sem történt" - nyilatkozta.

A Meta szóvivője hangsúlyozta, hogy a platform politikája ellenzi az önsértést népszerűsítő tartalmakat, és állításuk szerint 2024 első felében több mint 12 millió ilyen tartalmat távolítottak el, amelyek 99%-át proaktívan. Emellett kiemelték az új "Instagram Teen Accounts" bevezetését, amely szigorúbb beállításokat alkalmaz a tinédzserek számára.

A kutatás egy másik képet fest: az ilyen típusú tartalmak gyakran kis, zárt csoportokban rejtőznek, ahol a moderáció szinte teljesen hiányzik. Lotte Rubæk, a Meta korábbi öngyilkosság-megelőzési szakértője is kritikát fogalmazott meg a vállalat irányába, kijelentve, hogy az explicit tartalmak eltávolításának elmulasztása "triggerelő" hatással van a sebezhető fiatalokra, és hozzájárulhat az öngyilkossági esetek számának emelkedéséhez.

Rubæk véleménye szerint a fiatalok önsértésének problémája az Instagramon szinte élet-halál kérdésként értékelhető. Kutatók és pszichológusok egyaránt figyelmeztetnek arra, hogy a tartalom moderálásának hiánya szoros kapcsolatban áll a súlyos mentális zavarokkal, sőt, a öngyilkossági esetek számának emelkedésével is.

A tanulmány nem csupán az Instagram felelősségét emeli ki, hanem a nagy technológiai vállalatok átláthatóságának hiányosságaira és az Európai Unió szabályozásainak érvényesítésével kapcsolatos nehézségekre is fényt derít. Most pedig az a kérdés, hogy a Meta valóban kész-e konkrét intézkedéseket hozni, vagy továbbra is az ártalmas tartalmakat tekinti majd "járulékos veszteségnek" a profitmaximalizálás érdekében.

Related posts