Nem vették észre

2022.04.04. 17:42

Hónapokon át szivárgott a meztelenség és az erőszak a Facebookról

Egy bug, vagyis programozási hiba miatt a Facebook ahelyett, hogy megakadályozta volna, inkább felerősítette a káros tartalmak megjelenítését.

A közösségi hálózatot az efféle hírek megjelenítésétől védő, úgynevezett leminősítő, downranking algoritmus elromlott. A The Verge szerezte meg a Meta által kiadott jelentést, melyből kiderül, hogy a közösségi oldal hírfolyama összes megtekintésének akár a felét is kitette – ahogy a közösségi óriás fogalmaz – „potenciális integritási kockázatoknak” az elmúlt hat hónapban.
Először tavaly októberben vették észre a mérnökök a problémát, mikor hirtelen téves információk áradata kezdett el bedőlni a hírfolyamba– állapítja meg a jelentés, amelyet még a múlt héten osztottak meg a Facebookot kiadó Meta vállalaton belül.


Ahelyett, hogy az algoritmus elnyomta volna a cég külső tényellenőrökből álló hálózata által észlelt, ismétlődően félretájékoztató posztokat, a hírfolyam inkább terjesztette azokat, és világszerte 30 százalékkal is megnövelte a megtekintések számát. A mérnökök nem tudták megtalálni a hiba okát, ami néhány hét után ugyan átmenetileg lecsengett, de aztán újra és újra fellángolt, míg március 11-én végre javították.


A belső vizsgálat megállapította, hogy ezen időszak alatt a Facebook rendszerei nem minősítették le megfelelően a valószínűsíthető meztelenséget, az erőszakot, valamint az orosz propagandát sem.


Joe Osborne, a Meta szóvivője szerint a technikai probléma először 2019-ben jelentkezett, de 2021 októberéig nem okozott észrevehető hatást. „A kiváltó okot egy szoftverhibára vezettük vissza, és elvégeztük a szükséges javításokat”– mondta Osborne. Hozzátette, hogy a hibának „nem volt jelentős, hosszú távú hatása a mérőszámaikra", és nem vonatkozott azokra a tartalmakra, amelyek elérték a rendszer törlési küszöbértékét.


A Facebook évek óta a hírfolyam minőségének javítását célzó eszközként hirdeti a lefelé rangsorolást, és folyamatosan bővíti az automatizált rendszer által kezelt tartalmak körét. A megoldást háborúk és ellentmondásos politikai történetek kapcsán alkalmazták, ami a kezdetektől aggodalmakat váltott ki.


2018-ban Mark Zuckerberg vezérigazgató kifejtette, hogy a lefelé rangsorolás az ellen küzd, hogy emberek „szenzációhajhászabb és provokatívabb” tartalmakkal foglalkoznak. „Kutatásaink azt mutatják, hogy függetlenül attól, hogy hol húzzuk meg a megengedett határokat, ahogy egy tartalom közel kerül ehhez a határhoz, az emberek átlagosan többet foglalkoznak vele – még akkor is, ha utólag azt mondják, hogy nem tetszik nekik az efféle tartalom” – írta akkor egy Facebook-bejegyzésében.


A lefelé rangsorolás nem csak a Facebook által „határesetnek” nevezett, a szabályok megsértéséhez közel álló tartalmakat nyomja el, hanem azokat a tartalmakat is, amelyekről a mesterséges intelligencia rendszerei azt gyanítják, hogy jogsértőek, de további emberi felülvizsgálatra szorulnak. A vállalat tavaly szeptemberben közzétett listát arról, hogy mit sorol le, de nem fejtette ki, hogy pontosan hogyan hat a lefokozás az érintett tartalmak terjesztésére.


Eközben a Facebook vezetői rendszeresen büszkélkednek azzal, hogy a mesterséges intelligencia rendszereik évről évre egyre jobbak a gyűlöletbeszédhez hasonló tartalmak proaktív felderítésében, és mind nagyobb jelentőséget tulajdonítanak a technológiának, mint a személyes, emberi moderálásnak.

Hírlevél feliratkozás
Ne maradjon le a veol.hu legfontosabb híreiről! Adja meg a nevét és az e-mail-címét, és mi naponta elküldjük Önnek a legfontosabb híreinket!