A nemrég életbe lépett, digitális szolgáltatásokról szóló új EU-s szabályozás miatt a nagy techcégeknek rendszeres jelentésekben kell számot adniuk moderációs gyakorlatukról.

Ebből számos részlet derült ki a TikTok tartalommoderációjáról, és az is napvilágot látott, hogy a cég mintegy 4 millió, károsnak ítélt távolított el a platformról.

A Digital Services Act hatása

Korábbi cikkünkben már érintettük az EU Digital Services Act (DSA) szabályozását, amelynek célja a nagy techcégek hatalmának megtörése. A digitális szolgáltatásokról szóló jogszabály piacszabályozási intézkedéseinek célkitűzése, hogy az online szolgáltatásoknak fair módon versengő piaci kereteket hozzanak létre. Kiemelten pedig annak megakadályozása, hogy az óriásira nőtt techcégek visszaélhessenek hatalmukkal (például azzal, hogy saját alkalmazásaikat a vetélytársak megoldásai elé sorolják, vagy azokat letörölhetetlenül telepítik eszközeikre).

A DSA 2023 augusztusában lépett életbe, és a 19 legnagyobb platformot érinti (vagyis a 45 millió felhasználónál többel rendelkező szolgáltatásokat). Ezek között megtaláljuk az összes ismert nevet: a Facebook, az Instagram, a YouTube, a Google keresője, az X (ex-Twitter), a Microsoft Bing nevű keresője, a Linkedin, az Apple AppStore-ja, a Wikipedia, és az AliExpress is szerepel köztük. A Digital Services Act súlyát jelzi, hogy annak megszegésével a cégek az éves globális bevételük 6%-át is elérő büntetést kockáztatnak. 

Érdekesség, hogy az Európai Bizottság korábban már az X, a Meta, és a TikTok ellen is vizsgálatot indított. A vizsgálatok célja, hogy kiderítse, a fenti platformok milyen módokon próbálják megakadályozni a hamis információk és az illegális tartalmak terjedését a Hamász Izrael elleni támadását követően.

Margrethe Vestager EB-ügyvezető alelnök szívügye, a DSA többek között azt is előírja ezeknek a cégeknek, hogy félévente jelentést tegyenek közzé tartalommoderációs tevékenységükről. Ebből tudhattuk meg 2023. év végén, hogy a TikTok mintegy 4 millió videót távolított el a platformról a TikTok szabályainak megsértése miatt.

Mi derül ki a TikTok jelentéséből? 

A kínai ByteDance tulajdonában álló TikTok saját állítása szerint világszerte 40.000 alkalmazottuk dolgozik azon, hogy a platformot tisztán tartsák a káros videóktól. Közülük 6125-en Európáért felelősek, 1/3-uk dolgozik angol nyelven. Német nyelven 860, franciául 650 munkatársuk dolgozik a tartalmak szűrésén, de az EU mind a 24 hivatalos nyelvét lefedik, illetve török és arab nyelven is szűrnek.

A TikTok elmondta, hogy a tartalommoderátorok automatizált eszközöket is használnak. A cég szerint tartalommoderációjuk proaktív, hiszen az eltávolított videóknak csak egy részéről érkezett felhasználói bejelentés.

A TikTok jelentése szerint a cég 35.000 jelentést kapott, amelyek 24.000 videóra vonatkoztak. Végül 16%-ukról bizonyosodott be, hogy megsértik a platform szabályait, vagy egyenesen illegálisak – ezek ellen a platform intézkedett is. Emellett azonban a cég hétszer több olyan videóval szemben is intézkedett, amelyekről nem érkezett felhasználói bejelentés.

A bejelentés és az intézkedés között eltelt idő mediánja 13 óra volt, ami jól jelzi, milyen bonyolult jogi elemzés előz meg egy-egy tiltást. Így biztosítja a TikTok, hogy igazságos és következetes elvek alapján tilt videókat, miközben a szólásszabadságot is tiszteletben tartja.

A TikTok az európai államokkal is együttműködőnek mutatkozik: 17 alkalommal EU-s tagállamoktól érkezett kérés bizonyos videók eltávolítására. 452 alkalommal pedig felhasználóikról kértek információkat az EU-s államok – ezeket egyenként bírálta el a TikTok.