
Hogyan védhetjük meg gyermekünket az online veszélyektől?
A legújabb biztonsági intézkedések szerint a technológiai vállalatoknak jelentős lépéseket kell tenniük a fiatalok védelme érdekében az online káros tartalmakkal szemben. Az Ofcom, az Egyesült Királyság médiahatósága saját kutatásából kiderült, hogy a 13 és 17 év közötti fiatalok 59%-a találkozott potenciálisan káros tartalommal az interneten az előző hónapban. Ezen adatok fényében a médiahatóság véglegesítette azokat a gyermekvédelmi szabályokat, amelyek az Online Safety Act keretében lépnek életbe a közösségi médiákban, keresőmotorokban és játékalkalmazásokban 2025. július 25-én.
Az új szabályozások célja, hogy megakadályozzák a fiatalok hozzáférését a legkárosabb tartalmakhoz, melyek közé tartozik a öngyilkossággal, önbántalmazással, evési zavarokkal és pornográf anyagokkal kapcsolatos tartalom. Ezen kívül a szabályozások védelmet nyújtanak a gyermekek számára a nőgyűlölő, erőszakos, gyűlöletkeltő vagy bántalmazó anyagoktól, valamint az online zaklatástól és a veszélyes kihívásoktól is. Azok a cégek, amelyek folytatni kívánják működésüket az Egyesült Királyságban, több mint 40 gyakorlati intézkedést kötelesek bevezetni. Ezek között szerepel a gyermekek hírfolyamában megjelenő tartalom kiszűrése érdekében a tartalom-megjelenítési algoritmusok módosítása, szigorúbb életkor-ellenőrzési módszerek bevezetése, a káros anyagok gyorsabb eltávolítása, valamint a gyermekek támogatása, akik ilyen tartalomnak voltak kitéve. A cégeknek meg kell nevezniük egy felelős személyt is, aki a gyermekek biztonságáért felelős, és évente felül kell vizsgálniuk, hogyan kezelik a gyermekek kockázatait a platformjaikon.
Az Ofcom figyelmeztetett, hogy a szabályok be nem tartása esetén a vállalatok akár 18 millió font bírságot is kaphatnak, vagy globális bevételeik 10%-ának megfelelő büntetést kockáztatnak, sőt, a vezetőik börtönbüntetést is kaphatnak. Különösen súlyos esetekben az Ofcom bírósági végzést kérhet az adott weboldal vagy alkalmazás elérhetőségének megtiltására az Egyesült Királyság területén. Számos aktivista azonban még szigorúbb szabályozásokat szeretne látni a technológiai cégeknél, sőt egyesek a 16 év alatti fiatalok teljes kizárását követelik a közösségi médiából.
Ian Russell, a Molly Rose Alapítvány elnöke, amelyet lánya emlékére alapított, aki 14 évesen öngyilkosságot követett el, kifejezte csalódottságát a szabályzatok ambíciójának hiánya miatt. Lánya, Molly Russell 2017-ben öngyilkosságot követett el, miután öngyilkossággal és önbántalmazással foglalkozó tartalmakat látott az Instagramon és a Pinteresten. A Sussexi herceg és hercegnő is erősebb védelmet kér a közösségi média veszélyei ellen, mondván, hogy „nem tesznek eleget” a fiatalok védelméért. New Yorkban egy ideiglenes emlékművet állítottak fel azoknak a gyermekeknek, akik az internet okozta károk következtében hunytak el. „Biztosítani szeretnénk, hogy a dolgok megváltozzanak, hogy több gyermek ne vesszen el a közösségi média miatt,” mondta Harry herceg a BBC Breakfast műsorában.
A NSPCC gyermekvédelmi jótékonysági szervezet arra figyelmeztetett, hogy a törvény még mindig nem nyújt elegendő védelmet a privát üzenetküldő alkalmazások számára. Az általuk kínált végponttól végpontig terjedő titkosítással működő szolgáltatások „elfogadhatatlan, jelentős kockázatot jelentenek a gyermekek számára”. Másrészt a magánélet védelmezői azt állítják, hogy az új szabályok veszélyeztetik a felhasználók szabadságát, és egyesek támadják az életkor-ellenőrzési módszerek invazív jellegét, amelyek hatékonyságukban is megkérdőjelezhetők.
A törvény a törvénytelen tartalmak eltávolítására is kötelezi a cégeket, beleértve a gyermekpornográfiát, a kontrolláló vagy kényszerítő magatartást, az extrém szexuális erőszakot, az öngyilkosság vagy önbántalmazás népszerűsítését, valamint a kábítószerek vagy fegyverek árusítását. Az új jogszabály új bűncselekményeket is létrehozott, mint például a cyber-flashing, amely során kéretlen szexuális képeket küldenek online, és a „deepfake” pornográfia, ahol mesterséges intelligenciát használnak arra, hogy valakinek a hasonmását pornográf tartalomba illesszék.
Az Ofcom kutatása szerint a 8 és 17 év közötti gyermekek naponta két és öt órát töltenek online. A kutatás megállapította, hogy a 12 évesnél idősebb gyermekek szinte mindegyike rendelkezik mobiltelefonnal, és majdnem mindannyian videókat néznek olyan platformokon, mint a YouTube vagy a TikTok. A 12 évesnél idősebb gyermekek körülbelül fele úgy véli, hogy az online lét jótékony hatással van mentális egészségükre. Ugyanakkor a Gyermekjogi Biztos szerint a megkérdezett 13 évesek fele arról számolt be, hogy „kemény, nőgyűlölő” pornográf anyagot látott közösségi médiás oldalakon. A gyermekek emellett azt is elmondták, hogy az öngyilkosságról, önbántalmazásról és evési zavarokról szóló tartalom „elterjedt”, és hogy az erőszakos tartalom „elkerülhetetlen”. A NSPCC hangsúlyozza, hogy létfontosságú, hogy a szülők beszélgessenek gyermekeikkel az internetbiztonságról, és érdeklődjenek az online tevékenységeik iránt. Az Internet Matters, egy biztonsági szervezet, amelyet a legnagyobb brit internetes cégek hoztak létre, arról számolt be, hogy a szülők kétharmada használ korlátozásokat, hogy korlátozzák gyermekük internetes elérhetőségét. A szervezet listát kínál a rendelkezésre álló szülői ellenőrzésekről és lépésről-lépésre útmutatókat nyújt azok használatához. Ezek között szerepel a tanácsadás arra vonatkozóan, hogyan kezeljék a tinédzser vagy gyermek fiókokat közösségi médiás platformokon, videóplatformokon, mint a YouTube, és játékkonzolokon, mint a Roblox vagy a Fortnite. Az Ofcom adatai azonban arra utalnak, hogy körülbelül minden ötödik gyermek képes letiltani a szülői ellenőrzéseket. Az Instagram nem engedi, hogy a 13 és 15 év közötti felhasználók nyilvános profilt hozzanak létre, hacsak nem adnak hozzá egy szülőt vagy gyámot a Tinédzser Fiókjukhoz. Az Instagram már bevezette a „tinédzser fiókokat”, amelyek alapértelmezés szerint sok adatvédelmi beállítást aktiválnak, bár néhány kutató azt állította, hogy sikerült megkerülniük a megígért védelmet. A

