A Facebook és az Instagram anyavállalata (Meta) bejelentette: hamarosan értesíti a szülőket, ha gyermekük az Instagram felületén ismételten öngyilkossággal vagy önkárosítással kapcsolatos kifejezésekre keres rá – írja a BBC.
Ez az első alkalom, hogy a vállalat nem csupán blokkolja az ilyen kereséseket és külső segítséghez irányítja a felhasználókat, hanem proaktívan jelzi a szülőknek a potenciálisan veszélyes aktivitást. Az új funkció a Teen Accounts (Tinédzser Fiókok) rendszerében működik majd, és elsőként az Egyesült Királyságban, az Egyesült Államokban, Ausztráliában és Kanadában vezetik be a jövő héttől, később pedig világszerte elérhetővé válik.
A Meta közlése szerint az értesítések e-mailben, SMS-ben, WhatsAppon vagy magán az Instagram alkalmazáson keresztül érkezhetnek, attól függően, milyen elérhetőséget adtak meg a családok. A cég hangsúlyozta: a rendszer az óvatosság elvét követi, vagyis előfordulhat, hogy akkor is figyelmeztet, amikor nincs valódi veszély.
A bejelentést ugyanakkor komoly kritikák érték. A Molly Rose Foundation élesen bírálta az intézkedést, az a szervezet, amelyet a 14 évesen, 2017-ben öngyilkosságot elkövető Molly Russell családja hozott létre azután, hogy a lány önkárosítással kapcsolatos tartalmakat nézett többek között az Instagramon, majd végzett magával. A szervezet vezetője, Andy Burrows szerint az intézkedés több kárt okozhat, mint hasznot. Mint fogalmazott, „minden szülő tudni akarja, ha gyermeke szenved, de ezek az értesítések pánikba ejthetik a szülőket, és felkészületlenül hagyhatják őket az érzékeny és nehéz beszélgetésekre”.
Bíróság előtt Mark Zuckerberg, közösségimédia-függőségről szóló perben kell tanúskodniaBár üdvözölte a kezdeményezést, hasonló aggodalmakat fogalmazott meg a Papyrus Prevention of Young Suicide vezetője. Ged Flynn szerint a Meta „figyelmen kívül hagyja a valódi problémát, hogy a gyerekeket és fiatalokat továbbra is beszippantja egy sötét és veszélyes online világ”. A BBC-nek úgy nyilatkozott: „A szülők nap mint nap keresnek meg minket, mert aggódnak a gyermekeik online tevékenysége miatt. Nem azt akarják, hogy utólag figyelmeztessék őket, miután a gyerekük káros tartalomra keresett rá – és nem akarják, hogy ezt algoritmusok tálalják nekik.”
A Meta vitatja azokat a korábbi kutatási eredményeket, amelyek szerint az Instagram továbbra is „aktívan” ajánl depresszióval, öngyilkossággal és önkárosítással kapcsolatos tartalmakat sérülékeny fiataloknak. A vállalat szerint az ilyen megállapítások „félreértelmezik tinédzserek védelmére irányuló erőfeszítéseiket”. Egy blogbejegyzésben azzal érvelnek, hogy az új riasztások a meglévő védelmi intézkedésekre épülnek, amelyek már most is elrejtik az öngyilkossággal kapcsolatos tartalmakat és blokkolják a káros vagy veszélyes kereséseket.
A vállalat jelezte: a jövőben azt is vizsgálja, hogy hasonló riasztásokat küldjön, ha a tinédzserek az Instagram mesterséges intelligencián alapuló chatbotjával beszélgetnek önkárosításról vagy öngyilkosságról, mivel a fiatalok „egyre inkább az MI-hez fordulnak segítségért”. A mostani bejelentést kicsit árnyalja, hogy nemrégiben az Instagram vezetője, Adam Mosseri azt állította, hogy az sem tekinthető közösségimédia-függőségnek, a valaki egy nap alatt 16 órát tölt az oldalon.
A világon elsőként Ausztráliában tiltják be a közösségi média használatát a 16 év alatt gyerekeknekMint arról beszámoltunk, a Facebook alapítója és a közösségi médium anyavállalatának vezérigazgatója bíróság elé állt, ahol tanúskodnia kellett arról, vajon a közösségi média függőséget okoz-e a gyerekek körében. Mark Zuckerbergéket azzal vádolják, hogy a közösségi oldalakat tudatosan úgy alakították ki, hogy azokra a gyerekek ráfüggjenek, holott tisztában voltak a mentális egészségre leselkedő kockázatokkal.
Közben világszerte is szigorodnak a szabályozások is: Ausztráliában tavaly év végétől betiltották a 16 éves kor alattiak közösségi média-használatát, valamint az Egyesült Királyság, Dánia, Franciaország és Spanyolország is hasonló intézkedéseket fontolgat.

