Meta sub presiune pentru întârzierea funcțiilor de siguranță pe Instagram
Sursă imagine: BRENDAN SMIALOWSKI/AFP / Getty Images
Securitate4 min citire25 februarie 2026

Meta sub presiune pentru întârzierea funcțiilor de siguranță pe Instagram

Dezvăluiri dintr-un proces federal pun în lumină întârzierile Meta

Meta se confruntă cu critici pentru întârzierea funcțiilor de siguranță pe Instagram. Dezvăluiri recente arată că riscurile erau cunoscute încă din 2018.


Puncte Cheie

  • Proces federal împotriva Meta pentru întârzierea funcțiilor de siguranță pe Instagram
  • Funcția de estompare a imaginilor explicite a fost introdusă în aprilie 2024
  • Adam Mosseri, șeful Instagram, a fost interogat despre un email din 2018
  • 19.2% dintre adolescenții între 13 și 15 ani au văzut imagini sexuale nedorite
  • Meta a fost conștientă de riscuri încă din 2018, dar a acționat abia în 2024

Întârzierea funcțiilor de siguranță pe Instagram

Într-un proces federal recent, Meta, compania mamă a Instagram, a fost interogată cu privire la întârzierea implementării unor funcții esențiale de siguranță, cum ar fi un filtru de nuditate pentru mesajele private trimise adolescenților. În aprilie 2024, Meta a lansat o funcție care estompează automat imaginile explicite din mesajele directe de pe Instagram. Această funcție a fost recunoscută de companie ca fiind necesară încă din urmă cu aproape șase ani.

Într-o depoziție recent dezvăluită, Adam Mosseri, șeful Instagram, a fost întrebat despre un schimb de emailuri din august 2018 cu Guy Rosen, Vicepreședinte și Director de Securitate al Informațiilor la Meta. În acele emailuri, Mosseri a menționat că lucruri „oribile” se pot întâmpla prin mesajele private de pe Instagram, cunoscute și sub numele de DMs. Avocatul reclamantului a sugerat că aceste lucruri ar include imagini indecente, iar Mosseri a fost de acord.

Reacția Meta și dezvăluiri suplimentare

Mosseri a respins acuzațiile conform cărora compania ar fi trebuit să informeze părinții că sistemul său de mesagerie nu era monitorizat, în afară de eliminarea materialelor de abuz sexual asupra copiilor (CSAM). «Cred că este destul de clar că poți trimite conținut problematic prin orice aplicație de mesagerie, fie că este Instagram sau altceva», a declarat Mosseri. El a subliniat că compania a încercat să echilibreze interesul oamenilor pentru intimitate cu propriile interese de siguranță.

Depoziția a dezvăluit și statistici noi despre activitatea dăunătoare pe Instagram, arătând că 19.2% dintre respondenții cu vârste între 13 și 15 ani au declarat că au văzut nuditate sau imagini sexuale pe Instagram pe care nu doreau să le vadă. În plus, 8.4% dintre adolescenții din aceeași categorie de vârstă au raportat că au văzut persoane care se rănesc sau amenință să facă acest lucru pe Instagram în ultimele șapte zile de utilizare a aplicației.

Critici și măsuri ulterioare

În timp ce un filtru de nuditate este doar una dintre numeroasele actualizări adăugate recent pe Instagram pentru a proteja adolescenții, procurorii au fost mai interesați de întârzierea acțiunii, mai degrabă decât de siguranța actuală a aplicației pentru adolescenți. Mosseri a fost, de asemenea, întrebat despre un email din 2017 de la un intern Facebook, care a spus că dorește să găsească utilizatori „dependenți” de Facebook și să vadă dacă există modalități de a-i ajuta.

Lanțul de emailuri din 2018 a fost menit să servească drept exemplu că Meta era conștientă de riscurile la care erau expuși minorii, dar compania a așteptat până în 2024 pentru a lansa un produs care să abordeze problema imaginilor sexuale trimise adolescenților. Acestea includ imagini trimise de adulți care ar putea fi implicați în grooming, un proces prin care un adult construiește încredere cu un minor pentru a-l manipula sau exploata sexual.

Contactată pentru comentarii, purtătoarea de cuvânt a Meta, Liza Crenshaw, a subliniat alte moduri prin care compania a lucrat pentru a menține siguranța adolescenților de-a lungul anilor, menționând că, «de peste un deceniu, am ascultat părinții, am colaborat cu experți și forțele de ordine și am efectuat cercetări aprofundate pentru a înțelege problemele care contează cel mai mult. Folosim aceste informații pentru a face schimbări semnificative - cum ar fi introducerea conturilor pentru adolescenți cu protecții integrate și oferirea părinților de instrumente pentru a gestiona experiențele adolescenților lor. Suntem mândri de progresul făcut și lucrăm mereu pentru a face mai bine», a declarat ea.

Depoziția oferită de Mosseri a avut loc în cadrul unuia dintre procesele care încearcă să tragă la răspundere marile companii tech pentru daunele aduse adolescenților. Acest caz particular, care are loc la Curtea Districtuală a SUA din Districtul de Nord al Californiei, implică reclamanți care susțin că platformele de social media sunt defectuoase deoarece sunt concepute pentru a maximiza timpul petrecut pe ecran, ceea ce încurajează comportamentele dependente la adolescenți. Defendenții includ Meta, Snap, TikTok și YouTube (Google).

Procese similare sunt în desfășurare și la Curtea Superioară a Comitatului Los Angeles și în New Mexico. Avocații din aceste cazuri speră să demonstreze că marile companii tech au prioritizat nevoia de creștere a utilizatorilor și de creștere a angajamentului în detrimentul potențialelor daune care afectează cei mai tineri utilizatori ai lor.

Momentul acestor procese vine pe fondul unui număr tot mai mare de legi care restricționează utilizarea social media de către adolescenți, atât în mai multe state din SUA, cât și în străinătate.

Distribuie acest articol

Abonează-te la StiriX

Primește cele mai noi știri tech direct pe email.