Meta acuzată de răspândirea conținutului de automutilare pe Instagram
Update cu 7 luni în urmă
Timp de citire: 5 minute
Articol scris de: Cristina Preda

Meta acuzată de răspândirea conținutului de automutilare pe Instagram
Un nou studiu a dezvăluit că Meta, compania mamă a Instagram, contribuie activ la proliferarea conținutului legat de automutilare pe platformă, prin ineficiența moderării acestuia. Cercetătorii danezi au creat o rețea privată pe Instagram dedicată automutilării, utilizând profiluri false ale unor utilizatori cu vârste de până la 13 ani, unde au distribuit 85 de postări cu conținut exploziv, inclusiv imagini cu sânge și lame de ras. Potrivit raportului, moderarea de pe rețea a fost descrisă ca fiind "extrem de inadekvată".
Studiul s-a axat pe evaluarea afirmațiilor Meta, care susține că utilizează inteligența artificială pentru a elimina conținutul dăunător. Conform gigantului tech, aproximativ 99% din conținutul problematic este eliminat înainte de a fi raportat. Cu toate acestea, organizația Digitalt Ansvar a descoperit că nu a fost eliminată nicio imagine în timpul experimentului derulat pe parcursul unei luni. Atunci când organizația a dezvoltat un instrument simplu de inteligență artificială, acesta a reușit să identifice 38% din imaginile de automutilare și 88% dintre cele mai grave.
Digitalt Ansvar a tras concluzia că Instagram are acces la tehnologia necesară pentru a aborda problema, dar nu o implementează eficient. Această moderare ineficientă a fost considerată de către organizație o încălcare a legislației Uniunii Europene. Un sondaj efectuat de organizația caritabilă de sănătate mintală a tinerilor, stem4, a arătat că aproape jumătate dintre respondenți s-au simțit izolați, au început să facă exerciții fizice excesive sau s-au automutilat ca urmare a hărțuirii online legate de aspectul lor.
Noua legislație privind serviciile digitale impune platformelor mari să identifice riscurile sistemice pentru utilizatori. În acest context, un purtător de cuvânt al Meta a declarat: „Conținutul care încurajează autovătămarea este împotriva politicilor noastre și eliminăm acest tip de conținut atunci când îl detectăm. În prima jumătate a anului 2024, am eliminat mai mult de 12 milioane de postări legate de sinucidere și autovătămare, dintre care 99% au fost șterse proactiv.”
Cu toate acestea, studiul a constatat că algoritmul Instagram a contribuit la extinderea rețelei de automutilare, ajutând utilizatorii să se conecteze între ei mai ușor. Directorul executiv al Digitalt Ansvar, Ask Hesby Holm, s-a declarat șocat de rezultate, spunând că au crezut că imaginile tot mai grave vor activa semnalele de alarmă ale platformei.
El a subliniat importanța gestionării acestor conținuturi, afirmând: „Eșecul de a modera imaginile de autoagresiune poate duce la consecințe grave, inclusiv sinucidere.” Holm a susținut că Meta nu își moderază grupurile mici pentru a menține un nivel ridicat de trafic.
Pe de altă parte, Lotte Rubaek, psiholog care a părăsit grupul de experți Meta în martie, a confirmat că rezultatele studiului nu sunt surprinzătoare, dar a fost uluită de faptul că nu au fost eliminate imaginile cele mai explicite. Rubaek a avertizat că lipsa de acțiune a Meta cu privire la conținutul de automutilare pune în pericol tinerii vulnerabili și contribuie la creșterea numărului de sinucideri.
Aceasta a detaliat că problema automutilării pe Instagram este o chestiune de viață și de moarte pentru tineri și a denunțat comportamentul companiei, care prioritizează profitul în detrimentul siguranței utilizatorilor săi.