Platforma X ignoră cererile de eliminare a conținutului legat de răzbunarea prin pornografie

Bogdan Chirea
0

Un studiu recent arată că platforma X (fosta Twitter) este mult mai probabil să elimine rapid conținutul dăunător, precum imaginile intime distribuite fără consimțământ (NCII, cunoscut și ca „revenge porn”), dacă victimele utilizează un mecanism de retragere bazat pe Legea privind Drepturile de Autor Digital Millennium (DMCA), în loc să raporteze direct conținutul prin mecanismul dedicat NCII al platformei.


Cercetarea, realizată de Universitatea din Michigan și publicată într-o formă pre-imprimată, dezvăluie dificultățile pe care le întâmpină victimele în eliminarea conținutului NCII de pe X. Deși platforma susține că nu tolerează nuditatea distribuită fără consimțământ, studiul arată că această politică este rareori implementată eficient dacă nu se utilizează proceduri de protecție a drepturilor de autor.


Experimentul care a evidențiat problema

Pentru a testa reacția platformei, cercetătorii au creat două seturi de conturi pe X și au postat imagini generate de AI care simulau nuditate neconsensuală. Jumătate din aceste imagini au fost raportate ca încălcând politica platformei privind nuditatea neconsensuală, în timp ce cealaltă jumătate a fost raportată utilizând mecanismul DMCA.


Rezultatele au fost izbitoare: toate imaginile raportate prin DMCA au fost eliminate în mai puțin de 25 de ore, iar conturile care au distribuit aceste imagini au fost suspendate temporar. Pe de altă parte, niciuna dintre imaginile raportate prin mecanismul NCII nu a fost eliminată, iar platforma nu a răspuns la cererile de eliminare.


Această diferență majoră reprezintă o problemă semnificativă, deoarece doar o parte dintre victimele care apar în aceste imagini dețin drepturile de autor necesare pentru a utiliza procedura DMCA. Victimele care nu au creat imaginile distribuite fără consimțământ nu pot apela la această soluție și se confruntă cu un proces mult mai lent și nesigur de eliminare a conținutului.


Impactul devastator al NCII și necesitatea unor legi mai stricte


Studiul subliniază că impactul negativ al conținutului NCII este cel mai sever în primele 48 de ore în care acesta este online. Conform cercetărilor, una din opt persoane adulte din SUA fie devine ținta, fie este amenințată cu „revenge porn”, iar utilizarea tehnologiei AI pentru a crea astfel de conținuturi a agravat problema.


Mecanismul DMCA nu se aplică, în general, pentru imagini generate de AI, ceea ce înseamnă că multe victime nu au la dispoziție o metodă rapidă și eficientă de eliminare a acestor imagini de pe platformă.


Cercetătorii recomandă adoptarea unei legi federale dedicate conținutului NCII, care să impună platformelor obligația de a elimina rapid aceste imagini și să sancționeze utilizatorii care le distribuie. Această schimbare ar putea elimina dependența de platformele sociale pentru a gestiona voluntar eliminarea conținutului dăunător, oferind în schimb o protecție legală clară și aplicabilă pentru victime.


Performanța actuală a platformei X


În raportul său recent de transparență, X a raportat că a eliminat peste 150.000 de postări care încălcau politica sa de nuditate neconsensuală în prima jumătate a anului 2024. De asemenea, platforma a suspendat peste 50.000 de conturi și a înregistrat aproape 40.000 de rapoarte de nuditate neconsensuală. Cu toate acestea, majoritatea acestor acțiuni au fost realizate de moderatori umani, ceea ce sugerează că reducerile în echipa de siguranță a platformei după preluarea de către Elon Musk ar putea fi un factor care influențează răspunsul lent la raportările NCII.


Concluzii și necesitatea unor schimbări


Studiul atrage atenția asupra faptului că platformele sociale nu au, în prezent, suficiente stimulente legale pentru a acționa rapid în cazurile de distribuire a imaginii neconsensuale. Cercetătorii insistă asupra necesității unei legislații federale care să impună obligații legale clare platformelor și să ofere drepturi concrete victimelor.


Potrivit cercetătorilor, este necesară o schimbare de paradigmă, care să mute responsabilitatea de la bunăvoința platformelor către reglementări legale aplicabile. Această măsură ar putea aduce protecție reală victimelor care se confruntă cu abuzuri de imagine online.

Trimiteți un comentariu

0Comentarii

Comentariul va fi postat dupa aprobare

Trimiteți un comentariu (0)

#buttons=(Am înțeles!) #days=(30)

Acest website folosește cookie-uri pentru a optimiza experiența de navigare. Vezi
Ok, Go it!