Algoritmi i TikTok-ut rekomandon pornografi dhe përmbajtje shumë të seksualizuar në llogaritë e fëmijëve, sipas një raporti të ri nga një grup aktivistësh për të drejtat e njeriut.
Hulumtuesit krijuan llogari të rreme për fëmijë dhe aktivizuan cilësimet e sigurisë, por prapë morën sugjerime kërkimi me përmbajtje seksuale eksplicite, raporton BBC.
Termat e sugjeruara të kërkimit çuan në materiale të seksualizuara, duke përfshirë video eksplicite të seksit penetrues.
Platforma thotë se është e përkushtuar ndaj përvojave të sigurta dhe të përshtatshme për moshën dhe ndërmori veprime të menjëhershme sapo mësoi për problemin.
Në fund të korrikut dhe fillim të gushtit të këtij viti, studiuesit nga grupi i fushatës “Global Witness” krijuan katër llogari në TikTok duke u shtirur si 13-vjeçarë. Ata përdorën data lindjeje të rreme dhe nuk iu kërkua të jepnin ndonjë informacion tjetër për të konfirmuar identitetin e tyre.
Ata gjithashtu aktivizuan “modalitetin e kufizuar” të platformës, për të cilin TikTok thotë se i pengon përdoruesit të shohin “tema për të rritur ose komplekse, të tilla si… përmbajtje sugjestive seksuale”.
Pa bërë vetë asnjë kërkim, hetuesit gjetën terma kërkimi të seksualizuara në seksionin “mund t’ju pëlqejë” të aplikacionit.
Këto terma kërkimi çuan në përmbajtje të grave që simulonin masturbimin.
Video të tjera tregonin gra që shfaqnin të brendshmet e tyre në vende publike ose ekspozonin gjinjtë e tyre.
Në rastin më ekstrem, përmbajtja përfshinte filma pornografikë eksplicitë me seks penetrues.
Këto video u përfshinë në përmbajtje të tjera të pafajshme në një përpjekje të suksesshme për të shmangur moderimin e përmbajtjes.
“Global Witness” është një grup fushatash që zakonisht heton se si teknologjia e madhe ndikon në diskutimet rreth të drejtave të njeriut, demokracisë dhe ndryshimeve klimatike.
Studiuesit hasën rastësisht këtë problem gjatë kryerjes së kërkimeve të tjera në prill të këtij viti.
Ata informuan TikTok-un, i cili tha se kishte ndërmarrë veprime të menjëhershme për të zgjidhur problemin.
Por në fund të korrikut dhe gushtit të këtij viti, grupi e përsëriti ushtrimin dhe zbuloi edhe një herë se aplikacioni po rekomandonte përmbajtje seksuale.
Aplikacioni thotë se heq nëntë nga 10 videot që shkelin udhëzimet e tij para se të shikohen ndonjëherë.
Kur u informua nga Global Witness për gjetjet e tij, TikTok tha se ndërmori veprime për të “hequr përmbajtjen që shkelte politikat tona dhe për të nisur përmirësime në veçorinë tonë të sugjerimeve të kërkimit”.