Tiga pekan lalu, seorang veteran perang asal Amerika Serikat berinisial RM menyiarkan langsung upaya bunuh dirinya di Facebook. Selain dihantui kenangan buruk selama bertugas di Perang Irak, ia mengalami persoalan finansial dan baru saja berpisah dari pasangannya. Percobaan pertama RM gagal–pistolnya macet. Celaka untuknya dan lebih dari 200 orang yang menyaksikan, percobaan keduanya berhasil.
Keluarga dan kerabat RM mencak-mencak sebab video mengerikan tersebut tayang di Facebook Live, dan meski banyak orang telah melaporkan siaran tersebut, Facebook lamban bertindak.
Menurut Josh Steen, sahabat RM, ia melaporkan video tersebut pada pukul 22.00 waktu setempat, dua jam setelah siaran dimulai. Facebook baru merespons dua jam kemudian, itu pun dengan tanggapan bahwa video tersebut tak melanggar aturan. Saat jawaban itu tiba, polisi telah sampai ke apartemen RM dan mendapati jenazahnya.
Steen dan keluarga RM segera memulai proses panjang menuntut Facebook, yang bagi mereka abai menerapkan standar moderasi konten. Misalkan Facebook sigap menghentikan siaran langsung tersebut, boleh jadi RM akan tetap bunuh diri. Namun, ujar Steen, setidaknya kematiannya tak akan disiarkan langsung di dunia maya, di mana publik–termasuk anak-anak–dapat menontonnya dan kecipratan trauma.
Video kematian RM menyebar dari Facebook ke YouTube, sebelum tiba di salah satu platform video paling populer saat ini, TikTok. Mulanya, cuplikan video bunuh diri tersebut (yang tidak disensor) tayang begitu saja dan menyebar dari akun ke akun.
Setelah moderator TikTok menurunkan video-video tersebut, para pengguna iseng punya cara lain. Mereka mengunggah video yang awalnya nampak normal, tapi tiba-tiba berubah gambarnya jadi rekaman bunuh diri RM. Konten “jebakan” tersebut sempat mewabah di TikTok sebelum, untungnya, tenggelam oleh video-video populer lain.
Meskipun begitu, TikTok tetap rungsing. Mereka penasaran bagaimana pengguna-penggunanya bisa mengangkangi standar moderator dan tetap mengunggah video-video bunuh diri RM. Dalam sidang terkini di Inggris (22/9), seorang pejabat TikTok menyatakan bahwa mereka telah menemukan pelakunya: peretas-peretas iseng dari dark web.
Theo Bertram, Direktur Kebijakan Publik di cabang Eropa TikTok, menegaskan temuan itu di hadapan panel Komite Digital, Budaya, Media, dan Olahraga di House of Commons (Dewan Rakyat) UK. Menurut penelusuran tim internal TikTok, video tersebut mewabah setelah terjadi “serangan terkoordinasi” dari peretas yang berasal dari dark web, sekitar seminggu setelah video tersebut pertama tayang di Facebook.
“Kami melihat ada klaster pengguna yang berulang kali mencoba mengunggah video tersebut ke platform kami, menyunting serta memotong-motongnya dengan berbagai cara,” ucap Bertram. “Kami tidak bisa menyampaikan teknik pendeteksian kami secara detail, tetapi pola ini ditangkap oleh program machine learning kami.”
Dark web adalah julukan untuk sebuah ekosistem tersembunyi di dunia maya. Ia tak dapat diakses begitu saja dan tak dapat ditemukan lewat mesin pencarian biasa. Selayaknya kawasan liar mana pun, konten di dark web beragam. Di beberapa negara represif, dark web dapat menjadi cara aktivis dan figur oposisi bertukar informasi dan mengkoordinasikan gerakan. Namun di sisi lain, dark web juga dianggap sebagai sentra perdagangan narkoba daring, senjata, pornografi illegal, dan sebagainya.
Untuk mencegah serangan atau insiden serupa, pihak TikTok memberikan solusi yang menarik: sebuah koalisi global untuk menangkal konten negatif, semacam Avengers yang berisi raksasa-raksasa teknologi dunia. “Semalam, kami berbincang dengan CEO Facebook, Instagram, Google/YouTube, Twitter, Twitch, Snapchat, Pinterest, dan Reddit,” ungkap Bertram. “Kami ingin membuat kemitraan yang bisa menangkal konten-konten semacam ini, serupa dengan kemitraan lain yang berhasil meminimalisir konten terkait pornografi anak-anak dan terorisme.”
Menurut Bertram, kemitraan tersebut bisa membuat satu platform untuk saling memperingatkan bila ada konten negatif yang muncul. Dalam kasus RM, Facebook bakal segera mencolek rekan-rekan lain di kemitraan tersebut agar konten tersebut tidak “menyebar” ke platform lain. Kewaspadaan seperti ini juga bakal mengurangi beban untuk moderator di perusahaan seperti TikTok, yang belum sebanyak di Facebook.
Persoalannya, tentu saja, adalah seberapa inginnya para raksasa ini berbagi. Selain itu, Bertram mewanti-wanti agar pemerintah berbuat lebih untuk memastikan anak-anak tidak bisa sembarangan memakai platform tersebut. Salah satu cara yang ia sarankan adalah memperketat batasan usia di app store.
Keluarga RM jelas bukan pihak pertama yang menjadi korban kekejaman internet. Tetapi dengan iktikad yang tepat dan kerja sama yang sungguh-sungguh, kasus yang menimpa mereka dapat jadi yang terakhir.