Thursday, August 1, 2019

Kimi Hime dan Kegatalan Terhadap Moral

Kimi Hime (sumber: Kincir(dot)com)
Beberapa hari ini Indonesia dirundung Kimi Hime. Kimi Hime kenal? Saya sih tidak. Namun para penggila games mungkin kenal sama adik Kimi Hime yang keren ini. Keren bukan saja ia punya subscriber 2,2 juta lebih di YouTube, tetapi juga penampilannya. Sebagai cosplayer, Kimi Hime memang memaksimalkan penampilannya. Ditunjang oleh bentuk anggota tubuh menggoda, tak pelak Kimi Hime jadi pujaan.

Kimi Hime sudah lama disorot. Sebelum heboh Kominfo memaksa menurunkan 3 videonya di YouTube, saya pernah mendengar keluhan yang sama. Saya mengira terlalu banyak orang yang ngaceng karena melihat Kimi Hime. Padahal hanya lewat layar, pun ia hanya bermain games dengan gemesnya.

Sejauh pengalaman mereview konten, Community Guide Lines YouTube secara jelas melarang konten seksual. Namun larangan ini bukan sesuatu yang baku yang berujung kepada penghapusan konten. Konten bernuansa seksual merupakan salah satu konten yang sangat sulit untuk direview. Salah satu alasan untuk ini adalah karena standarnya tidak ada.

Misalnya, ketelanjangan atau tidak telanjang tetapi suggestive itu seperti apa sih? Konten seksual yang secara jelas memperlihatkan alat vital, aksi persetubuhan, aksi lain serupa dengan itu, misalnya mempertontonkan puting, payudara, jelas-jelas dilarang di YouTube. Namun apakah Kimi Hime melakukan salah satu di antara larangan tersebut? Jawabannya tidak.

Lalu mengapa kita harus memaksakan moral kita yang mudah ngaceng untuk mengekang orang lain?

Masalahnya tak sesederhana itu Boss!

Bila kita menonton video pembelaan Kimi Hime, di sana Kimi memperlihatkan UU Antipornografi. Ada beberapa hal yang dilarang di UU tersebut. Namun semuanya tidak dilanggar oleh Kimi Hime. Lalu di mana salahnya Kimi Hime ini?

Saya tidak tahu. Saya melihat beberapa video dan membaca judul videonya. Ada beberapa video dengan judul click bait, sebuah taktik yang umum dipakai oleh media online di Indonesia untuk meraih klik. Lalu ada yang menuduh bahwa Kimi Hime menggunakan taktik ini. Saya rasa Kimi Hime memakluminya karena judul video merupakan sesuatu yang sangat penting dalam pertarungan mencari klik. Namun apakah yang lain tidak menggunakan taktik yang sama? 

Media online di Indonesia sudah lama menggunakan taktik ini, hampir-hampir tanpa malu karena rasa malu mereka sedemikian tipisnya. Lalu apakah mereka dihukum?

Saya rasa memaksakan standar moral dalam dunia yang makin ke depan ini bukan sesuatu yang bijak. Kimi Hime mengungkapkan bahwa sangat sedikit dari penontonnya yang anak-anak. Pun sebenarnya bukan tanggung jawab dia karena anak-anak ada di bawah pengawasan orangtua mereka. Menyalahkan anak-anak yang menonton konten yang tidak seharusnya kepada creator konten saya rasa sebuah hal yang terlalu jauh.

Terlebih sebenarnya kepopuleran Kimi Hime terbatas di YouTube. Itu artinya ketika namanya dipopulerkan oleh pengambil kebijakan, namanya tersebut berpotensi populer di tempat lain. Maksud hati memaksa Kimi Hime untuk sopan dan menyensor kontennya, kenyataannya hal tersebut menjadi ajang promosi gratis baginya. Orang-orang yang sebelumnya tak peduli, bahkan mungkin tak pernah mendengar Kimi Hime jadi tertarik untuk melihat seperti apa dia. Mungkin juga kemudian menjadi pelanggan di channel-nya.

Dan lagi konten Kimi Hime tersebut bisa direview diam-diam tanpa harus menimbulkan debat skala nasional yang menguras energi. Ada mereka yang khusus mereview konten di YouTube, serahkan ke mereka saja.

Saya merasa, sudah waktunya kita berpikir hal-hal yang lebih substansial daripada sekadar remeh-temeh soal konten Kimi Hime. Namun sebagian orang tetap tak mau mengerjakan hal-hal yang substantif tersebut. Mereka tetap ingin urus hal remeh-temeh karena alasan moral.

Monday, March 18, 2019

Serangan Teroris dan Rekaman Video yang Tak Kunjung Dihapus

Sumber: France 24

Bencana! 

Itulah yang terjadi hari Jumat yang lalu saat seorang teroris memasuki dua masjid di Christchurch, Selandia Baru dan memberondong orang-orang yang ada di masjid tersebut dengan senapan semiotomatis. Ini mungkin peristiwa penembakan kesekian kalinya secara global, namun mungkin pertama kali di Selandia Baru yang cenderung adem. Bahkan dengan korban sedemikian banyak, yaitu 50 meninggal dan lainnya luka-luka.

Bencana itu bertambah berkali-kali lipat ketika teroris tersebut mengumumkan aksinya di situs 8chan di sebuah papan pro kanan jauh dan kemudian merekam aksinya dengan cara menyiarkan secara langsung proses penembakan tersebut melalui media sosial Facebook. Live streaming aksi teroris tersebut disiarkan selama 17 menit, sebelum Facebook kemudian diberitahu oleh polisi Selandia Baru dan menghapusnya.

Bencana kemanusiaan yang diperparah oleh ketidakberdayaan media sosial Facebook untuk mengendalikan tool yang mereka buat sendiri. Sudah bukan sesuatu yang baru adanya penyalahgunaan alat live streaming Facebook ini. Sekitar tahun 2017 seorang ayah di Thailand menyiarkan langsung pembunuhan terhadap putrinya sendiri dengan live streaming Facebook. Live streaming itu memperoleh 300 ribuan views dan dibiarkan seharian oleh Facebook baru kemudian dihapus. Di Indonesia sendiri ada peristiwa bunuh diri yang disiarkan secara live oleh pelakunya. 

Lalu media lain menyiarkan ulang, tidak terkecuali rekaman penembakan di dua masjid di New Zealand tersebut. Tak lama dari peristiwa itu, rekaman penembakan beredar di Facebook, Twitter, YouTube, Instagram bahkan mungkin juga aplikasi perpesanan WhatsApp. Facebook merilis laporan bahwa mereka melakukan penghapusan video penembakan sebanyak 1,5 juta video, 1,2 juta di antaranya diblokir ketika diunggah dan sisanya setelah lolos. Namun yang tidak kita ketahui adalah dari 300 ribu video yang berhasil lolos itu seberapa banyak video, share, komentar, dan mungkin juga kemudian didownload lagi untuk kemudian diedit dan diunggah ulang sehingga bisa melewati deteksi otomatis Facebook.

Facebook juga memerintahkan moderator manusianya di seluruh dunia untuk mencari dan menghapus video serangan teroris tersebut. YouTube setali tiga uang dengan Facebook dan merilis simpati terhadap korban serta berupaya keras meredam sebaran video tersebut di YouTube. Media sosial lain seperti Twitter juga mengungkapkan hal yang kurang lebih sama dan senada. Namun kenyataannya tidak seperti diperkirakan dan kita tak bisa bangga dengan usaha media sosial tersebut dalam menghapus konten video serangan teroris ke dua masjid di New Zealand.

Sampai hari ini layanan media sosial berpacu dengan waktu untuk meredam sebaran video serangan teroris tersebut. Usaha mereka ini cukup bisa diapresiasi. Namun sejauh yang dilihat dari apa yang terjadi usaha media sosial seperti Facebook dan YouTube tak bisa dikatakan tanpa cela. Hal yang sebenarnya terjadi adalah mereka kewalahan menangani serangan konten ini ke paltform mereka. Tools otomatis atau AI yang mereka andalkan untuk mengenali konten dan kemudian menghapusnya secara otomatis terlalu mudah dibobol sehingga konten video serangan teroris tersebut muncul seperti jamur di musim hujan.

Kita bisa melihat di Facebook. Wired melaporkan selama bertahun-tahun, baik Facebook maupun Google telah mengembangkan dan mengimplementasikan alat otomatis yang dapat mendeteksi dan menghapus foto, video, dan teks yang melanggar kebijakan mereka. Facebook menggunakan PhotoDNA, alat yang dikembangkan oleh Microsoft, untuk menemukan gambar dan video porno anak yang dikenali. Google telah mengembangkan versi open source mereka sendiri. Program-program ini menghasilkan tanda tangan digital yang dikenal sebagai hash untuk gambar dan video yang diketahui bermasalah untuk mencegah mereka diunggah lagi. Terlebih lagi, Facebook dan lainnya memiliki teknologi machine learning yang telah dilatih untuk menemukan konten baru yang mengganggu, seperti pemenggalan kepala atau video dengan bendera ISIS.  

Facebook menjelaskan video asli aksi teroris tersebut telah di-hash sehingga video yang lain yang persis sama tidak dapat dibagikan lagi di Facebook. Untuk mengenali video yang telah diubah atau diedit untuk menghindari deteksi otomatis dari Facebook, video rekaman diputar di layar kedua. Facebook menggunakan AI yang sama yang digunakannya untuk melihat gore dan darah juga teknologi pendeteksi audio. Facebook mengatakan ketika menemukan konten yang berasal dari tautan ke platform lain, mereka membagikan informasi dengan perusahaan sumber tautan tersebut. 

Namun hal itu tidaklah cukup mengingat skala pengguna yang sangat banyak? Saya rasa meskipun Facebook memiliki tool untuk mengenali dan ada hash yang dipakai untuk mengenali dan menghapus video yang persis sama, sebaran video tersebut di Facebook tetap tak tertahan. 

Wired mengatakan akan jauh lebih mudah bagi perusahaan teknologi seperti Facebook untuk mengambil pendekatan mata tertutup di mana secara tegas melarang setiap klip penembakan agar tidak diposting, mungkin dengan menggunakan teknologi sidik jari yang digunakan untuk menghapus pornografi anak. Publik mungkin setuju dengan pendekatan tersebut mengingat efek yang disebabkan jika dibiarkan tersebar. Namun dalam kebijakan moderasi konten mereka, Facebook telah membuat pengecualian eksplisit untuk organisasi berita. Artinya kantor berita diperbolehkan untuk merilis video tersebut dengan kata lain, mungkin juga muncul dalam laporan berita oleh afiliasi berita lokal atau semacam akun-akun yang seolah-olah seperti organisasi berita dan ini tentu saja akan membuat video serangan teroris tersebar.

YouTube juga mengalami masalah yang kurang lebih sama. Meskipun tidak digunakan sebagai sumber awal sebuah berita yang terkait bencana kemanusiaan seperti serangan teroris, YouTube telah menjadi tujuan banyak orang untuk mengunggah ulang video serangan tersebut yang tidak jarang jauh berbeda dengan video asli sehingga menyulitkan penanda otomatis YouTube bekerja.

Artikel di The Verge menjelaskan secara rinci mengapa YouTube juga memiliki masalah yang kurang lebih sama dengan Facebook sehingga tak bisa secara optimal menghadang laju sebaran video serangan teroris di New Zealand tersebut.

Moderator YouTube beberapa waktu setelah serangan teroris tersebut telah berusaha meredam serangan konten dengan segera menghapus video yang diunggah. Namun usaha ini cenderung sia-sia karena sekian banyak yang dihapus, jumlah yang diunggah bisa lebih banyak lagi. Publik pun bertanya karena YouTube memiliki alat untuk mengidentifikasi konten berhak cipta secara otomatis, mengapa alat tersebut tidak dapat secara otomatis mengidentifikasi video serangan teroris dan menghapusnya?

Menurut The Verge unggahan ulang video yang persis sama dengan konten asli akan diblokir oleh YouTube (layaknya yang dilakukan Facebook), tetapi video yang berisi klip atau potongan dari serangan tersebut (misalnya video serangan asli berdurasi 4 menit, sementara klip yang diunggah tak lebih dari 30 detik) harus dikirim ke moderator manusia untuk ditinjau. Hal ini dilakukan untuk memastikan bahwa video berita yang menggunakan sebagian dari video untuk segmen mereka tidak dihapus dalam proses.

Tim keamanan YouTube menganggap hal tersebut sebagai tindakan penyeimbang. Untuk peristiwa besar seperti serangan teroris di New Zealand hari Jumat yang lalu, tim YouTube menggunakan sistem yang mirip dengan alat hak cipta, Content ID, tetapi tidak persis sama. Alat ini akan mencari versi yang diunggah ulang dari video asli untuk metadata dan citra yang serupa. Jika ini merupakan unggahan ulang yang belum diedit, konten tersebut akan dihapus otomatis. Jika diedit, alat akan menandainya dan dikirm ke tim moderator manusia, baik karyawan penuh waktu di YouTube dan kontraktor yang menentukan apakah video tersebut melanggar kebijakan YouTube.

YouTube juga memiliki sistem untuk segera menghapus pornografi anak dan konten terkait terorisme, dengan sidik jari rekaman menggunakan sistem hash. Akan tetapi, sistem tersebut tidak diterapkan dalam kasus-kasus seperti serangan teroris karena potensi untuk nilai berita. YouTube menganggap penghapusan video yang bernilai berita sama berbahayanya. YouTube melarang cuplikan yang dimaksudkan untuk mengagetkan atau membuat jijik pemirsa yang dapat mencakup setelah serangan teroris. Namun, jika digunakan untuk tujuan berita, YouTube mengatakan rekaman tersebut diizinkan, tetapi mungkin dibatasi usia (dikenakan age restriction) untuk melindungi pemirsa yang lebih muda.

YouTube khususnya telah dikritik di masa lalu karena menghapus video kekejaman di Suriah yang diandalkan oleh para peneliti. Hal ini membuat perusahaan teknologi berada dalam posisi yang sulit tidak hanya mencoba menilai nilai berita, tetapi juga mencoba mencari cara untuk mengotomatiskan penilaian terhadap berita tersebut.

Masalah lainnya adalah sistem Content ID di YouTube tidak dibuat untuk menangani berita terkini yang mungkin saja mengandung konten yang melanggar ketentuan mereka. Namun setidaknya YouTube memiliki para flagger yang bekerja untuk menandai video yang lolos dari sistem otomatis YouTube untuk kemudian dilaporkan kepada YouTube yang hanya butuh waktu maksimal 24 jam untuk dihapus.

Dengan beberapa alasan tersebut di atas, tentu saja dengan skala pengguna 2 miliar seperti halnya Facebook, YouTube berhadapan dengan serangan unggahan video serangan teroris yang saya percaya akan selalu bisa lolos karena adanya perubahan atau edit di video asli. YouTube jelas-jelas bukan sumber pertama dari video tersebut sehingga mereka hanya menerima limpahan konten yang sebagian besar telah diubah untuk mengelabui penanda otomatis YouTube. Itulah alasan mengapa video serangan teroris di New Zealand tersebut merebak di YouTube.

Dua layanan besar di atas Facebook dan YouTube memang sangat banyak memperoleh kritikan terkait sebaran video serangan teroris di New Zealand. Namun serangan teroris ini bukan sesuatu yang terjadi tiba-tiba atau muncul sekenanya, seingat pelakunya. Ada poin yang penting yang sering kita abaikan, yaitu sebaran pesan-pesan kebencian berbasis SARA yang terus meningkat di berbagai layanan media sosial. Jika media sosial tidak berani mengambil langkah drastis untuk mengelola pesan-pesan kebencian berbasis SARA ini, bukan tak mungkin peristiwa yang sama akan terus terjadi.

Lalu bagaimana dengan layanan lain semisal Twitter, Instagram dan WhatsApp yang penggunanya juga sangat banyak di Indonesia. Jika dua layana besar di atas memiliki sistem otomatis dan ada moderator manusia bahkan YouTube memiliki flagger yang ditujukan khusus untuk menandai video seperti serangan teroris, layanan lain bergulat dan bertumpu kepada laporan pengguna. Ini sungguh tidak ideal.

Kita bisa melihat kasus ini di Twitter, di mana bahkan untuk melaporkan video serangan teroris tersebut pada hari Jumat yang lalu, saya mengalami kebingungan, poin mana yang akan dipilih agar laporan tersebut cukup masuk akal. Di YouTube pengguna bisa menandai video tertentu dengan tanda Promote Terrorism untuk video serangan teroris di New Zealand. Hal ini tidak berlaku untuk Twitter. Saya percaya Twitter tidak memliki alat otomatis untuk menandai video serangan teroris tersebut, pun moderator manusia yang khusus ditugaskan untuk menandai dan menghapus konten video teroris. Faktor ini akan memperparah sebaran video serangan teroris tersebut dan membuatnya semakin sulit untuk dihapus.

Di Instagram ada kasus di mana pengguna melaporkan video tersebut, namun kurang memperoleh tanggapan dari Instagram. Instagram mungkin memperoleh manfaat karena dimiliki oleh Facebook dan mungkin saja tool yang sama bisa digunakan untuk menghapus video, tetapi mereka mungkin tak punya moderator khusus yang mencari serta kemudian menghapus video sehingga sebaran video serangan teroris bisa sangat banyak. Apalagi WhatsApp yang menerapkan end to end encryption.

Di sini kita bisa mengerti mengapa video serangan teroris tersebut sedemikian menyebar dan upaya untuk menghapusnya cenderung sebagai aksi one time show. Semestinya media sosial bisa memastikan bahwa konten yang diunggah pengguna seperti video sudah melalui suatu screening sebagai jaminan atas tidak dilanggarnya ketentuan media sosial itu sendiri. Media sosial harus bisa memberikan jaminan untuk itu.

Saya juga sangat menyesalkan upaya minimal pemerintah yang hanya berhenti pada sebatas himbauan kepada pengguna untuk tidak mengunggah video serangan teroris tersebut. Pemerintah harus lebih dari ini, mereka harus bisa menekan semua layanan untuk bisa memadamkan serbuan unggahan video tersebut. Sayangnya posisi mereka ini memang terlalu lembek bahkan untuk sekadar mengkritik layanan media sosial.

Dengan segala faktor di atas, saya percaya bahkan setelah secara bersama-sama pun, upaya untuk menghapus konten serangan teroris tak akan berhasil. Layanan cenderung menyepelekan efek negatif tool seperti Live Streaming Facebook sehingga para teroris berikutnya akan meniru upaya yang sama. Situs 8chan misalnya akan terus membiarkan kelompok kanan jauh menyebarkan kebencian, sama halnya dengan Facebook dan Twitter, YouTube. Di masa depan kita mungkin akan melihat serangan yang lebih brutal, lalu kemudian semua teriak lagi seperti yang sudah-sudah.

Kehed!

Kimi Hime dan Kegatalan Terhadap Moral

Kimi Hime (sumber: Kincir(dot)com) Beberapa hari ini Indonesia dirundung Kimi Hime. Kimi Hime kenal? Saya sih tidak. Namun para penggil...