Riset Pengaturan Konten Ilegal dan Berbahaya di Media Sosial

Pada Januari hingga Maret 2023, PR2Media dengan dukungan Yayasan Tifa telah melakukan riset mengenai pengaturan konten ilegal dan berbahaya di media sosial, dalam bentuk survei terhadap 1.500 pengguna media sosial dari 38 provinsi dan wawancara dengan para pemangku kepentingan.

Tujuan riset ini adalah mengidentifikasi (1) pengalaman pengguna media sosial, (2) tantangan pengaturan konten, dan (3) kebutuhan regulasi untuk pengaturan konten yang lebih baik di Indonesia.

Apa temuan utamanya?

Saat ini, proses pengaturan konten yang dilakukan oleh platform media sosial dan regulasi dari negara belum bisa mengatasi penyebaran konten ilegal dan berbahaya secara memadai. Survei terhadap 1.500 pengguna media sosial (YouTube, Facebook, TikTok, Instagram, dan Twitter) di Indonesia ini menunjukkan, mayoritas responden menyatakan sering dan sangat sering menjumpai konten ilegal dan berbahaya di platform media sosial.

Dari 15 jenis konten ilegal dan berbahaya yang ditanyakan kepada 1.500 responden, tiga jenis yang paling sering dijumpai adalah ujaran kebencian (67,2% responden menyatakan sering dan sangat sering menjumpai), diikuti misinformasi/kabar bohong/hoaks (66,4% responden menyatakan sering dan sangat sering menjumpai), dan penipuan (57,9% responden menyatakan sering dan sangat sering menjumpai).

Untuk mengatasi penyebaran konten tersebut, mayoritas responden survei (88,2%) dan semua informan wawancara menyatakan perlunya regulasi dari negara yang mendorong transparansi dan akuntabilitas platform dalam pengaturan konten, yang memuat antara lain:

  • Kewajiban platform media sosial menunjukkan kepada pengguna bahwa pengaturan konten yang mereka lakukan sesuai dengan konteks dan kebutuhan masyarakat Indonesia (94,5% responden).
  • Kewajiban platform media sosial menerbitkan laporan tahunan tentang jumlah laporan yang mereka terima dari pengguna dan tindakan mereka untuk menanggapinya (90% responden).
  • Kewajiban platform media sosial menyediakan lembaga banding bagi pengguna yang tidak puas terhadap pengaturan konten (86,4% responden).
  • Adanya lembaga independen yang mengaudit cara platform media sosial melakukan pengaturan konten dan menerbitkan laporan itu kepada pengguna (89,8% responden).

Apa rekomendasinya?

Kajian pustaka, survei, dan wawancara menunjukkan, Indonesia membutuhkan regulasi yang lebih baik untuk mendorong transparansi dan akuntabilitas platform media sosial dalam pengaturan konten. Pengaturan atau kendali konten ini idealnya diserahkan kepada platform media sosial, sementara pemerintah mengatur dan mengawasi praktik tersebut. Harapan ini juga disampaikan oleh Direktur Jenderal Aplikasi Informatika Kementerian Kominfo dalam wawancara riset ini, tapi ia mengatakan UU ITE yang berlaku saat ini, yaitu Pasal 40 Ayat (2a) dan (2b) menugaskan Kementerian Kominfo untuk melakukan pengaturan konten secara langsung (kewenangan di negara, bukan di platform media sosial). Oleh karena itu, UU ITE perlu diubah dan/atau ada UU baru supaya pengaturan konten bisa lebih baik.

Undang-undang tersebut perlu memuat antara lain:

  1. Tanggung jawab pengaturan konten di media sosial didelegasikan  kepada platform media sosial, bukan dilakukan langsung oleh pemerintah seperti yang diamanatkan oleh UU ITE saat ini.  Dengan demikian, pemerintah bertugas mengawasi pengaturan tersebut untuk memastikan transparansi dan akuntabilitas dari platform media sosial. Pengaturan kewenangan itu perlu tegas dan jelas, agar terdapat kesamaan pemahaman di antara semua platform media sosial.
  1. Atas pertimbangan keadilan, luasnya penyebaran konten, dan mendukung kemunculan platform media sosial buatan dalam negeri, aturan ini hanya berlaku pada platform media sosial besar, misalnya dengan pengguna minimal 10% populasi Indonesia, seperti Digital Services Act yang diterapkan di Uni Eropa. Pemberlakuan batas ini juga akan mengurangi beban pemerintah dalam melakukan pengawasan.
  1. Mengatur definisi dan cakupan platform media sosial secara jelas dan detail. Sebagai contoh, regulasi ini hanya mengatur platform yang bersifat terbuka (YouTube, Facebook, dan lain-lain), bukan platform media sosial tertutup seperti aplikasi pengiriman pesan pribadi  dengan end-to-end encryption (WhatsApp).
  1. Mengatur definisi dan cakupan segala jenis konten ilegal dan berbahaya secara detail dan sesuai dengan konteks masyarakat Indonesia, yang akan menjadi pegangan bagi regulator, platform media sosial, pengguna, dan pemasang iklan terkait pengaturan konten. Kesamaan pemahaman bersifat sangat fundamental terutama di antara platform media sosial.
  1. Mengatur tata cara dan tindakan yang harus dilakukan platform media sosial ketika menerima laporan dari pengguna terkait konten ilegal dan berbahaya, termasuk keberadaan pelapor tepercaya (trusted flagger), yaitu organisasi yang memiliki kompetensi dalam mengenali dan menandai konten ilegal dan berbahaya. Laporan dari pelapor tepercaya ini perlu mendapat prioritas dari platform media sosial karena mereka sudah terlatih membuat laporan yang lengkap dan tepercaya.

Rekomendasi lengkap dan laporan risetnya bisa diunduh di sini.

Penulis:
Engelbertus Wendratama, Masduki, Rahayu, Putri Laksmi Nurul Suci, Puji Rianto
Monika Pretty Aprilia, Mira Ardhya Paramastri, Wisnu Martha Adiputra

Riset ini didukung oleh Yayasan Tifa.

Leave a comment