Technology

Pahlawan tanpa tanda jasa: Moderator di garis depan internet

Apa yang mungkin ditanyakan oleh seorang moderator konten? Untuk menjawab pertanyaan itu, mari kita mulai dari awal.

Apa itu moderasi konten?

Meskipun istilah moderasi sering disalahartikan, tujuan utamanya jelas—untuk mengevaluasi konten yang dibuat pengguna atas potensinya untuk merugikan orang lain. Dalam hal konten, moderasi adalah tindakan untuk mencegah perilaku ekstrem atau jahat, seperti bahasa yang menyinggung, paparan gambar atau video grafis, dan penipuan atau eksploitasi pengguna.

Ada enam jenis moderasi konten:

  1. Tidak ada moderasi: Tidak ada pengawasan atau intervensi konten, di mana aktor jahat dapat merugikan orang lain
  2. Pra-moderasi: Konten disaring sebelum ditayangkan berdasarkan pedoman yang telah ditentukan
  3. Pasca-moderasi: Konten disaring setelah ditayangkan dan dihapus jika dianggap tidak pantas
  4. Moderasi reaktif: Konten hanya disaring jika pengguna lain melaporkannya
  5. Moderasi otomatis: Konten difilter dan dihapus secara proaktif menggunakan otomatisasi bertenaga AI
  6. Moderasi terdistribusi: Konten yang tidak pantas dihapus berdasarkan suara dari beberapa anggota komunitas

Mengapa moderasi konten penting bagi perusahaan?

Perilaku jahat dan ilegal, yang dilakukan oleh aktor jahat, menempatkan perusahaan pada risiko yang signifikan dengan cara berikut:

  • Kehilangan kredibilitas dan reputasi merek
  • Mengekspos audiens yang rentan, seperti anak-anak, ke konten berbahaya
  • Gagal melindungi pelanggan dari aktivitas penipuan
  • Kehilangan pelanggan karena pesaing yang dapat menawarkan pengalaman yang lebih aman
  • Mengizinkan akun palsu atau penipu

Namun, pentingnya moderasi konten lebih dari sekadar melindungi bisnis. Mengelola dan menghapus konten sensitif dan mengerikan penting untuk setiap kelompok umur.

Seperti yang dapat dibuktikan oleh banyak pakar layanan kepercayaan dan keamanan pihak ketiga, diperlukan pendekatan multi-cabang untuk mengurangi rentang risiko terluas. Moderator konten harus menggunakan tindakan pencegahan dan proaktif untuk memaksimalkan keamanan pengguna dan melindungi kepercayaan merek. Dalam lingkungan online yang sangat bermuatan politik dan sosial saat ini, mengambil pendekatan “tidak ada moderasi” tidak lagi menjadi pilihan.

“Kebajikan keadilan terdiri dari kesederhanaan, sebagaimana diatur oleh kebijaksanaan.” — Aristoteles

Mengapa moderator konten manusia sangat penting?

Banyak jenis moderasi konten melibatkan intervensi manusia di beberapa titik. Namun, moderasi reaktif dan moderasi terdistribusi bukanlah pendekatan yang ideal, karena konten berbahaya tidak ditangani sampai setelah diekspos ke pengguna. Pasca-moderasi menawarkan pendekatan alternatif, di mana algoritme yang didukung AI memantau konten untuk faktor risiko tertentu dan kemudian memperingatkan moderator manusia untuk memverifikasi apakah postingan, gambar, atau video tertentu memang berbahaya dan harus dihapus. Dengan pembelajaran mesin, akurasi algoritme ini meningkat seiring waktu.

Meskipun akan ideal untuk menghilangkan kebutuhan akan moderator konten manusia, mengingat sifat konten yang mereka hadapi (termasuk materi pelecehan seksual anak, kekerasan grafis, dan perilaku online berbahaya lainnya), kecil kemungkinan hal ini akan mungkin terjadi. Pemahaman, pemahaman, interpretasi, dan empati manusia tidak dapat direplikasi melalui cara-cara buatan. Kualitas manusia ini sangat penting untuk menjaga integritas dan keaslian dalam komunikasi. Faktanya, 90% konsumen mengatakan keaslian itu penting ketika memutuskan merek mana yang mereka sukai dan dukung (naik dari 86% pada 2017).