Temuan tentang ujaran kebencian dan informasi yang salah di India mengarah pada analisis yang lebih dalam, kata Facebook

Itu dari a. akun pengguna yang dibuat Facebook Seorang peneliti di Kerala yang menemukan banyak kasus ujaran kebencian dan informasi yang salah berdasarkan rekomendasi algoritmik dua tahun lalu mendorong perusahaan untuk “menganalisis secara mendalam dan menyeluruh” sistem rekomendasinya di India, kata platform media sosial itu.

Facebook menanggapi permintaan dari Indian Express di The New York Times Laporan tentang Dampak Platform Media Sosial di India, Apalagi menjelang Pilkada 2019.

“Eksplorasi akun uji hipotetis ini mengilhami analisis yang lebih dalam dan menyeluruh dari sistem rekomendasi kami dan berkontribusi pada perubahan produk untuk meningkatkannya. Perubahan produk karena kemudian, penelitian yang lebih ketat termasuk hal-hal seperti menghapus konten batas dan kelompok sipil dan politik dari sistem rekomendasi kami, ”kata juru bicara Facebook.

“Pekerjaan kami untuk mengekang ujaran kebencian berlanjut secara terpisah dan kami semakin memperkuat pengklasifikasi kebencian kami untuk memasukkan 4 bahasa India,” kata juru bicara itu.

The New York Times melaporkan bahwa laporan peneliti adalah salah satu dari lusinan studi dan memo yang ditulis oleh staf Facebook yang meneliti dampak platform di India.

“Dokumen internal yang diterima dari konsorsium organisasi berita, termasuk New York Times, adalah bagian dari inventaris materi yang lebih besar yang disebut The Facebook Papers. Mereka dikumpulkan oleh Frances Haugen, mantan manajer produk Facebook yang menjadi whistleblower dan baru-baru ini bersaksi di depan subkomite Senat tentang perusahaan dan platform media sosialnya.

“Referensi ke India tersebar di antara dokumen yang diajukan Haugen dalam pengaduan ke Securities and Exchange Commission awal bulan ini,” katanya.

Perubahan Facebook dibangun di atas pembatasan yang diduga dilakukan perusahaan pada rekomendasi seperti menghapus grup kesehatan dari permukaan ini serta grup yang berulang kali bertukar informasi yang salah.

READ  Studi di Inggris menemukan dosis booster efektif melawan varian baru

Khusus untuk grup yang membagikan informasi yang salah, perusahaan telah mulai menurunkan semua konten dari grup tersebut di umpan berita dan membatasi notifikasi untuk memastikan lebih sedikit anggota yang melihat postingan mereka.

Platform itu juga mengatakan telah mengamati “jenis penyalahgunaan baru di Facebook” terkait dengan Covid dan memperbarui pedomannya untuk mencerminkan perubahan tersebut.

Misalnya, perusahaan sekarang menghapus konten yang menyatakan bahwa orang-orang yang memiliki sifat yang dilindungi, seperti ras atau agama, memiliki virus, menciptakan virus, atau menyebarkan virus. Sebagai bagian dari penegakan kebijakan ini, perusahaan mengklaim telah memblokir beberapa tagar yang terutama digunakan untuk menyasar komunitas Muslim terkait Covid.

About The Author

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *