Sebuah keputusan mengejutkan datang dari Lembaga Hak Asasi Manusia Eropa. Mereka menemukan bahwa algoritma iklan lowongan kerja di Facebook secara terang-terangan menunjukkan diskriminasi gender. Ini bukan sekadar kesalahan kecil, melainkan masalah serius yang berpotensi merugikan banyak pencari kerja.
Lembaga tersebut, Netherlands Institute for Human Rights, secara tegas menyatakan bahwa algoritma milik Meta, induk perusahaan Facebook, justru memperkuat stereotip gender yang sudah ada. Bayangkan, peluang kerjamu bisa saja terlewat hanya karena sistem yang seharusnya netral ternyata punya bias.
Algoritma Facebook Gagal Buktikan Netralitasnya
Meta, sebagai pengelola iklan Facebook di Eropa, gagal membuktikan bahwa algoritma mereka bebas dari diskriminasi berbasis gender. Kegagalan ini memicu permintaan agar Facebook segera meninjau ulang sistem algoritma iklannya. Tujuannya jelas, untuk mencegah kejadian serupa terulang di masa depan.
Keputusan yang dirilis pada 18 Februari lalu ini mengungkap fakta mencengangkan. Algoritma Facebook terbukti menampilkan "profesi yang umumnya dikaitkan dengan perempuan" hanya kepada pengguna perempuan di Belanda. Ini artinya, pengguna Facebook di Eropa bisa kehilangan kesempatan kerja yang seharusnya mereka dapatkan, hanya karena bias gender dalam sistem.
Bukan Kali Pertama: Jejak Diskriminasi Global Witness
Kasus ini sebenarnya bukan yang pertama kali terungkap. Pada tahun 2023, organisasi nirlaba internasional Global Witness sudah melakukan investigasi mendalam terhadap iklan lowongan pekerjaan di Facebook. Hasilnya? Sangat mengkhawatirkan.
Mereka menemukan bahwa iklan di Belanda dan lima negara lain, termasuk Prancis, India, Irlandia, Inggris, dan Afrika Selatan, sering menargetkan pengguna berdasarkan stereotip gender. Misalnya, iklan untuk posisi mekanik sebagian besar hanya ditampilkan kepada pria. Sementara itu, iklan untuk posisi guru taman kanak-kanak lebih diutamakan kepada wanita.
Eksperimen Global Witness ini menunjukkan bahwa algoritma Facebook cenderung mempertahankan bias serupa di seluruh dunia. Penyelidikan ini kemudian memicu empat pengaduan resmi dari Bureau Clara Wichmann, sebuah organisasi hak asasi manusia, dan Fondation des Femmes dari Prancis.
Respons Meta: Diam Seribu Bahasa?
Meskipun menghadapi tudingan serius ini, seorang juru bicara Meta memilih untuk tidak memberikan komentar. Sikap diam ini tentu saja menimbulkan banyak pertanyaan. Padahal, sebelumnya, Ashley Settle, juru bicara Meta, pernah menyatakan bahwa perusahaan menggunakan "batasan penargetan bagi pengiklan" untuk iklan lowongan kerja, perumahan, dan kredit.
Batasan penargetan audiens ini, menurut Meta, berlaku di lebih dari empat puluh negara dan wilayah Eropa, termasuk Prancis dan Belanda. Settle bahkan menegaskan pada tahun 2023 bahwa Meta tidak mengizinkan pengiklan untuk menargetkan iklan berdasarkan jenis kelamin. Namun, fakta di lapangan kini berkata lain.
Meta juga mengklaim terus bekerja sama dengan pemangku kepentingan dan ahli dari berbagai bidang, termasuk akademisi dan kelompok hak asasi manusia, untuk mencari cara terbaik dalam meneliti dan menangani keadilan algoritma. Namun, dengan adanya putusan terbaru ini, komitmen tersebut patut dipertanyakan.
Mengapa Algoritma Bisa Diskriminatif?
Mungkin kamu bertanya-tanya, bagaimana bisa sebuah algoritma yang dirancang oleh manusia menjadi diskriminatif? Jawabannya kompleks. Algoritma belajar dari data historis yang diberikan kepadanya. Jika data tersebut sudah mengandung bias gender dari masyarakat, maka algoritma akan mereplikasi dan bahkan memperkuat bias tersebut.
Misalnya, jika secara historis lebih banyak pria melamar pekerjaan mekanik dan lebih banyak wanita melamar guru taman kanak-kanak, algoritma akan "belajar" pola ini. Tanpa intervensi yang tepat, sistem akan secara otomatis mengarahkan iklan pekerjaan tersebut kepada kelompok gender yang "sesuai" berdasarkan data masa lalu, bukan berdasarkan potensi atau kualifikasi individu. Ini menciptakan lingkaran setan diskriminasi yang sulit diputus.
Dampak Nyata bagi Pencari Kerja
Keputusan lembaga Belanda ini disambut baik oleh Berty Bannor dari Bureau Clara Wichmann. Ia menyebut putusan ini sangat penting dan menjadi "hari yang besar bagi pengguna Facebook di Belanda." Menurutnya, kini ada mekanisme yang lebih mudah diakses untuk menuntut pertanggungjawaban perusahaan teknologi multinasional seperti Meta.
Ini adalah langkah awal untuk menunjukkan bahwa undang-undang anti-diskriminasi berlaku sama bagi perusahaan teknologi besar, baik di dunia nyata maupun di ruang digital. Rosie Sharpe, Peneliti Senior Ancaman Digital di Global Witness, juga menambahkan bahwa putusan ini menandai langkah penting dalam menuntut akuntabilitas perusahaan teknologi atas desain layanan mereka dan dampak diskriminatif yang ditimbulkan algoritma.
Meski Tidak Mengikat Hukum, Ini Peringatan Serius!
Penting untuk dicatat, keputusan yang diambil oleh Institut Hak Asasi Manusia Belanda ini memang tidak memiliki kekuatan hukum mengikat secara langsung. Namun, para ahli mengatakan bahwa kasus semacam ini akan terus meningkat. Pengadilan nantinya akan diwajibkan untuk mempertimbangkan temuan Institut tersebut dalam kasus-kasus serupa.
Anton Ekker, seorang pengacara kecerdasan buatan dan hak digital Belanda, menjelaskan bahwa keputusan lembaga ini bisa berujung pada denda dari otoritas perlindungan data Belanda. Bahkan, Meta bisa diperintahkan untuk mengubah algoritma tertentu, terutama yang menciptakan ketidaksetaraan dan merugikan kelompok marjinal berdasarkan agama, ras, atau gender.
Jika Meta tidak mengambil tindakan serius terhadap algoritma iklan lowongan kerja yang diskriminatif ini, LSM mungkin akan mengambil langkah hukum lebih lanjut. Mereka bisa saja menuntut untuk menghentikan penggunaan algoritma yang terbukti diskriminatif.
Pola yang Mengkhawatirkan: Meta dan Hak Digital
Keputusan pemerintah Belanda ini muncul di tengah tren perlindungan hak digital yang semakin melemah, terutama bagi perempuan dan kelompok marjinal. Bulan lalu, Meta membuat pengumuman yang cukup kontroversial. Mereka akan menghentikan program keragaman, kesetaraan, dan inklusi (DEI) mereka.
Selain itu, Meta juga mengubah kebijakan platformnya terkait perilaku kebencian. Bagian kebijakan yang sebelumnya melarang ucapan kebencian kini dihapus. Ini memungkinkan pengguna untuk merujuk pada "wanita sebagai benda rumah tangga atau properti" atau "orang transgender atau non-biner sebagai ‘itu’." Perubahan ini jelas sangat mengkhawatirkan dan menunjukkan pola yang kurang berpihak pada hak asasi manusia.
Masa Depan Algoritma dan Hak Asasi Manusia
Selama sepuluh tahun terakhir, Meta telah menghadapi berbagai tuduhan diskriminasi, termasuk gugatan di Amerika Serikat terkait iklan kredit, ketenagakerjaan, dan perumahan. Akibatnya, perusahaan telah mengubah algoritma yang digunakan untuk iklan di Amerika Serikat. Ini menunjukkan bahwa Meta sebenarnya mampu melakukan perubahan jika ada tekanan yang cukup kuat.
Putusan di Eropa ini diharapkan dapat menjadi landasan untuk tindakan lebih lanjut, baik di Eropa maupun di luar Eropa. Ini adalah pengingat penting bahwa teknologi, seberapa pun canggihnya, harus dirancang dan dioperasikan dengan mempertimbangkan keadilan dan hak asasi manusia. Jangan sampai algoritma yang seharusnya mempermudah hidup kita, justru menjadi penghalang bagi kesetaraan dan peluang.


















