Algoritma Penayangan Iklan Facebook Dibedakan Jenis Kelamin Ras

Penayangan Iklan Facebook Dibedakan Jenis Kelamin Ras

Prubahan Alogaritma Facebook

Algoritma Penayangan Iklan Facebook Dibedakan Jenis Kelamin Ras -. Raksasa teknologi itu dituntut oleh Departemen Perumahan dan Pengembangan Urban AS. Atas caranya membiarkan pengiklan dengan sengaja menargetkan iklan mereka berdasarkan ras, jenis kelamin, dan agama — semua kelas yang dilindungi di bawah hukum AS. Perusahaan mengumumkan bahwa mereka akan berhenti mengizinkan ini.

 

Variasi Anggaran

Tetapi bukti baru menunjukkan bahwa algoritma Facebook, yang secara otomatis memutuskan siapa yang ditampilkan iklan. Tetap melakukan diskriminasi yang sama, menayangkan iklan kepada lebih dari dua miliar pengguna berdasarkan informasi demografis mereka. Juga diperbarui tentang inisiatif dan acara Tinjauan Teknologi MIT.  Sebuah tim yang dipimpin oleh Muhammad Ali dan Piotr Sapiezynski di Northeastern University menjalankan serangkaian iklan yang identik dengan sedikit variasi dalam anggaran, judul, teks, atau gambar yang tersedia.

Audiens yang Dijangkau Setiap Iklan

Mereka menemukan bahwa tweak halus itu memiliki dampak signifikan pada audiens yang dijangkau oleh setiap iklan — terutama ketika iklan itu untuk pekerjaan atau real estat. Posting untuk guru dan sekretaris prasekolah. Misalnya, ditunjukkan kepada sebagian besar wanita, sementara posting untuk petugas kebersihan dan sopir taksi ditunjukkan ke proporsi minoritas yang lebih tinggi. Iklan tentang rumah yang dijual juga ditampilkan kepada lebih banyak pengguna kulit putih, sementara iklan untuk rental ditampilkan kepada lebih banyak minoritas.

BACA juga : Metode Penelitian Manajemen Keuangan Dalam Berbisnis

Penargetan Iklan

Kami telah membuat perubahan penting pada alat penargetan iklan kami dan tahu bahwa ini hanya langkah pertama,” kata juru bicara Facebook dalam sebuah pernyataan dalam menanggapi temuan. “Kami telah melihat sistem pengiriman iklan kami dan telah melibatkan para pemimpin industri, akademisi, dan pakar hak-hak sipil tentang topik ini — dan kami sedang mengeksplorasi lebih banyak perubahan.

Baca Juga : Belajar Digital Marketing Dan Bisnis Online Sampai Menghasilkan

Alogaritma Iklan Facebook

Alogaritma penayangan Iklan facebook dibedakan jenis kelamin ras. Dalam beberapa hal, ini seharusnya tidak mengejutkan — bias dalam rekomendasi algoritma telah menjadi masalah yang diketahui selama bertahun-tahun. Pada 2013, misalnya, Latanya Sweeney, seorang profesor pemerintahan dan teknologi di Harvard, menerbitkan sebuah makalah yang menunjukkan diskriminasi rasial tersirat dari algoritma penayangan iklan Google. Masalahnya kembali ke bagaimana algoritma ini secara fundamental bekerja. Semuanya didasarkan pada pembelajaran mesin, yang menemukan pola dalam jumlah besar data dan menerapkannya kembali untuk membuat keputusan. Ada banyak cara yang bias dapat menetes selama proses ini.

Tujuan Pengoptimalan

Tetapi dua yang paling jelas dalam kasus Facebook terkait dengan masalah selama pembingkaian masalah dan pengumpulan data. Bisa terjadi selama pembingkaian masalah ketika tujuan model pembelajaran mesin diselaraskan dengan kebutuhan untuk menghindari diskriminasi. Alat periklanan Facebook memungkinkan pengiklan untuk memilih dari tiga tujuan pengoptimalan. Jumlah tampilan yang didapat iklan, jumlah klik dan jumlah keterlibatan yang diterimanya, dan jumlah penjualan yang dihasilkannya. Tetapi tujuan bisnis itu tidak ada hubungannya dengan, katakanlah, mempertahankan akses yang sama ke perumahan.

Pembedaan Target Pengguna Facebook

Penayangan iklan facebook dibedakan Jenis kelamin ras akibatnya, jika algoritma menemukan bahwa itu bisa mendapatkan lebih banyak keterlibatan dengan menunjukkan lebih banyak rumah pengguna kulit putih untuk pembelian. Itu akan berakhir mendiskriminasi pengguna kulit hitam. Bias terjadi selama pengumpulan data ketika data pelatihan mencerminkan prasangka yang ada. Alat periklanan Facebook mendasarkan keputusan optimisasinya pada preferensi historis yang telah ditunjukkan orang. Jika lebih banyak minoritas terlibat dengan iklan untuk disewa di masa lalu.

 

Study Baru

Model pembelajaran mesin akan mengidentifikasi pola itu dan menerapkannya kembali untuk selamanya. Sekali lagi, itu akan secara membabi buta memotong jalan kerja dan diskriminasi perumahan – tanpa secara eksplisit disuruh melakukannya. Sementara perilaku dalam pembelajaran mesin ini telah dipelajari selama beberapa waktu. Studi baru ini menawarkan pandangan yang lebih langsung ke ruang lingkup dampaknya pada akses masyarakat ke perumahan dan peluang kerja. Temuan ini eksplosif!” Christian Sandvig, direktur Pusat Etika, Masyarakat, dan Komputasi di University of Michigan, mengatakan kepada The Economist. Makalah ini memberi tahu kita bahwa […] data besar, yang digunakan dengan cara ini, tidak pernah bisa memberi kita dunia yang lebih baik.

 

Perbaikan Teknis

Faktanya, kemungkinan sistem ini membuat dunia lebih buruk dengan mempercepat masalah di dunia yang membuat segalanya tidak adil. Kabar baiknya adalah mungkin ada cara untuk mengatasi masalah ini, tetapi itu tidak akan mudah. Banyak peneliti AI sekarang mencari perbaikan teknis untuk bias pembelajaran mesin yang dapat menciptakan model iklan online yang lebih adil. Sebuah makalah baru-baru ini dari Universitas Yale dan Institut Teknologi India, misalnya, menunjukkan bahwa dimungkinkan untuk membatasi algoritma untuk meminimalkan perilaku diskriminatif, meskipun dengan biaya kecil untuk pendapatan iklan. Tetapi para pembuat kebijakan perlu memainkan peran yang lebih besar jika platform mulai berinvestasi dalam perbaikan semacam itu — terutama jika itu mungkin memengaruhi laba mereka. Ini awalnya muncul di buletin AI kami The Algorithm. Untuk mengirimnya langsung ke kotak Anda, daftar di sini secara gratis.

Leave a Reply

Your email address will not be published. Required fields are marked *

Shares
error: Content is protected !!
%d bloggers like this: