Cara melawan kebencian online
Ilmuwan data Jennifer Chayes berpikir kita dapat menggunakan alat komputasi untuk membasmi perilaku buruk secara online.
27 Oktober 2021

Christie There Kloko
apakah ada komputer kuantum?
Selama waktunya di Microsoft dan di dunia akademis, Jennifer Chayes telah berjuang untuk menggunakan ilmu data dan komputasi untuk membuat kecerdasan buatan lebih adil dan tidak terlalu bias.
Dari putus sekolah pada usia 15 tahun hingga menjadi ahli ilmu data di University of California, Berkeley, Chayes memiliki jalur karier yang cukup baik. Dia bergabung dengan UCLA pada tahun 1987 sebagai profesor matematika tetap. Sepuluh tahun kemudian, Microsoft membujuknya untuk ikut mendirikan Kelompok Teori Penelitian interdisipliner.
Cerita ini adalah bagian dari edisi November 2021 kami
- Lihat sisa masalah
- Langganan
Di lab Microsoft-nya di New York City, para peneliti menemukan bias dalam perangkat lunak pengenalan wajah perusahaan, yang menunjukkan bahwa sistem mengklasifikasikan wajah putih lebih akurat daripada wajah cokelat dan hitam. Temuan ini menyebabkan perusahaan menolak kontrak yang menguntungkan dengan departemen kepolisian dan mulai bekerja untuk menghilangkan bias dari algoritme tersebut. Itu Grup FATE (Fairness, Accountability, Transparency and Ethics in AI) telah dibuat di laboratorium.
Anil Ananthaswamy tanya Chayes, sekarang rekan rektor Divisi Komputasi, Ilmu Data, dan Masyarakat dan dekan Sekolah Informasi di Berkeley, bagaimana ilmu data mengubah komputasi dan bidang lainnya.
T: Seperti apa transisi dari akademisi ke industri?
A: Itu cukup mengejutkan. Wakil Presiden penelitian di Microsoft, Dan Ling, menelepon saya untuk mencoba meyakinkan saya untuk pergi wawancara. Saya berbicara dengannya selama sekitar 40 menit. Dan saya akhirnya berkata, Apakah Anda benar-benar ingin tahu apa yang mengganggu saya? Microsoft adalah sekelompok remaja laki-laki, dan saya tidak ingin menghabiskan hidup saya dengan sekelompok remaja laki-laki.
T: Bagaimana dia bereaksi terhadap itu?
J: Dia berkata, Oh, tidak, kami tidak. Datang dan temui kami. Saya bertemu dengan beberapa wanita luar biasa di sana ketika saya berkunjung, dan saya bertemu dengan orang-orang yang berpikiran terbuka dan fenomenal yang ingin mencoba hal-hal untuk mengubah dunia.
T: Bagaimana ilmu data mengubah komputasi?
KE: Saat kami mendapatkan lebih banyak data, ilmu komputer mulai melihat ke luar. Saya menganggap ilmu data sebagai perkawinan komputasi, statistik, etika, dan penekanan domain atau penekanan disiplin, baik itu biomedis dan kesehatan, iklim dan keberlanjutan, atau kesejahteraan manusia dan keadilan sosial, dan seterusnya. Ini mengubah komputasi.
T: Apakah ada perbedaan dalam cara ilmuwan data memecahkan masalah?
A: Dengan munculnya semua data ini, kami memiliki kesempatan untuk belajar dari data tanpa memiliki teori mengapa sesuatu terjadi. Terutama di era pembelajaran mesin dan pembelajaran mendalam ini, ini memungkinkan kita untuk menarik kesimpulan dan membuat prediksi tanpa teori yang mendasarinya.
T: Apakah itu bisa menyebabkan masalah?
KE: Beberapa menganggapnya sebagai masalah jika Anda memiliki, [misalnya], data biomedis. Data dengan sangat akurat memprediksi apa yang akan berhasil dan apa yang tidak, tanpa mekanisme biologis yang mendasarinya.
T: Ada keuntungan?
KE: Apa yang memungkinkan kita lakukan sekarang, dalam banyak kasus, adalah menjalankan apa yang oleh ekonom disebut kontrafaktual, di mana Anda benar-benar melihat variasi acak dalam data yang memungkinkan Anda menarik kesimpulan tanpa melakukan eksperimen. Itu sangat berguna.
Apakah saya benar-benar ingin mencoba pendidikan yang berbeda pada populasi yang berbeda? Atau apakah saya ingin melihat [bahwa] ada variasi acak di beberapa titik yang memungkinkan saya untuk menarik kesimpulan kausal yang sangat baik, dan karena itu saya dapat mendasarkan kebijakan padanya?
T: Apakah Anda melihat ada masalah dalam penggunaan data, terutama oleh perusahaan besar?
J: Ada banyak sekali masalah. Itu tidak hanya digunakan oleh perusahaan teknologi. Ini digunakan oleh perusahaan asuransi. Ini digunakan oleh platform pemerintah, platform kesehatan masyarakat, dan platform pendidikan. Jika Anda tidak secara eksplisit memahami bias apa yang dapat merayap masuk, baik dalam kumpulan data itu sendiri maupun dalam algoritme, kemungkinan besar Anda akan memperburuk bias.
Bias ini menyelinap masuk [ketika] tidak banyak data. Dan itu juga bisa berkorelasi dengan faktor lain. Saya pribadi bekerja menafsirkan bios dan CV secara otomatis. Kami tidak diperbolehkan menggunakan gender atau ras. Bahkan jika saya tidak melihat atribut yang dilindungi [ini], ada banyak hal [dalam data] yang merupakan proxy untuk jenis kelamin atau ras. Jika Anda pernah bersekolah di sekolah tertentu, jika Anda dibesarkan di lingkungan tertentu, jika Anda bermain olahraga tertentu dan Anda memiliki aktivitas tertentu, semua itu berkorelasi [dengan jenis kelamin atau ras].
T: Apakah algoritme menangkap proxy ini?
KE: Mereka memperburuknya. Anda harus secara eksplisit memahami ini, dan Anda harus secara eksplisit mencegahnya dalam menulis algoritme.
T: Bagaimana kita bisa mengatasi masalah seperti itu?
KE: Ada seluruh area FATE: keadilan, akuntabilitas, transparansi, dan etika dalam AI, yang merupakan desain dari algoritme ini dan memahami apa itu algoritme. Tapi masih banyak lagi yang perlu kita lakukan.
T: Dan ilmu data membantu?
J: Ini benar-benar ilmu data. Ada bagian dari web yang disebut manosphere, di mana banyak kebencian berasal. Agak sulit dilacak. Tetapi jika Anda menggunakan pemrosesan bahasa alami dan alat lainnya, Anda dapat melihat dari mana asalnya. Anda juga dapat mencoba membangun antarmuka yang memungkinkan kelompok advokasi dan lainnya menemukan ini dan membantu membasminya. Ini lebih dari sekadar bersikap adil. Ini membalikkan keadaan di mana platform ini telah direbut untuk meningkatkan bias dan kebencian dan mengatakan, Kami akan menggunakan kekuatan komputasi dan ilmu data untuk mengidentifikasi dan mengurangi kebencian.