Apakah Software Anda Rasis Tentang Budaya Yang Berbeda?

Apakah Software Anda Rasis Tentang Budaya Yang Berbeda? – Tampaknya tidak masuk akal bahwa perangkat lunak komputer yang tampaknya netral dapat melanggengkan bias gender atau budaya di seluruh dunia. Tetapi, ketika perangkat lunak dan teknologi internet mulai menembus pasar baru yang beragam, beberapa pengguna mulai memperhatikan frasa dan konotasi bermasalah yang muncul dalam penggunaan sehari-hari mereka.

Apakah Software Anda Rasis Tentang Budaya Yang Berbeda?

Benar-benar rasis atau hanya ketinggalan jaman?

Masalah ini pertama kali menjadi menonjol ketika pengguna online mulai memperhatikan penggunaan kata ganti Google Terjemahan yang aneh untuk beberapa bahasa. Terjemahan tertentu cenderung terjebak dalam literatur usang, terutama ketika menyangkut kata ganti untuk profesi dan frasa. Misalnya, penelitian online mengungkapkan bahwa dalam banyak terjemahan, dokter ternyata adalah pria sedangkan perawat adalah wanita. http://www.realworldevaluation.org/

Yang lain telah mengangkat masalah serupa dengan perangkat lunak asisten pribadi berbasis suara seperti Siri Apple dan Alexa Amazon pengguna telah melaporkan asisten pribadi berbasis suara tidak dapat mengidentifikasi aksen yang berbeda. http://www.realworldevaluation.org/

Contoh perangkat lunak rasis ada di tempat lain perangkat lunak pengenalan foto Google mendapat kecaman karena melabeli pria kulit hitam dan temannya sebagai “gorila,” dan chatbot Twitter otomatis Microsoft, yang dimaksudkan untuk menjawab pertanyaan dan memberikan dukungan tanpa perlu campur tangan manusia, di-Tweet secara otomatis postingan rasis.

Sebuah cerminan umat manusia

Banyak yang percaya bahwa masalah tersebut berasal dari industri teknologi yang masih didominasi pria kulit putih, dengan banyak produk masih berkantor pusat dan berfokus pada Global North.

Ini jelas mendorong banyak bias dalam perangkat lunak mandiri dan produk yang dikemas, dan banyak yang memprotes perusahaan media sosial seperti Facebook dan Youtube karena menyensor budaya Afrika. Namun, dalam kasus yang melibatkan perangkat lunak, ada kekuatan lain yang berperan yang menyoroti pengguna dan sumber daya lain di dunia online.

Banyak produk online, seperti chatbots, Google Terjemahan, dan pengenalan foto didorong oleh sumber daya online baik materi cetak yang mungkin sudah usang atau pengguna lain. Belakangan terungkap bahwa skandal chatbot Microsoft, misalnya, disebabkan oleh mesin yang mempelajari istilah dan frasa pengguna rasis, menganggapnya dapat diterima.

Google Terjemahan menggunakan teknologi serupa untuk belajar dari pengguna lain dan bahkan mencetak sumber daya. Dalam beberapa kasus, perangkat lunak mempelajari terjemahan dari kumpulan tulisan yang ada banyak di antaranya memiliki bias yang mengakar terhadap budaya yang berbeda.

Meskipun dalam kasus ini tampaknya perangkat lunaklah yang mendorong kecenderungan rasis, dalam banyak kasus mereka hanya mencerminkan masyarakat baik tren masa kini atau sejarah yang entah bagaimana tampak dominan dalam algoritme sistem.

Dan karena semakin banyak kehidupan manusia yang mulai didominasi oleh kecerdasan buatan dan algoritme mereka mendikte segalanya, mulai dari rekomendasi Netflix hingga sangatlah penting bagi raksasa teknologi untuk mengakui bias mesin dan berupaya menemukan solusi nyata dan inklusif.

Mencari solusi

Pemerintah dan raksasa teknologi lambat dalam mengambil solusi, tetapi banyak yang mulai menyadari rasisme yang melekat pada banyak aplikasi perangkat lunak dan mencoba menyelesaikan masalah tersebut.

Proyek seperti AI Terbuka Elon Musk dapat bekerja untuk membuat kecerdasan buatan lebih transparan dan mencegahnya menjadi jahat secara inheren. Dan Undang-Undang AI Masa Depan Amerika Serikat memiliki subbagian yang berhubungan dengan mendukung pengembangan kecerdasan buatan yang tidak memihak.

Tetapi mengingat seberapa dalam masalah ini dan bagaimana akar masalahnya adalah algoritme yang hanya sebaik data yang kami berikan, tampaknya tidak mungkin undang-undang apa pun dapat dengan cepat sampai ke akar masalah.

Apakah Software Anda Rasis Tentang Budaya Yang Berbeda?

Saat raksasa teknologi berebut untuk menyelesaikan mimpi buruk PR akibat insiden semacam itu, banyak yang menganggap kesadaran dan kemauan mereka untuk menyelesaikan masalah sebagai titik awal yang baik. Meskipun banyak insiden yang tidak disengaja seperti kata-kata kasar Twitter rasis dari chatbot Microsoft tidak dapat disangkal bahwa mereka memiliki dampak yang bertahan lama pada pengguna yang terpengaruh.

Sampai hari ketika mesin menjadi cukup cerdas untuk mengidentifikasi perilaku rasis atau membenarkan keputusan mereka sendiri, perusahaan perangkat lunak dan individu memiliki tanggung jawab yang tidak dapat disangkal untuk memastikan representasi yang setara dan adil dari budaya yang berbeda.

Scroll to top