Aplikasi Selfie Ini Mampu Hina Orang, Bikin Warganet Geram

Sofia Citradewi
Sofia Citradewi

Aplikasi Selfie Ini Mampu Hina Orang, Bikin Warganet Geram Daily Mail

Winnetnews.com - Sebuah aplikasi bernama ImageNet Roulete yang dikembangkan oleh Princeton University viral karena kemampuannya mengklasifikasikan wajah seseorang ke dalam kategori tertentu ketika mereka mengunggah swafoto. 

Namun banyak warganet yang merasa dilecehkan, karena perangkat AI (Artificial Intelligent) ini justru menampilkan keterangan rasis dan penghinaan, seperti ‘negro’, ‘tersangka pemerkosaan’, ‘mata juling’, dan sebagainya.

Aplikasi ini mengklaim diri sebagai sebuah mesin yang dapat memberikan ‘jawaban jujur’. Pengembang aplikasi ini mengatakan, aplikasi ini memang sengaja dibuat persis dengan niat untuk menyebabkan orang merasa terserang. Itu sengaja dimaksudkan provokatif agar menyiroti bagaimana prasangka bawaan dan berbagai bentuk diskriminasi bekerja pada pembelajaran mesin AI.

Tetapi banyak pengguna yang masih geram karena foto mereka memainkan peran yang tampaknya tanpa disadari dalam proyek kontroversial itu.

Seorang staf MailOnline yang mencoba aplikasi itu dijuluki 'tersangka pemerkosaan' ketika dia mengunggah foto selfie-nya. Pengguna lain bahkan mendapati berbagai penghinaan rasis melalui klasifikasi perangkat ini.

ImageNet Roulette dilatih dengan jutaan gambar dan menggunakan jaringan saraf untuk mengklasifikasikan gambar orang.

Memang banyak masalah  dan isu dalam cara pembelajaran mesin dan kecerdasan buatan ini. Salah satunya ia dapat secara tidak sengaja menyakitkan, prasangka yang tak relevan dan prasangka yang tidak disadari. Seringkali, itu berasal dari kurangnya keragaman dalam pelatihannya.

Dilansir Daily Mail yang mengutip situs aplikasi ini: ImageNet berisi sejumlah kategori bermasalah, ofensif dan aneh - semua diambil dari WordNet.

Beberapa menggunakan terminologi misoginis atau rasis. Oleh karena itu, hasil yang dikembalikan oleh ImageNet Roulette juga akan didasarkan pada kategori tersebut.

“Itu dengan desain: kami ingin menjelaskan apa yang terjadi ketika sistem teknis dilatih tentang data pelatihan yang bermasalah.”

Cara pengklasifikasian orang oleh AI ini jarang dibuat terlihat oleh orang yang diklasifikasikan. ImageNet Roulette memberikan pandangan sekilas ke proses itu - dan untuk menunjukkan cara-cara kesalahan yang bisa terjadi.

Teknologi ini dikembangkan untuk menunjukkan pentingnya memilih data yang benar ketika melatih sistem pembelajaran mesin, untuk menghindari bias yang ditunjukkannya.

Wartawan Julia Carrie Wong mencoba aplikasi tersebut dan mengungkapkan dalam sebuah artikel untuk The Guardian bahwa aplikasi ini menyebutnya 'orang bodoh'.

Dia menulis: “Saya tidak tahu persis apa yang saya harapkan dari mesin untuk memberi tahu saya tentang diri saya, tetapi saya tidak mengharapkan apa yang saya dapatkan: versi baru dari headshot resmi Guardian saya, berlabel cetak hijau neon: ‘mata sipit’, ”

“Di bawah foto, label saya sangat membantu, didefinisikan sebagai ‘istilah yang meremehkan untuk orang Asia (terutama untuk tentara Vietnam Utara dalam Perang Vietnam)’, ”

"ImageNet Roulette dimaksudkan untuk menunjukkan bagaimana berbagai jenis politik menyebar melalui sistem teknis, seringkali dengan pencipta sistem itu bahkan menyadarinya," tulis tim pengembang di situs web.

Dilansir Business Insider, AI dilatih menggunakan ImageNet, yang merupakan 14 juta sistem data gambar besar yang dibuat pada 2009.

Pembuat ImageNet Roulette melatih AI mereka pada 2833 sub-kategori 'orang' yang ditemukan di ImageNet.

Untuk melihat pendapat AI ini tentang Anda, cukup potret sebuah gambar menggunakan webcam atau unggah gambar ke situs web - dan dalam beberapa detik itu akan menghasilkan klasifikasi.

Apa Reaksi Kamu?