Oleh Arif Perdana (Universitas Monash, Indonesia), dan Ridoan Karim (Universitas Monash, Malaysia).
- Pengembangan AI saat ini dipegang oleh sejumlah kecil perusahaan. Kewaspadaan publik dapat membantu memastikan mereka tetap menggunakan teknologi ini secara etis.
WARREN BUFFETT sebagian benar tentang AI. Investor miliarder dan filantropis itu mengatakan kepada CNN awal tahun ini: “Kita membiarkan jin keluar dari botol ketika kita mengembangkan senjata nuklir… AI agak mirip — sebagian sudah keluar dari botol.”
Alasan Buffett adalah bahwa, seperti senjata nuklir, AI berpotensi melepaskan konsekuensi yang mendalam dalam skala besar, baik untuk hal yang baik maupun yang buruk.
Dan, seperti senjata nuklir, AI terkonsentrasi di tangan segelintir orang. Dalam kasus AI, perusahaan teknologi dan negara. Ini adalah perbandingan yang tidak sering dibicarakan.
Ketika perusahaan-perusahaan ini mendorong batas-batas inovasi, muncul pertanyaan kritis: Apakah kita mengorbankan keadilan dan kesejahteraan masyarakat demi kemajuan? Satu studi menunjukkan bahwa pengaruh Big Tech ada di mana-mana di semua aliran proses kebijakan, yang memperkuat posisi mereka sebagai “pengusaha kebijakan super.”
Hal ini memungkinkan mereka untuk mengarahkan kebijakan yang menguntungkan kepentingan mereka, sering kali dengan mengorbankan kepentingan masyarakat yang lebih luas. Kekuasaan yang terkonsentrasi ini juga memungkinkan perusahaan-perusahaan ini untuk membentuk teknologi AI menggunakan kumpulan data besar yang mencerminkan demografi dan perilaku tertentu, sering kali dengan mengorbankan masyarakat yang lebih luas.
Hasilnya adalah lanskap teknologi yang, meskipun berkembang pesat, mungkin secara tidak sengaja memperdalam kesenjangan sosial dan melestarikan bias yang ada. Kekhawatiran etika Kekhawatiran etika yang berasal dari konsentrasi kekuasaan ini signifikan. Jika model AI terutama dilatih pada data yang mencerminkan perilaku satu demografi, model tersebut mungkin berkinerja buruk saat berinteraksi dengan atau membuat keputusan tentang demografi lain, yang berpotensi menyebabkan diskriminasi dan ketidakadilan sosial.
Amplifikasi bias ini bukan hanya masalah teoritis tetapi kenyataan mendesak yang menuntut perhatian segera. Porcha Woodruff, misalnya, seorang wanita kulit hitam yang sedang hamil, mendapati dirinya ditangkap secara tidak sah karena kesalahan pengenalan wajah—pengingat nyata akan konsekuensi AI di dunia nyata.
Dalam perawatan kesehatan, algoritma yang banyak digunakan sangat meremehkan kebutuhan pasien kulit hitam, yang menyebabkan perawatan yang tidak memadai dan melanggengkan kesenjangan yang ada. Kasus-kasus ini menggarisbawahi pola yang meresahkan: sistem AI, yang dilatih pada data yang bias, memperbesar ketidaksetaraan sosial.
Pertimbangkan algoritma yang menggerakkan sistem AI ini, yang dikembangkan terutama dalam lingkungan yang kurang pengawasan terkait keadilan dan inklusivitas.
Mengembangkan bias
Akibatnya, aplikasi AI di bidang-bidang seperti pengenalan wajah, praktik perekrutan, dan persetujuan pinjaman dapat menghasilkan hasil yang bias, yang memengaruhi komunitas yang kurang terwakili secara tidak proporsional.
Risiko ini diperparah oleh model bisnis perusahaan-perusahaan ini, yang menekankan pengembangan dan penerapan yang cepat daripada tinjauan etika yang ketat, yang mengutamakan keuntungan di atas pertimbangan yang tepat tentang dampak sosial jangka panjang.
Untuk mengatasi tantangan ini, perubahan dalam pengembangan AI sangat dibutuhkan. Memperluas pengaruh di luar perusahaan teknologi besar untuk mencakup peneliti independen, ahli etika, kelompok kepentingan publik, dan regulator pemerintah yang bekerja sama untuk menetapkan pedoman yang memprioritaskan pertimbangan etika dan kesejahteraan masyarakat dalam pengembangan AI akan menjadi awal yang baik.
Pemerintah memiliki peran penting untuk dimainkan.
Penegakan antimonopoli yang ketat akan membatasi kekuatan perusahaan teknologi besar dan mendorong persaingan.
Pengawas independen dengan kewenangan untuk memberikan sanksi terhadap praktik perusahaan teknologi besar juga akan membantu meningkatkan partisipasi publik dalam pembuatan kebijakan dan mensyaratkan transparansi dalam algoritme dan praktik data perusahaan teknologi.
Kerja sama global dalam mengembangkan standar etika dan investasi dalam program pendidikan untuk memberdayakan warga negara guna memahami dampak teknologi pada masyarakat akan semakin mendukung upaya ini.
Dunia akademis juga dapat melangkah maju. Peneliti dapat memajukan metode untuk mendeteksi dan menetralkan bias dalam algoritme AI dan data pelatihan. Dengan melibatkan publik, akademisi dapat memastikan beragam suara didengar dalam pembentukan kebijakan AI.
Kewaspadaan dan partisipasi publik sangat diperlukan untuk meminta pertanggungjawaban perusahaan dan pemerintah. Publik dapat memberikan tekanan pasar dengan memilih produk AI dari perusahaan yang menunjukkan praktik etis. Meskipun mengatur AI akan membantu mencegah pemusatan kekuatannya di antara segelintir orang, langkah-langkah antimonopoli yang mengekang perilaku monopoli, mempromosikan standar terbuka, dan mendukung perusahaan dan perusahaan rintisan yang lebih kecil dapat membantu mengarahkan kemajuan AI menuju kebaikan publik.
Peluang unik
Meskipun demikian, tantangannya tetap bahwa pengembangan AI memerlukan data dan sumber daya komputasi yang substansial, yang dapat menjadi rintangan signifikan bagi pemain yang lebih kecil.
Di sinilah AI sumber terbuka menghadirkan peluang unik untuk mendemokratisasi akses, yang berpotensi menciptakan lebih banyak inovasi di berbagai sektor.
Para peneliti, perusahaan rintisan, dan lembaga pendidikan memiliki akses yang sama untuk terlibat dengan perangkat AI canggih yang menyamakan kedudukan.
Masa depan AI tidak ditentukan sebelumnya. Mengambil tindakan sekarang dapat membentuk lanskap teknologi yang mencerminkan nilai dan aspirasi kolektif kita, memastikan manfaat AI dibagikan secara merata di seluruh masyarakat.
Pertanyaannya bukanlah apakah kita mampu mengambil langkah-langkah ini, tetapi apakah kita mampu untuk tidak melakukannya?. ***
- Arif Perdana adalah Associate Professor di Monash University Indonesia, yang mengkhususkan diri dalam strategi digital, dan ilmu data. Ia adalah direktur Action Lab, Indonesia.
- Ridoan Karim adalah Dosen Hukum Bisnis, dan Wakil Direktur Studi Sarjana di School of Business, Monash University Malaysia. Ia telah mengajar dan meneliti di bidang bisnis dan hukum siber.
- Awalnya diterbitkan di bawah Creative Commons oleh 360info™.