Oleh Giuseppe Riva (360info)
- Universitas Katolik Milan
Meskipun berita palsu bukanlah fenomena baru, namun penyebarannya saat ini belum pernah terjadi sebelumnya. Disinformasi lebih dari sekedar rekayasa berita yang dibuat-buat. Seringkali berisi materi asli yang digunakan di luar konteks atau konten yang dimanipulasi.
Meluasnya penggunaan kecerdasan buatan (AI) telah mempersulit tugas memverifikasi berita otentik, sehingga berkontribusi pada menurunnya kepercayaan terhadap jurnalis.
Trust Barometer tahun 2024 yang dilakukan Edelman, merupakan sebuah survei global (28 negara, lebih dari 32.000 responden) yang mengukur kepercayaan publik terhadap media, pemerintah, LSM, dan dunia usaha, menemukan bahwa jurnalis adalah profesi yang paling tidak dipercaya dengan 64 persen responden mengatakan bahwa mereka sengaja mencoba menyesatkan orang, dengan cerita yang mereka tahu salah, atau dengan menggunakan cerita yang dilebih-lebihkan.
Jika rasa tidak percaya tidak cukup buruk, ada juga persepsi luas bahwa chatbot berbasis model bahasa seperti ChatGPT-4 atau Gemini dapat membuat jurnalis ketinggalan zaman.
Misinformasi mengikis kepercayaan terhadap institusi, memperdalam perpecahan masyarakat, dan melemahkan pengambilan keputusan.
Namun AI sendiri bisa menjadi penawar terhadap ciptaannya sendiri.
Sistem AI dapat memberikan penjelasan yang komprehensif namun mudah digunakan untuk mengklasifikasikan dan mendeteksi berita palsu.
AI sangat penting dalam mendeteksi disinformasi karena AI secara metodis menganalisis nuansa linguistik dan detail kontekstual yang mungkin diabaikan oleh moderator manusia.
Pada bulan Maret 2024, kelompok penelitian di Universitas Sains dan Teknologi Norwegia (NTNU) mengembangkan algoritme AI canggih yang mengintegrasikan berbagai teknik Pembelajaran Mesin dan Pembelajaran Mendalam untuk mengidentifikasi berita palsu di tiga kumpulan data berbeda.
Model ini melampaui model lainnya, dengan akurasi lebih dari 97 persen dalam mengklasifikasikan artikel berita.
Keberhasilan sistem ini terletak pada penggabungan metode analisis canggih yang dapat mendeteksi pola halus dan isyarat linguistik yang menunjukkan disinformasi.
Penggunaan AI yang dapat dijelaskan tidak hanya memastikan transparansi dalam proses deteksi tetapi juga menawarkan wawasan interpretasi yang berharga.
Dengan memberikan wawasan tentang bagaimana sistem sampai pada kesimpulannya, pengguna dapat lebih memahami alasan di balik peringatan atau tanda konten.
Transparansi ini membantu membangun kepercayaan dan memberikan peluang untuk menyempurnakan metode deteksi lebih lanjut. Dalam perjuangan melawan misinformasi, AI menawarkan tiga keuntungan penting.
Pertama, algoritme AI dapat dilatih untuk mengidentifikasi pola linguistik yang terkait dengan disinformasi. Hal ini mencakup teknik seperti analisis sentimen untuk mendeteksi bahasa bermuatan emosional yang sering digunakan dalam konten manipulatif, atau identifikasi penanda gaya yang menyimpang dari norma jurnalistik yang sudah ada.
Kedua, AI dapat digunakan untuk mengotomatiskan proses pengecekan fakta dengan melakukan referensi silang informasi dengan sumber yang kredibel. Dengan menganalisis klaim faktual terhadap basis pengetahuan dan database yang sudah ada, AI dapat menandai pernyataan yang berpotensi salah atau menyesatkan.
Ketiga, AI dapat melacak penyebaran informasi di platform media sosial, mengidentifikasi pola mencurigakan dan perilaku pengguna yang terkait dengan kampanye disinformasi. Hal ini memungkinkan deteksi dini tren yang muncul dan strategi intervensi yang ditargetkan.
AI tidak hanya berguna untuk mengidentifikasi berita palsu, tetapi juga dapat membantu jurnalis menumbuhkan ekosistem berita yang sehat dengan membekali mereka dengan alat untuk mengedukasi pembaca dalam mengidentifikasi berita asli.
Misalnya, AI membantu moderator konten dengan menandai konten yang berpotensi berbahaya untuk ditinjau oleh manusia, sehingga menciptakan pendekatan moderasi yang lebih skalabel dan efisien. Alat AI juga dapat digunakan untuk menciptakan sumber daya pendidikan yang mengajarkan orang untuk mengevaluasi informasi online secara kritis.
Chatbots dan modul interaktif dapat menawarkan panduan real-time dalam mengidentifikasi bias, memverifikasi sumber, dan mengenali teknik manipulatif.
Meski menjanjikan, AI bukanlah solusi sempurna untuk memerangi disinformasi.
Model AI yang dilatih berdasarkan kumpulan data yang salah atau bias berisiko melanggengkan prasangka dan misinformasi yang sudah ada.
Penting untuk mengenali bias, beradaptasi dengan taktik disinformasi yang terus berkembang, dan memastikan penerapan yang etis dan bertanggung jawab.
Memastikan bahwa data pelatihan beragam dan representatif sangat penting untuk menghindari bias sosial dan politik yang semakin kuat.
Tantangan lainnya adalah taktik disinformasi yang terus berkembang untuk menghindari deteksi, sehingga model AI harus terus diperbarui dan disempurnakan untuk mengimbangi ancaman yang muncul ini.
Oleh karena itu, keterampilan baru sangat penting untuk menerapkan kewarganegaraan yang terinformasi. Kemampuan untuk membedakan sumber, proses, dan mediator, terutama dalam menghadapi algoritma yang diam dan tidak terlihat, menjadi sangat penting.
Wawasan ini mengawali laporan akhir studi yang dilakukan oleh kantor penelitian Rai (Radio Televisi Italia) dan Universitas Katolik Hati Kudus, yang memetakan inisiatif Pendidikan Media mengenai topik misinformasi online.
Komprehensif
Berdasarkan analisis, penelitian ini menyoroti upaya penting yang dilakukan untuk membekali individu dengan keterampilan yang diperlukan untuk menavigasi lanskap informasi digital yang terus berkembang.
Mencapai keseimbangan antara melindungi kebebasan berpendapat dan membatasi penyebaran konten berbahaya sangatlah penting, dan pengawasan manusia diperlukan untuk menentukan respons yang tepat terhadap materi yang ditandai. Hanya upaya gabungan antara alat AI dan keahlian manusia yang akan memberikan hasil terbaik.
Giuseppe Riva PhD adalah Direktur Lab Teknologi Kemanusiaan di Universitas Katolik Milan, Italia, dan menjabat sebagai Profesor Penuh Psikologi Umum dan Kognitif. Humane Technology Lab (HTLAB) adalah Laboratorium Università Cattolica yang didirikan untuk menyelidiki hubungan antara pengalaman manusia dan teknologi. Humane Technology Lab mempertimbangkan aspek psiko-sosial, pedagogi, ekonomi, hukum, dan filosofis terkait dengan semakin menyebarnya teknologi digital, khususnya kecerdasan buatan dan robotika.***