Soal Privasi, Meta AI Disebut Lebih Mengkhawatirkan dari ChatGPT

Kompas.com - Diperbarui 12/05/2025, 07:42 WIB
Reska K. Nistanto

Editor

KOMPAS.com – Peluncuran chatbot Meta AI yang terintegrasi ke dalam aplikasi seperti Facebook, Instagram, dan WhatsApp menuai sorotan tajam dari para pakar privasi digital.

Teknologi kecerdasan buatan milik Meta ini dianggap lebih berisiko terhadap privasi pengguna dibandingkan ChatGPT, lantaran pola pengumpulan data dan proses opt-out yang dinilai membingungkan.

Berbeda dengan ChatGPT yang tidak mengakses data pribadi pengguna secara otomatis, Meta AI memanfaatkan konten publik pengguna dan interaksi mereka di platform Meta sebagai bahan pelatihan model AI.

Artinya, unggahan, komentar, hingga bio pengguna dapat dianalisis dan digunakan untuk meningkatkan performa chatbot mereka.

Baca juga: Meta AI Kini Jadi Aplikasi Mandiri, Lebih dari Sekadar Chatbot AI

Meta memang menyatakan tidak menggunakan pesan pribadi atau konten non-publik untuk pelatihan, namun tidak semua pengguna menyadari sejauh mana informasi mereka diproses.

Di Uni Eropa, Meta menyediakan formulir bagi pengguna yang ingin menghentikan penggunaan data mereka untuk pelatihan AI.

Namun, formulir tersebut tidak mudah diakses dan mewajibkan pengguna menuliskan alasan penolakan mereka. Langkah ini dikritik keras oleh aktivis privasi.

Praktik ini dinilai sebagai bentuk “dark pattern”, yakni desain antarmuka yang secara sengaja membingungkan pengguna dan membuat mereka lebih sulit mengambil keputusan yang menguntungkan privasi mereka.

Di platform WhatsApp, Meta bahkan menambahkan ikon Meta AI di bagian atas layar, menjadikannya fitur default yang sulit dihindari. Pengguna harus aktif mencari tahu untuk menonaktifkan atau mengabaikan fitur tersebut.

Baca juga: Fitur AI Baru di WhatsApp Jamin Tak Ambil Data Privasi Pengguna

Bagi banyak pengguna, kedekatan antara AI dan data kehidupan pribadi mereka terasa mengganggu, terlebih jika tidak ada transparansi penuh dalam bagaimana data tersebut diproses dan digunakan.

Pakar privasi digital menyuarakan kekhawatiran bahwa Meta mengandalkan keterikatan sosial pengguna di platform mereka untuk “mengorbankan” data, demi pengembangan teknologi AI.

Beberapa pihak menyerukan regulasi yang lebih ketat agar perusahaan teknologi tidak menyalahgunakan kepercayaan publik.

Sementara itu, dikutip KompasTekno dari Washington Post, Sabtu (10/5/2025), Meta membela diri dengan menyebut bahwa semua proses pelatihan AI mereka tunduk pada hukum perlindungan data yang berlaku di masing-masing negara, dan pengguna tetap memiliki kendali atas datanya.

Simak breaking news dan berita pilihan kami langsung di ponselmu. Pilih saluran andalanmu akses berita Kompas.com WhatsApp Channel : https://www.whatsapp.com/channel/0029VaFPbedBPzjZrk13HO3D. Pastikan kamu sudah install aplikasi WhatsApp ya.



Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
Baca berita tanpa iklan. Gabung Kompas.com+
Komentar di Artikel Lainnya
Baca berita tanpa iklan. Gabung Kompas.com+
Bagikan artikel ini melalui
Oke
Login untuk memaksimalkan pengalaman mengakses Kompas.com
atau