Anak di Bawah Umur Gugat xAI di California atas Dugaan Gambar Deepfake dari Grok
Tiga anak di bawah umur dari Tennessee menggugat perusahaan AI milik Elon Musk, xAI, dalam gugatan class action di pengadilan federal. Mereka menuduh chatbot Grok menghasilkan konten pelecehan seksual anak (CSAM) berbasis AI menggunakan foto asli mereka, serta menilai perusahaan sengaja mengabaikan standar keamanan demi keuntungan.
Gugatan yang diajukan di Pengadilan Distrik California Utara itu menyebut Grok digunakan untuk membuat dan menyebarkan konten ilegal tersebut. Para korban, yang disamarkan sebagai Jane Doe 1, 2, dan 3, mengatakan gambar yang telah dimanipulasi itu beredar luas di platform seperti Discord, Telegram, dan situs berbagi file, menyebabkan trauma emosional dan kerusakan reputasi.
Dalam dokumen gugatan disebutkan bahwa xAI melihat peluang bisnis dari celah ini, dengan tetap merilis model AI generatif yang mampu membuat konten seksual dari foto atau video orang nyata—termasuk anak-anak—meskipun risikonya sudah diketahui.
Insiden ini terjadi antara pertengahan 2025 hingga awal 2026. Salah satu korban mengetahui kasus ini setelah seorang pengguna anonim menemukan ratusan file berisi konten hasil AI yang diperjualbelikan di komunitas online.
Para penggugat juga menilai pelaku mengakses Grok melalui aplikasi pihak ketiga yang telah melisensikan teknologi xAI. Skema ini diduga digunakan untuk menjauhkan perusahaan dari tanggung jawab hukum, sambil tetap memonetisasi teknologi inti mereka.
Di tengah tekanan publik pada Januari, Elon Musk sempat menyatakan di platform X bahwa ia tidak mengetahui adanya gambar telanjang anak di bawah umur, serta menegaskan bahwa sistemnya akan menolak permintaan konten ilegal.
Namun, laporan dari Center for Countering Digital Hate yang dikutip dalam gugatan mengungkap bahwa Grok diduga menghasilkan sekitar 23.338 gambar seksual anak hanya dalam periode 29 Desember 2025 hingga 9 Januari 2026—setara satu gambar setiap 41 detik.
Para korban menuntut ganti rugi minimal USD 150.000 per pelanggaran berdasarkan Masha’s Law, serta meminta penyitaan keuntungan, denda tambahan, biaya hukum, dan larangan permanen terhadap praktik tersebut.
Kasus ini menjadi salah satu preseden awal yang mencoba menjerat langsung perusahaan AI atas produksi dan distribusi konten ilegal berbasis AI. Gugatan ini juga muncul di tengah investigasi terhadap Grok di berbagai yurisdiksi global, termasuk AS, Uni Eropa, Inggris, Prancis, Irlandia, dan Australia.
Menurut pakar hukum, jika sebuah sistem AI sejak awal dirancang tanpa pengaman memadai, maka munculnya penyalahgunaan bukanlah hal yang tidak terduga, melainkan konsekuensi yang bisa diprediksi. Pengadilan kemungkinan akan menilai AI bukan sekadar platform, tetapi juga sebagai produk, sehingga standar keamanan—terutama terkait perlindungan anak—akan diuji secara ketat.
0 Comments