Selamat datang di website E-PAPER PERPUSTAKAAN DPRRI.

Koleksi Perpustakaan DPR RI

Judul Grok dan Anarki Digital: Banjir Pornografi Sintetis
Tanggal 13 Januari 2026
Surat Kabar Jakarta Post
Halaman 7
Kata Kunci teknologi
AKD - Komisi I
Isi Artikel

Fenomena ini bagai residu beracun dari kemajuan kecerdasan buatan (AI) yang selama ini banyak diagung-agungkan, bahkan oleh pemerintah.

Oleh Maulana Akbar

Meski fitur pembangkit gambar Grok-2 telah dirilis sejak Agustus 2024, ancaman sesungguhnya muncul akhir-akhir ini. Lini masa media sosial X (sebelumnya Twitter) kini dibanjiri oleh tren manipulasi visual yang vulgar, nirsensor, dan meresahkan: mengubah foto seseorang yang berpakaian sopan menjadi tampilan busana yang melanggar kepatutan. Ironisnya, hal ini dapat dilakukan dalam hitungan detik dengan hanya perintah teks (prompt) sederhana. Fenomena ini bagai residu beracun dari kemajuan kecerdasan buatan (AI) yang selama ini banyak diagung-agungkan, bahkan oleh pemerintah.

Eskalasi ini terjadi karena adanya pergeseran kemampuan teknis yang signifikan dari AI. Jika sebelumnya AI generatif hanya mampu menciptakan bentuk fiktif dari nol (text-to-image), kini kemampuannya sangat baik untuk memanipulasi gambar yang sangat presisi (image-to-image). Pengguna tidak perlu lagi memiliki keahlian penyuntingan gambar yang baik, tetapi cukup mengunggah foto seseorang dengan melakukan perintah manipulatif, algoritma AI akan melakukan penyuntingan dengan cepat dan presisi tanpa mempertimbangkan bahwa gambar yang dihasilkan patut atau tidak.

Lantas, apakah ini sinyal bahaya yang memaksa kita untuk berpikir dua kali dalam menyikapi euforia AI? Ketika teknologi pada akhirnya melucuti privasi visual seseorang, apakah kemajuan teknologi selalu memiliki konsekuensi, dan dalam kasus ini adalah kemunduran etika.

Ideologi tanpa pagar

Peristiwa ini pada dasarnya bukanlah kecelakaan teknis, melainkan konsekuensi dari desain AI yang disengaja (by design). Tidak seperti dengan produk AI lainnya, sebut saja OpenAI dan Google yang sudah membangun ”pagar pengaman” dengan menerapkan etika yang ketat, xAI yang merupakan perusahaan di balik Grok justru mengabaikannya atas nama kebebasan ekspresi mutlak. Keputusan tersebut tidak lepas dari peran Elon Musk yang melakukan banyak perubahan di platform X, yang sebelumnya ketat dalam memoderasi konten, kini terbuka dalam menentukan dikursus, walaupun topik yang dibahas adalah disinformasi, ujaran kebencian, ataupun pornografi.

Barangkali, sudut pandang pragmatis dari ideologi ini untuk menawarkan inklusivitas tanpa batas: siapa pun dapat melakukan apa pun. Dari sisi kacamata pengembangan teknologi, AI akan dapat berevolusi dengan baik apabila memiliki banyak pengguna dan dapat menyelesaikan berbagai permasalahan. Dalam logika ini, etika sering kali membatasi kebebasan tersebut. Mungkin itu yang menjadi landasan pemikiran Musk dalam mendesain Grok.

Harus diakui, filosofi inovasi ekstrem Musk yang ”anti-kemapanan” ini terbukti sukses di ranah rekayasa fisik (hard engineering) dengan berdirinya perusahaan teknologi raksasa, seperti Tesla, SpaceX, Neuralink, dan The Boring Company. Perusahaan-perusahaan tersebut berhasil mendobrak batas-batas industri dengan keberanian yang berisiko tinggi. Namun, ideologi tersebut menjadi persoalan ketika mentalitas ”move fast and break things” ini diadopsi mentah-mentah di ranah sosiologis melalui AI. Musk mungkin berhasil dengan eksperimen roket, yang apabila gagal hanya meledakkan besi. Namun, bereksperimen dengan AI tanpa etika berisiko akan meledakkan tatanan sosial.

 

Ideologi ini, menurut penulis, memiliki kekeliruan dasar: ruang digital yang merupakan ruang ekspresi tanpa batas negara, budaya, dan ideologi, dipaksa untuk berevolusi pada rimba tanpa batas. Pada persoalan ini, inovasi tidak lagi melayani kemanusiaan, tetapi justru memangsa sisi rentan dari manusia itu sendiri.

Teror visual dan dampak mengerikan

Dampak sosial dari kebebasan dari hasil teknologi yang tanpa kendali ini bisa jadi sangat mengerikan, terutama bagi kelompok rentan. Kita saat ini sedang menyaksikan eskalasi kekerasan berbasis gender online (KBGO) dalam bentuk non-consensual intimate imagery (NCII) atau penyebaran konten intim nonkonsensual. Bentuk eskalasi ini diperparah dengan gerakan berbondong-bondong sebagian warga net untuk melakukan hal yang sama dengan menjiplak perintah teks AI (copy-paste prompt) dengan berbagai macam jenis foto, terutama perempuan. Bahayanya, gerakan masif ini kini tidak hanya menyerang figur publik, tetapi dengan mudah menyerang siapa saja, asalkan ia pernah mengunggah foto diri di platform tersebut.

Kemudahan akses untuk melakukan generatif gambar yang ditawarkan Grok juga berpotensi menormalisasi dehumanisasi perempuan, yakni anggapan tubuh seseorang dianggap obyek publik yang sah untuk dimanipulasi tanpa izin. Padahal, bisa jadi ada trauma psikologis, rasa malu, atau kerusakan reputasi yang tidak bisa diobati hanya dengan label ”buatan AI” (AI-Generated).

Melompat lebih jauh, bahaya laten dari teknologi Grok dan model dasarnya, FLUX-1, sesungguhnya melampaui isu kesusilaan; kita berhadapan dengan erosi kepercayaan pada realitas itu sendiri. Berabad-abad manusia berpegang pada adagium ”seeing is believing’”. Sederhananya, foto adalah bukti identik dari sebuah peristiwa. Obyek, subyek, dan keterangan dalam foto adalah bukti. Namun, kini dengan AI, kepercayaan visual menjadi runtuh seketika.

Implikasinya akan sangat luas dan serius. Saat ini teknologi ini dapat digunakan untuk melucuti pakaian seseorang, besok dengan percepatan perkembangan teknologi yang cepat, teknologi ini mungkin bisa digunakan untuk penipuan, manipulasi politik, dan konflik sosial sehingga batas fakta dan fiksi akan semakin kabur. Masyarakat akan terjebak dalam skeptisisme permanen, yakni sebuah kebenaran bisa disangkal sebagai ”buatan AI”, dan sebuah kebohongan AI bisa dipercaya secara mutlak.

Kegamangan regulasi dan darurat literasi etis

Di sisi lain, kemajuan teknologi ini akan berbanding terbalik dengan penghargaan etika di masyarakat kita. Saat ini kita melihat AI seperti sebuah kesempatan besar, seperti apa yang disampaikan Wakil Presiden Republik Indonesia Gibran Rakubuming Raka yang berapi-api untuk mendorong adopsi AI di dunia pendidikan. Namun, tampaknya kita abai pada penamaan etika dan empati digital. Akibatnya, banyak orang melihat AI bukan sebagai alat bantu produktivitas, melainkan sekadar mainan baru untuk memuaskan hasrat yang destruktif.

Apabila aspek etis tidak ditanam terlebih dahulu, maka akan lebih banyak gamifikasi pelecehan yang bersembunyi di akun anonim yang melakukan pornografi sintesis dengan dasar iseng dan tantangan teknis semata. Ironisnya, semua itu di mediasi oleh mesin sehingga empati manusiawi terputus oleh algoritma dan layar kaca. Oleh karena itu, penyelesaian masalah ini akan kompleks. Pendekatan konvensional, seperti pemblokiran, bukan menjadi solusi permanen. Perlu ada intervensi kultural yang masif dan mendasar.

Solusi singkat, yang juga paling utama, adalah kurikulum pendidikan dan dikursus masyarakat harus mulai mempertimbangkan ”etika AI” sebagai kompetensi dasar. Sebelum menggunakan AI, masyarakat harus khatam dulu etika AI dalam ruang digital. Penanaman nilai-nilai ini harus mengakar hingga akar rumput, menghidupkan diskusi-diskusi dan sosialisasi di ruang-ruang informal komunitas warga. Menurut penulis, dengan cara ini, etika AI tidak hanya menjadi barang akademis, tetapi juga budaya masyarakat modern.

Kedua, mestinya akses terhadap AI diperlakukan selayaknya penggunaan gim atau produk digital lainnya, di mana batasan umum menjadi verifikasi dasar yang diawasi pemerintah. Pemerintah juga perlu mendefinisikan AI dengan risiko tinggi dan tidak. Apabila memiliki risiko tinggi, maka perlu ada pembatasan ketat untuk dapat mengakses AI tersebut. Sederhananya, tanpa mental dan etika yang belum terbentuk, memberikan akses teknologi yang sangat bebas ini sama bahayanya dengan menyerahkan kunci kendaraan kepada anak di bawah umur.

Jika dua langkah di atas berfokus pada pembangunan imunitas di level individu dan masyarakat, rekomendasi ketiga ini menyasar ranah yang jauh lebih besar dan mengikat, yakni regulasi negara dan tanggung jawab platform. Saat ini instrumen hukum kita seperti Undang-Undang Informasi dan Transaksi Elektronik (UU ITE), Undang-Undang Perlindungan Data Pribadi (UU PDP), dan Undang-Undang Tindak Pidana Kekerasan Seksual (UU TPKS) sering kali terfragmentasi.

Pemerintah mestinya menggunakan aturan penyelenggara sistem elektronik (PSE) sebagai payung eksekusi yang tegas untuk mengorkestrasi seluruh aturan tersebut. Melalui mekanisme tersebut, negara mendesak tanggung jawab mutlak (strict liability) kepada platform. Artinya, izin operasi platform di Indonesia harus diikat dengan kepatuhan pada peraturan di Indonesia.

Pada akhirnya, walaupun tulisan ini tidak secara mendalam menggali solusi dari penyalahgunaan AI secara masif saat ini, kita perlu sadar bahwa persoalan ini bisa menjadi bola salju yang menghancurkan tatanan sosial masyarakat kita. Negara perlu memberikan peran ganda yang bijaksana menghadapi AI: menginjak gas untuk mendorong inovasi, tetapi juga sesekali menginjak rem untuk memagari etika dalam penggunaan teknologi yang lebih bijaksana.

Maulana Akbar, Peneliti BRIN

  Kembali ke sebelumnya