bulat.co.id - Terkuak penyebaran foto porno
Taylor Swift palsu buatan AI l ternyata awal mulanya tersebar di situs ini.Adalah Graphika, perusahaan peneliti yang berfokus pada disinformasi, yang melacak asal muasal foto mesum
Taylor Swift tersebut.
Menurut mereka, foto ini awalnya bukan beredar di Telegram ataupun X. lantas dimana?
Foto itu muncul pertama kali di forum 4chan, situs forum yang dikenal sebagai tempat penyebaran ujaran kebencian, teori konspirasi, dan berbagai hal negatif lain.
Mereka menyebut foto tersebut pertama beredar di 4chan pada 6 Januari, atau 11 hari sebelum fotonya tersebar di Telegram, dan 12 hari sebelum fotonya tersebar di X.
Seperti diketahui, foto-foto palsu tersebut baru viral pada 25 Januari di X dan Telegram.
Menurut Graphika, orang yang membuat foto mesum palsu tersebut melakukannya untuk menguji kemampuan dirinya dalak membuat foto versi mesum dari selebriti wanita terkenal, demikian dikutip dari New York Times, Selasa (6/2/2024).
Mereka pun menemukan sebuah thread di 4chan yang berisi ajakan untuk mengakali fitur pelindung yang ada di generator gambar berbasis AI, seperti DALL-E milik OpenAI, Microsoft Designer, dan Bing Image Creator.
Tips dan Trik
Sebenarnya aplikasi tersebut tidak didesain untuk membuat foto atau video porno. Hanya saja, ada tips dan trik yang bisa dilakukan untuk mengakali AI tersebut.
Karena itu, pada postingan di 4chan, pengguna diajak untuk membagikan tips dan trik dalam mengakali fitur pemblokir yang ada di generator gambar tersebut.
"Gambar-gambar ini berasal dari sekelompok orang yang termotivasi atas tantangan untuk menghindari fitur pelindung dari produk generative AI, dan pembatasan baru tersebut terlihat seperti tantangan baru untuk dikalahkan," kata Cristina Lopez, analis senior di Graphika.
Ia pun menyebut
Taylor Swift jelas bukan satu-satunya korban dalam kasus ini. Menurutnya di 4chan, lebih banyak aktris, penyanyi, ataupun politisi yang lebih sering dimanipulasi gambarnya dibanding
Taylor Swift.
Menyebarnya gambar mesum
Taylor Swift buatan AI ini membuat sejumlah perusahaan kelabakan dan langsung mengeluarkan pernyataannya.
Misalnya OpenAI yang secara eksplisit menyebut foto
Taylor Swift itu bukan dibuat menggunakan DALL-E karena model AI tersebut dipastikan dilatih menggunakan konten non eksplisit. OpenAI juga meyakinkan punya fitur perlindungan lain yaitu menolak permintaan untuk konten yang melibatkan figur publik.
Sementara Microsoft mengaku akan terus menginvestigasi gambar-gambar tersebut dan sudah memperkuat sistem perlindungan mereka untuk menghindari penyalahgunaan layanannya untuk membuat gambar seperti itu.
Lalu X juga sempat memblokir pencarian dengan kata kunci
Taylor Swift selama beberapa hari. "Untuk memastikan kami bisa membersihkan dan menghilangkan semua gambar tersebut," kata Joe Benarroch, head of business operations X.