Bagaimana gambar AI palsu dari Badai Milton dapat menimbulkan konsekuensi nyata

Gambar dan video yang dihasilkan AI tentang Badai Milton mungkin bukan sekadar clickbait yang mengganggu. Mereka juga mungkin terkait dengan penipuan dan kampanye disinformasi.

Setelah badai Kategori 3 yang menghancurkan sebagian Florida, platform media sosial seperti X, TikTok, dan Facebook dibanjiri konten buatan AI. Beberapa gambar dan video yang dihasilkan AI lebih mudah dideteksi dibandingkan yang lain, seperti gambar dan video yang jelas-jelas dimaksudkan untuk ditertawakan gambar memperlihatkan seorang gadis memeluk seekor buaya di atas perahu di tengah hujan lebat.

Yang lain lebih meyakinkan, seperti gambar Disney World yang kebanjiran yang dihasilkan AI yang pada awalnya bahkan menipu banyak orang umum oleh propaganda Rusia.

Dampaknya mungkin saja berupa penyebaran informasi yang salah, dan hal ini sudah cukup buruk, namun sampah internet yang dihasilkan oleh AI juga digunakan untuk memikat orang agar melakukan penipuan.

LIHAT JUGA:

Cara mengidentifikasi gambar yang dihasilkan AI

Badai Milton AI ada dimana-mana

Saat ini, banyak yang melihat foto palsu jalan setapak Disney World di bawah air. Tapi maju cepat ke TikTok dapat dilihat Rekaman yang dibuat oleh AI tentang Badai Milton yang mendatangkan malapetaka.

Beberapa video ditandai dengan hashtag atau keterangan sebagai video yang dihasilkan AI, namun mudah untuk membayangkan bagaimana video tersebut dapat dibagikan dan digunakan oleh orang lain. Karen Panetta, rekan IEEE dan profesor teknik elektro dan komputer di Universitas Tufts, menjelaskan bagaimana konten yang dihasilkan AI dapat dijadikan senjata untuk menimbulkan kepanikan dan kebingungan. “Kurang dari 30 persen populasi orang dewasa memahami apa yang dapat dilakukan oleh kecerdasan buatan. Jika Anda menyebarkan disinformasi kepada masyarakat umum dengan headline yang menakutkan, banyak orang akan panik,” kata Panetta.

Kecepatan cahaya yang bervariasi

Jelasnya, kerusakan sebenarnya yang disebabkan oleh Badai Milton sangatlah nyata. Namun ketika konten yang dihasilkan AI mulai digunakan, pengguna mempertanyakan kenyataan. Hal ini, pada gilirannya, dapat menciptakan ketidakpercayaan dan lahan subur bagi teori konspirasi tentang badai. Satu X adalah contohnya pengguna mengklaim bahwa rekaman astronot NASA Matthew Dominick adalah palsu dan bahkan mengisyaratkan bahwa Dominick tidak berada di luar angkasa. Rekaman telah muncul diverifikasi sebagai otentik.

Namun yang lebih membingungkan lagi, beberapa citra satelit yang dimaksudkan untuk menunjukkan Badai Milton telah dibantah snopes karena salah eja atau dihasilkan oleh kecerdasan buatan.

Waspadalah terhadap penipuan yang menggunakan gambar yang dihasilkan AI

Selain informasi yang salah dan disinformasi setelah Badai Milton, para ahli mengatakan bahwa penting untuk mewaspadai penipuan. Komisi Perdagangan Federal dilepaskan siaran pers sehari sebelum Milton mendarat memperingatkan konsumen untuk mewaspadai “individu yang ingin mengambil keuntungan dari bencana alam dengan terlibat dalam potensi penipuan atau pencungkilan harga.”

Menurut Panetta, penipuan seperti badan amal palsu bisa menjadi lebih efektif dengan menggunakan kecerdasan buatan generatif. “Dalam setiap bencana selalu terjadi sesuatu [scammers] mereka mencoba membuat situs penggalangan dana yang tidak legal,” kata Panetta. “Apa yang terjadi sekarang adalah karena kemudahan akses terhadap gambar yang dihasilkan AI, mereka menggunakannya untuk menciptakan kredibilitas dan berkata, ‘Dengar, saya tidak hanya meminta uang. Lihat betapa buruknya hal itu.”

Gambar viral yang dibuat oleh AI tentang seorang gadis kecil yang menggendong anak anjing dan menangis setelah Badai Helene adalah contoh sempurna tentang bagaimana sebuah gambar dapat menarik hati sanubari dan memicu keinginan untuk berdonasi, meskipun itu palsu. Meskipun pengguna internet berpengalaman mungkin menyadari bahwa ini palsu, orang lain mungkin tidak mengetahuinya dan orang-orang ini adalah sasaran empuk penipuan.

Beberapa gambar Badai Milton yang dihasilkan AI mungkin tampak seperti contoh tidak berbahaya dari seorang anak yang ingin memamerkan keterampilan AI generatifnya. Namun hal ini tidak selalu terjadi. Perasaan tidak bersalah yang palsu bisa menjadi salah satu cara untuk mengelabui orang agar lengah. “Itulah keseluruhan strateginya. Bagaimana cara menarik orang? Dan begitu saya meyakinkan Anda bahwa saya benar, pertanyaan pun muncul,” kata Panetta.

“Selalu ada uang pada akhirnya,” tambahnya.

Meskipun bencana alam seperti Badai Milton dapat membuat orang menjadi sangat rentan, yang lebih penting lagi adalah berpikir kritis dan berpikir dua kali sebelum bereaksi terhadap apa pun secara online. FTC mengatakan penipu sering kali bersikeras membayar melalui transfer kawat, kartu hadiah, aplikasi pembayaran, mata uang kripto, atau uang tunai, dan merekomendasikan untuk memeriksanya. sumber daya tentang cara menghindari penipuan setelah keadaan darurat cuaca.

Topik
Kecerdasan buatan



Sumber