Adakah 'Deep Fakes' merupakan Perbatasan Baru Jenayah Digital?

Teknologi kesan khas telah menyaksikan lonjakan yang benar dalam beberapa dekad kebelakangan ini, dengan CGI beralih dari kasar dan primitif secara kasar hingga hampir tidak dapat dibezakan dari kenyataan. Sekarang, ketika penciptaan citra yang benar-benar menjadi biasa, pakar politik dan pakar peradilan jenayah juga sama-sama menjangkakan keadaan panik yang disebut teknologi 'palsu palsu', yang berpotensi untuk menyulitkan perbincangan antarabangsa yang sedang berlangsung mengenai 'berita palsu. Tetapi, apa sebenarnya 'palsu palsu' dan berapa banyak ancaman yang akan ditimbulkan oleh teknologi ini di masa depan?





Teknologi palsu (kadang-kadang bergaya sebagai 'deepfake') merujuk kepada gambar dan / atau video yang disintesis dan / atau ditumpangkan yang dibuat oleh kecerdasan buatan menggunakan gambar dan video yang ada. Dengan menggunakan pembelajaran mesin, teknologi ini secara teorinya dapat membuat rakaman meyakinkan seseorang yang melakukan perbuatan yang tidak pernah berlaku dalam kehidupan nyata.

Owen Williams, jurutera perisian profesional dan artis kesan visual, memberikan penjelasan sederhana.



'Ini adalah cara menggunakan sistem perisian automatik untuk menggantikan wajah seseorang dalam video dengan wajah lain yang jauh lebih automatik dan meyakinkan daripada yang mungkin dilakukan dengan teknologi masa lalu,' kata Williams kepada Oksigen.com .



Williams menyatakan bahawa filem-filem arus perdana dan popular seperti 'Jurassic Park' dan 'Blade Runner: The Final Cut' menggunakan perisian komputer untuk adegan tertentu dengan cara yang mungkin menjadi pendahulu palsu: 'Dalam industri filem, ini sangat biasa. Katakan anda mempunyai watak yang perlu melakukan aksi dan anda lebih suka wajah mereka kelihatan. Penyelesaian klasik adalah bahawa anda hanya akan melihatnya dari belakang, atau rambut mereka di wajah mereka sehingga anda tidak dapat mengatakannya adalah dua kali ganda. Tetapi ada sejarah pembuat filem yang menggunakan komputer untuk meletakkan wajah pelakon di atas aksi ganda. '



'Dulu prosesnya sangat manual,' lanjut Williams. 'Sekarang, dengan teknologi palsu yang mendalam, anda memberi makan dua komputer kepada komputer: Pertama video yang akan anda ganti, dan kemudian sejumlah input wajah yang akan anda ganti. Anda mesti mendapat gambar seseorang yang cukup membuat ekspresi wajah yang berbeza dan dari sudut yang berbeza. Anda membuat pustaka seperti apa rupa wajah orang ini dalam situasi yang berbeza, dan kemudian komputer melalui dan melihat video. Ia juga tidak memerlukan padanan yang tepat. Ia dapat menyesuaikan dan mengubah apa yang ada di perpustakaan agar sesuai dengan keperluannya. Yang dulu memerlukan puluhan seniman ratusan jam untuk mencuba dan melaksanakan kesan yang sangat rumit sekarang hanyalah dengan menekan butang. '

Aspek teknologi ini yang membuat orang bimbang adalah bahawa seseorang tidak semestinya dengan sukarela menyerahkan wajah mereka agar proses ini dapat dilaksanakan, mengingat berapa banyak gambar yang terdapat dalam talian oleh kebanyakan orang - terutama selebriti dan tokoh politik.



'Terdapat cukup gambar mana-mana selebriti dengan sudut yang cukup sehingga anda dapat membuat perpustakaan itu [tanpa persetujuan],' kata Williams. 'Ada sejumlah kerja yang diperlukan untuk melakukan itu, tetapi untuk setiap tokoh yang sangat popular, barang itu akan wujud. Rasa saya adalah bahawa ini mungkin bagi orang biasa. ''

Video palsu dalam pertama muncul di forum Reddit pada akhir 2017, mengikut Variety . Seorang pengguna mengaku telah menggunakan komputernya untuk membuat video pornografi yang sangat realistik dari pelbagai selebriti yang melakukan aktiviti seksual yang sebenarnya tidak pernah berlaku dalam kehidupan nyata. Pengguna tersebut mendakwa dia memberi komputer ribuan foto bintang-bintangnya, dari mana AI boleh mendapatkan sumber wajah dan pergerakan yang digambarkan. Aplikasi yang digunakan oleh pencipta palsu dalam dan dikongsi di Reddit akhirnya dimuat turun lebih dari 100,000 kali. (Reddit akhirnya akan melarang kandungan semacam ini, dengan mengatakan bahawa ia melanggar dasar mereka mengenai 'pornografi sukarela', menurut The Verge .)

Realisme yang dapat dicapai media pada masa ini diragui oleh Williams.

'Sekiranya anda benar-benar menonton salah satu palsu ini ... ada sejumlah keanehan di sana,' kata Williams. 'Mereka tidak digilap. Ia mungkin akan menjadi lebih baik dan lebih baik, terutama kerana Hollywood mempunyai minat untuk menjadikannya automatik daripada membayar artis yang mahal. '

Begitu juga, Williams menduga bahawa walaupun rasa panik di sekitar porno palsu yang mendalam , perubahan sikap budaya di sekitar sifat seperti pornografi balas dendam atau gambar bogel yang bocor bermaksud bahawa kemungkinan orang yang membuat media semacam ini akan dikecam dan tidak diraikan, bahkan dalam industri hiburan dewasa.

'Tidak akan pernah menjadi arus perdana,' teori Williams. 'Selepas' The Fappening 'Perkara berlaku di Reddit, orang dapat mengubah percakapan dan berkata,' Ini bukan skandal, ini adalah jenayah seks. ' Jadi saya tidak melihat ini menjadi skandal seperti yang difikirkan orang. Orang juga dapat dengan mudah mencari porno asal dari mana palsu palsu dibuat, yang bermaksud bahawa ia agak mudah dibongkar. '

Tetapi ia tidak hanya menimbulkan kebimbangan kerana ia boleh digunakan untuk membuat pornografi selebriti palsu. Orang ramai juga bimbang dengan kesan politik.

Ahli politik mula menulis mengenai percambahan palsu pada tahun 2018. Artikel Penjaga dari bulan November tahun itu mencatat penyebaran viral dari sebuah video yang kononnya menggambarkan Presiden Donald Trump mendorong bangsa Belgium untuk menarik diri dari Perjanjian Iklim Paris. Ini menjadi pemangkin perbincangan yang lebih besar mengenai potensi berbagai pemerintah untuk menggunakan teknologi ini dalam kempen disinformasi secara besar-besaran, perbincangan yang telah dimulakan berkat penyelidikan yang sedang berlangsung mengenai penglibatan Rusia dalam pemilihan presiden Amerika Syarikat 2016.

tangkapan paling mematikan cornelia marie jake harris

Kepanikan di sekitar palsu bahkan mengilhami lembaga editorial Bloomberg Media Group untuk menuliskan kata-kata yang kuat mengenai perkara itu.

'Bukti video telah menjadi tonggak sistem keadilan jenayah ... tepatnya kerana filem seolah-olah seperti rakaman ucapan atau tindakan seseorang yang boleh dipercayai. Pemalsuan yang mendalam dapat membuat bukti tersebut menjadi tersangka, ' mereka tulis pada bulan Jun 2018. 'Satu cabaran utama adalah dengan mengenal pasti dan memanggil pemalsuan ini - jika itu mungkin.'

Williams setuju bahawa sifat palsu mengancam tanggapan kita tentang 'realiti' berkaitan dengan bukti video, tetapi menyatakan bahawa permasalahan undang-undang ini tidak unik untuk landskap digital kontemporari kita.

'Ini datang dari idea ini bahawa orang mempunyai video itu sama dengan kebenaran, yang tidak pernah berlaku. Kami mengetahui perkara ini dari Rodney King dan seterusnya. Atau, fikirkan Eric Garner : Orang berpendapat [pegawai yang membunuhnya] tidak bersalah tidak kira video kejadian yang diramalkan. Bagi saya [banyak ketakutan di sekitar palsu] nampaknya agak tidak berasas. '

Williams menyenaraikan beberapa insiden lain yang tidak melibatkan teknologi palsu yang menunjukkan cara video dimanipulasi dengan berani untuk menepis pendapat umum mengenai sesuatu perkara, seperti Penghapusan kontroversi James O'Keefe dari ACORN dan skandal baru-baru ini yang melibatkan video kedokteran yang kononnya menggambarkan wartawan CNN Jim Acosta menyerang seorang pekerja Rumah Putih .

Kesimpulan akhir Williams adalah bahawa histeria yang mengelilingi palsu agak meletup.

'Apa yang saya lihat berlaku, ia akan berfungsi dengan baik. Sekiranya video keluar dan benar, orang akan mendakwa ia palsu. Sekiranya video keluar dan palsu, orang akan mendakwa ia nyata. Setiap kes menganggap sejumlah kebenaran diberikan kepada video itu sendiri. Sukar untuk mengetahui arah mana semua ini akan masuk. Sekiranya Pita Pee sebenarnya keluar, sebagai contoh, anda tahu dengan tepat apa yang akan berlaku: Separuh orang akan berkata, 'Ini adalah lembu jantan, ia adalah pelakon!' dan setengah orang akan berkata, 'Itu dia! Ia nyata! ' Jadi tidak ada yang akan berubah. Itu cenderung terjadi dengan teknologi baru: Perkara tidak berubah seperti yang difikirkan orang. '

[Foto: SAUL LOEB / AFP / Getty Images]

Jawatan Popular