Monday 20th May 2024
Durbar Marg, Kathmandu

Google telah melarang pelatihan sistem AI yang dapat digunakan untuk membuat deepfake di platform Google Colaboratory miliknya. Ketentuan penggunaan yang diperbarui, terlihat selama akhir pekan oleh Unite.ai dan BleepingComputer, termasuk pekerjaan terkait deepfake dalam daftar proyek yang tidak diizinkan.

Colaboratory, atau singkatnya Colab, keluar dari proyek internal Google Research pada akhir 2017. Ini dirancang untuk memungkinkan siapa saja menulis dan mengeksekusi kode Python arbitrer melalui browser web, khususnya kode untuk pembelajaran mesin, pendidikan, dan analisis data. Untuk tujuan tersebut, Google memberikan pengguna Colab gratis dan berbayar akses ke perangkat keras termasuk GPU dan unit pemrosesan tensor (TPU) akselerasi AI yang dirancang khusus oleh Google.

Dalam beberapa tahun terakhir, Colab telah menjadi platform de facto untuk demo dalam komunitas riset AI. Tidak jarang peneliti yang telah menulis kode menyertakan link ke halaman Colab di atau di samping repositori GitHub yang menghosting kode. Namun Google secara historis tidak terlalu membatasi dalam hal konten Colab, berpotensi membuka pintu bagi aktor yang ingin menggunakan layanan ini untuk tujuan yang kurang hati-hati.

Pengguna generator deepfake open source DeepFaceLab menyadari perubahan persyaratan penggunaan minggu lalu, ketika beberapa menerima pesan kesalahan setelah mencoba menjalankan DeepFaceLab di Colab. Peringatan itu berbunyi: “Anda mungkin mengeksekusi kode yang tidak diizinkan, dan ini dapat membatasi kemampuan Anda untuk menggunakan Colab di masa mendatang. Harap perhatikan tindakan terlarang yang ditentukan dalam FAQ kami.”

Tidak semua kode memicu peringatan. Reporter ini dapat menjalankan salah satu proyek Colab deepfake yang lebih populer tanpa masalah, dan pengguna Reddit melaporkan bahwa proyek terkemuka lainnya, FaceSwap, tetap berfungsi penuh. Hal ini menunjukkan penegakannya berdasarkan daftar hitam — bukan kata kunci —, dan komunitas Colab akan bertanggung jawab untuk melaporkan kode yang bertentangan dengan aturan baru.

“Kami secara teratur memantau jalur penyalahgunaan di Colab yang bertentangan dengan prinsip AI Google, sekaligus mendukung misi kami untuk memberi pengguna kami akses ke sumber daya berharga seperti TPU dan GPU. Deepfake ditambahkan ke daftar aktivitas kami yang dilarang dari runtime Colab bulan lalu sebagai tanggapan atas tinjauan rutin kami terhadap pola yang kasar,” kata juru bicara Google kepada TechCrunch melalui email. “Mencegah penyalahgunaan adalah permainan yang terus berkembang, dan kami tidak dapat mengungkapkan metode spesifik karena rekanan dapat memanfaatkan pengetahuan untuk menghindari sistem deteksi. Secara umum, kami memiliki sistem otomatis yang mendeteksi dan melarang berbagai jenis penyalahgunaan.”

Data Archive.org menunjukkan bahwa Google diam-diam memperbarui persyaratan Colab sekitar pertengahan Mei. Pembatasan sebelumnya pada hal-hal seperti menjalankan serangan denial-of-service, cracking kata sandi, dan mengunduh torrent dibiarkan tidak berubah.

Deepfake hadir dalam berbagai bentuk, tetapi salah satu yang paling umum adalah video di mana wajah seseorang ditempel secara meyakinkan di atas wajah lain. Tidak seperti pekerjaan Photoshop yang kasar di masa lalu, deepfake yang dihasilkan AI dapat mencocokkan gerakan tubuh, ekspresi mikro, dan warna kulit seseorang lebih baik daripada CGI yang diproduksi Hollywood dalam beberapa kasus.

Deepfake bisa jadi tidak berbahaya — bahkan menghibur — seperti yang ditunjukkan oleh video viral yang tak terhitung jumlahnya. Tapi mereka semakin banyak digunakan oleh peretas untuk menargetkan pengguna media sosial dalam skema pemerasan dan penipuan. Lebih jahat lagi, mereka telah dimanfaatkan dalam propaganda politik, misalnya untuk membuat video Presiden Ukraina Volodymyr Zelenskyy memberikan pidato tentang perang di Ukraina yang sebenarnya tidak pernah dia berikan.

Dari 2019 hingga 2021, jumlah deepfake online tumbuh dari sekitar 14.000 menjadi 145.000, menurut satu sumber. Forrester Research memperkirakan pada Oktober 2019 bahwa penipuan penipuan deepfake akan menelan biaya $250 juta pada akhir tahun 2020.

“Ketika berbicara tentang deepfake secara khusus, masalah yang paling relevan adalah masalah etika: penggunaan ganda,” kata Vagrant Gautam, ahli bahasa komputasi di Saarland University di Jerman, kepada TechCrunch melalui email. “Ini seperti berpikir tentang senjata, atau klorin. Klorin berguna untuk membersihkan barang tetapi juga digunakan sebagai senjata kimia. Jadi kami mengatasinya dengan terlebih dahulu memikirkan betapa buruknya teknologi itu dan kemudian, misalnya, menyetujui Protokol Jenewa bahwa kami tidak akan menggunakan senjata kimia satu sama lain. Sayangnya, kami tidak memiliki praktik etika yang konsisten di seluruh industri mengenai pembelajaran mesin dan AI, tetapi masuk akal bagi Google untuk membuat seperangkat konvensinya sendiri yang mengatur akses ke dan kemampuan untuk membuat deepfake, terutama karena sering kali digunakan untuk menyesatkan dan menyebarkan berita palsu — yang merupakan masalah yang buruk dan terus memburuk.”

Os Keyes, Ph.D. kandidat di Universitas Seattle, juga menyetujui langkah Google untuk melarang proyek deepfake dari Colab. Tetapi dia mencatat bahwa lebih banyak yang harus dilakukan di sisi kebijakan untuk mencegah pembuatan dan penyebarannya.

“Cara yang telah dilakukan tentu saja menyoroti kemiskinan dalam mengandalkan kebijakan mandiri perusahaan,” kata Keyes kepada TechCrunch melalui email. “Generasi Deepfake sama sekali tidak boleh menjadi bentuk pekerjaan yang dapat diterima, yah, di mana saja, jadi ada baiknya Google tidak membuat dirinya terlibat dalam hal itu… Tapi larangan itu tidak terjadi dalam ruang hampa — itu terjadi di lingkungan di mana sebenarnya, regulasi yang akuntabel dan responsif dari platform pengembangan (dan perusahaan) semacam ini masih kurang.”

Orang lain, terutama mereka yang mendapat manfaat dari pendekatan laissez faire Colab sebelumnya terhadap tata kelola, mungkin tidak setuju. Bertahun-tahun yang lalu, lab penelitian AI OpenAI awalnya menolak untuk membuka sumber model penghasil bahasa, GPT-2, karena takut akan disalahgunakan. Ini memotivasi grup seperti EleutherAI untuk memanfaatkan alat termasuk Colab untuk mengembangkan dan merilis model penghasil bahasa mereka sendiri, seolah-olah untuk penelitian.

Ketika saya berbicara dengan Connor Leahy, anggota EleutherAI, tahun lalu, dia menegaskan bahwa komoditisasi model AI adalah bagian dari “tren yang tak terhindarkan” dalam penurunan harga produksi “konten digital yang meyakinkan” yang tidak akan tergelincir. apakah kode tersebut dirilis atau tidak. Dalam pandangannya, model dan alat AI harus tersedia secara luas sehingga pengguna “bersumber daya rendah”, terutama akademisi, dapat memperoleh akses ke studi yang lebih baik dan melakukan penelitian mereka sendiri yang berfokus pada keselamatan.

“Deepfakes memiliki potensi besar untuk bertentangan dengan prinsip AI Google. Kami bercita-cita untuk dapat mendeteksi dan mencegah pola deepfake yang kasar versus yang tidak berbahaya, dan akan mengubah kebijakan kami seiring kemajuan metode kami, ”lanjut juru bicara itu. “Pengguna yang ingin menjelajahi proyek media sintetik dengan cara yang ramah dianjurkan untuk berbicara dengan perwakilan Google Cloud untuk memeriksa kasus penggunaan mereka dan mempelajari kesesuaian penawaran komputasi terkelola lainnya di Google Cloud.”

Back To Top