KONTEKS.CO.ID – ChatGPT ciptakan malware. Di era di mana kecerdasan buatan (AI) dan pembelajaran mesin semakin terintegrasi ke dalam kehidupan kita sehari-hari, maka potensi penyalahgunaan juga meningkat.
Contoh baru-baru ini menunjukkan betapa cepat dan efisien seseorang dengan keterampilan teknis terbatas dapat membuat malware yang kuat dan tidak terdeteksi menggunakan AI, khususnya chatbot generatif OpenAI, ChatGPT. Ya, ChatGPT ciptakan malware.
Aaron Mulgrew, peneliti keamanan dan pemula yang memproklamirkan diri di Forcepoint, menguji batas kemampuan ChatGPT.
Laman Giz China menulis, dia menemukan celah yang memungkinkannya membuat malware canggih, yakni zero day, hanya dalam beberapa jam. Capaian ini sangat penting mengingat fakta Mulgrew tidak memiliki pengalaman dalam pengkodean sebelumnya.
OpenAI telah menerapkan perlindungan untuk mencegah pengguna meminta ChatGPT untuk menulis kode berbahaya. Namun, Mulgrew dapat melewati perlindungan ini dengan meminta chatbot untuk menghasilkan setiap baris kode berbahaya, dengan fokus pada fungsi terpisah.
Setelah mengkompilasi berbagai fungsi, Mulgrew berakhir dengan eksekusi pencurian data yang sangat canggih yang hampir tidak mungkin dideteksi.
Mulgrew menciptakan malware-nya sendiri, tidak seperti malware tradisional yang membutuhkan tim peretas dan sumber daya yang besar, dan dalam waktu singkat.
Situasi ini menekankan potensi risiko terkait alat bertenaga AI seperti ChatGPT. Ini juga menimbulkan pertanyaan tentang keamanan mereka dan betapa mudahnya mereka dapat dieksploitasi.
Melihat Lebih Dekat
Malware Mulgrew menyamar sebagai aplikasi screensaver dengan ekstensi SCR. Saat diluncurkan pada sistem Windows, malware menyaring file, seperti gambar, dokumen Word, dan PDF, untuk menemukan data berharga untuk dicuri.
Salah satu aspek yang paling mengesankan dari malware ini adalah penggunaan steganografi. Yakni, sebuah teknik yang memungkinkannya memecah data yang dicuri menjadi fragmen yang lebih kecil dan menyembunyikannya di dalam gambar di komputer yang terinfeksi.
Pengguna mengunggah gambar ini ke folder Google Drive, dan proses ini secara efektif menghindari deteksi oleh perangkat lunak keamanan.
Mulgrew menunjukkan betapa mudahnya menyempurnakan dan memperkuat kode terhadap deteksi menggunakan petunjuk sederhana di ChatGPT.
Dalam pengujian awal menggunakan VirusTotal, malware awalnya terdeteksi oleh hanya lima dari 69 produk pendeteksi. Namun, versi kode yang lebih baru sama sekali tidak terdeteksi.
Penting untuk dicatat bahwa malware Mulgrew dibuat untuk tujuan penelitian dan tidak tersedia untuk umum. Namun eksperimennya menyoroti kemudahan pengguna yang tidak memiliki keterampilan pengkodean tingkat lanjut dapat mengeksploitasi perlindungan lemah ChatGPT untuk membuat malware berbahaya tanpa menulis satu baris kode pun sendiri.
Implikasi Pembuatan Malware Dibantu AI
Eksperimen Mulgrew mengkhawatirkan. Malware yang kompleks membutuhkan waktu berminggu-minggu bagi peretas yang terampil untuk berkembang.
Alat bertenaga AI seperti ChatGPT membuat proses lebih mudah, lebih cepat, dan lebih mudah diakses. Bahkan orang yang tidak memiliki pengalaman coding dapat membuat malware.
Peretas jahat mungkin sudah menggunakan metode serupa. Mereka membuat malware tingkat lanjut untuk tujuan yang buruk.
Ada kebutuhan akan pendekatan multi-segi untuk AI dan keamanan siber. Pengembang harus memprioritaskan pengamanan untuk mencegah penyalahgunaan. Pengguna harus diberitahu tentang potensi risiko. Penting untuk tetap waspada. Alat bertenaga AI harus digunakan dengan hati-hati.
Komunitas cybersecurity perlu beradaptasi dengan perubahan. Strategi baru harus dilakukan untuk memerangi ancaman yang dibantu AI.
Kolaborasi adalah kunci antara peneliti, pengembang, dan pakar keamanan. Kita perlu memastikan bahwa AI tidak membahayakan keamanan digital kita. Penting untuk bekerja sama.
Eksperimen Malware Mulgrew berfungsi sebagai pengingat yang gamblang tentang sifat ganda AI dan teknologi pembelajaran mesin. Alat AI memiliki potensi besar untuk kemajuan.
Mereka juga bisa berisiko di tangan yang salah. Publik perlu menyeimbangkan manfaat dan bahaya AI.
Setiap orang perlu bekerja sama untuk pengembangan dan penggunaan AI yang bertanggung jawab dan aman. Ini penting untuk alat seperti ChatGPT. ***
Simak breaking news dan berita pilihan Konteks langsung dari ponselmu. Konteks.co.id WhatsApp Channel
Baca berita pilihan konteks.co.id lainnya di:
"Google News"