Digital

Para Pesohor Teknologi Deg-degan, Khawatirkan AI Bisa Lakukan Ini ke Manusia

JAJAK PENDAPAT

Siapa pilihan Capres 2024 kamu?

KONTEKS.CO.ID – Bahaya AI dibahas dalam artikel teknologi ini. Elon Musk, salah satu pesohor teknologi yang cukup vokal ketika berbicara perkembangan kecerdasan buatan (AI).

Pada pertemuan puncak baru-baru ini di London, pakar bisnis memperingatkan tentang risiko AI. Menurut CEO Tesla, Elon Musk, teknologi umumnya berpotensi mengendalikan manusia. Ini salah satu bahaya AI.

Jadi, dia meminta masyarakat berhati-hati sejauh mana kita memilih untuk maju dengan AI. Secara khusus, Elon Musk mengklaim AI mungkin dapat mengendalikan manusia di masa depan.

Meskipun itu mungkin tidak akan menghancurkan dunia, Ini adalah sebuah kemungkinan dan dunia seharusnya tidak mengabaikannya begitu saja.

Musk juga mengklaim bahwa AI dapat mengambil alih “semua keamanan manusia”, sehingga menjadikan dirinya semacam “pengasuh super”.

“Kecerdasan buatan tingkat lanjut berisiko menghilangkan atau membatasi perkembangan manusia. Superintelligence adalah ‘pedang bermata dua’. Jika Anda memiliki jin yang dapat memberdayakan Anda dengan apa saja, itu bahaya,” kata Musk, disitat Giz China, Kamis 25 Mei 2023.

BACA JUGA:   DM Twitter Dukung Enkripsi, Pesan Suara, dan Panggilan Video

Beberapa perusahaan Elon Musk saat ini sedang mengerjakan AI, tetapi dia selalu mewaspadai teknologi tersebut.

Pada bulan Maret, Musk menandatangani surat terbuka yang menyerukan moratorium pengembangan AI tingkat lanjut. Saat ini, Tesla, banyak menggunakan AI dalam produknya.

“Saya pikir harus ada perusahaan ketiga yang bersaing. OpenAI dan Microsoft tampaknya bekerja sama dengan cukup baik, jadi X.AI (perusahaan AI baru Musk) dan Twitter dan Tesla juga harus memilikinya di masa depan,” tandasnya.

Eric Schmidt juga mengeluarkan peringatan serupa. Mantan CEO Google itu juga mewaspadai pengembangan AI yang mendalam.

Dia mengklaim konsekuensi dari pengembangan AI nakal bisa sangat parah bagi umat manusia. Menurut Schmidt, ketika AI berkembang selama beberapa tahun ke depan, itu menimbulkan “risiko eksistensial” bagi umat manusia dan berpotensi menyebabkan banyak orang terluka atau terbunuh.

BACA JUGA:   Kabar Peluncuran Tesla Pi Phone hingga di Ujung Tahun 2022 Masih Gelap

“Ada skenario, bukan hari ini, tetapi segera, di mana sistem ini akan dapat menemukan eksploitasi zero-day dalam masalah dunia maya atau menemukan jenis biologi baru… Sekarang, ini adalah fiksi hari ini, tetapi alasannya mungkin benar… Dan ketika itu terjadi, kami ingin siap untuk mengetahui bagaimana memastikan hal-hal ini tidak disalahgunakan oleh orang jahat,” katanya saat berbicara di Council Summit of Wall Street Journal CEO.

Schmidt juga menyatakan sistem AI menjadi lebih rumit daripada yang dapat dipahami sepenuhnya oleh orang-orang, dan perusahaan terus memperkenalkan produk baru tanpa memahami sepenuhnya ancaman dari AI.

Dia percaya bahwa ini dapat menimbulkan tantangan tersendiri dan telah memperingatkan bahwa manusia perlu berhati-hati saat memperkenalkan produk baru.

BACA JUGA:   Bukan di Indonesia, Pabrik Baru Tesla Dibangun di Meksiko

Schmidt bukan satu-satunya tokoh teknologi yang memperingatkan risiko AI. Sam Altman, CEO OpenAI, bahkan juga mengaku takut pada AI.

Mereka bertiga telah menandatangani surat terbuka yang menyerukan jeda enam bulan dalam penelitian AI. Surat itu memperingatkan tentang “potensi efek bencana” pada masyarakat jika tata kelola yang tepat tidak diterapkan.

Schmidt juga telah menyatakan keprihatinan tentang penggunaan AI oleh China, khususnya di militernya, dengan alasan bahwa AS perlu mendesain ulang militernya untuk menanggapi ancaman tersebut. ***



Baca berita pilihan konteks.co.id lainnya di:
"Google News"

Author

  • Iqbal Marsya

    Saya sudah lama bekerja sebagai wartawan. Awalnya di tahun 1999 bekerja di RRI Pro2 Jakarta, lalu melompat ke radio lokal. Tak lama, bergabung hampir 16 tahun dengan KORAN SINDO/SINDOnews. Kemudian ke kilat.com, indopos online, dan sekarang di KONTEKS.CO.ID

Berita Lainnya

Muat lagi Loading...Tidak ada lagi