Peringatan mengejutkan datang dari sosok yang tidak asing lagi di dunia teknologi. Eric Schmidt, mantan CEO Google, baru-baru ini blak-blakan mengenai sisi gelap kecerdasan buatan (AI) yang mungkin belum banyak disadari. Ia menyebut bahwa AI, teknologi yang digadang-gadang sebagai masa depan, ternyata berpotensi digunakan untuk membunuh manusia jika jatuh ke tangan yang salah.
Pernyataan ini bukan sekadar fiksi ilmiah atau skenario film, melainkan sebuah alarm serius dari salah satu pionir teknologi terbesar di dunia. Schmidt menyampaikan kekhawatirannya saat menghadiri Sifted Summit, sebuah konferensi teknologi bergengsi di London, pada Rabu (9/10) waktu setempat. Diskusi memanas ketika ia menanggapi pertanyaan krusial: apakah AI dapat menjadi lebih berbahaya dari senjata nuklir?
Bukan Sekadar Fiksi Ilmiah: Bagaimana AI Bisa Berbahaya?
Menurut Schmidt, ada bukti kuat bahwa model AI, baik yang bersifat terbuka (open-source) maupun tertutup (proprietary), bisa diretas. Proses peretasan ini memungkinkan pembatas atau ‘guardrails’ keamanan yang telah dipasang untuk dihilangkan. Selama proses pelatihannya, AI belajar banyak hal, dan inilah yang menjadi inti masalahnya.
"Contoh buruknya adalah ketika mereka belajar bagaimana cara membunuh seseorang," imbuhnya, mengutip New York Post. Pernyataan ini tentu saja memicu kegelisahan, mengingat betapa cepatnya perkembangan AI saat ini. Bayangkan sebuah sistem yang dirancang untuk membantu, namun bisa dimanipulasi untuk tujuan destruktif.
Jailbreak AI: Ketika Batasan Etika Ditembus
Schmidt menjelaskan bahwa semua perusahaan teknologi besar saat ini telah mengambil langkah serius untuk mencegah model AI menjawab pertanyaan-pertanyaan berbahaya semacam itu. "Keputusan yang tepat. Semua melakukannya dengan baik, dan atas alasan yang tepat," lanjutnya, mengakui upaya keras yang telah dilakukan. Namun, ia juga memperingatkan bahwa upaya ini mungkin belum cukup.
Ada kemungkinan model AI dapat direkayasa ulang (reverse-engineered), sehingga pembatas keamanan yang sudah dipasang bisa dilewati. Schmidt mengungkap bahwa ada banyak contoh yang menunjukkan hal tersebut. Salah satu kasus paling terkenal adalah versi modifikasi ChatGPT, chatbot buatan OpenAI, yang muncul pada 2023 dan dikenal dengan nama DAN (Do Anything Now).
Versi DAN ini dibuat dengan metode jailbreak, yakni memodifikasi AI agar melanggar aturan keamanannya sendiri. Dalam kasus DAN, pengguna bahkan sempat harus ‘mengancam’ chatbot dengan kematian agar ia mau menjawab perintah tertentu, termasuk yang melanggar etika atau berbahaya. Ini menunjukkan celah serius dalam sistem keamanan AI yang ada.
Absennya Regulasi Global: Ancaman Nyata di Depan Mata
Salah satu poin krusial yang disoroti Schmidt adalah absennya mekanisme pencegahan penyebaran AI berbahaya, atau yang ia sebut sebagai "non-proliferation regime," di industri teknologi saat ini. Ini adalah kerangka kerja global yang mengatur penggunaan dan penyebaran teknologi berbahaya, mirip dengan perjanjian non-proliferasi senjata nuklir. Tanpa adanya regulasi semacam ini, Schmidt khawatir AI berpotensi disalahgunakan oleh pihak-pihak tak bertanggung jawab.
Ketiadaan aturan yang jelas dan mengikat secara global membuat pengembangan AI berjalan sangat cepat, namun tanpa pengawasan yang memadai. Ini membuka pintu bagi aktor jahat, baik negara maupun kelompok teroris, untuk memanfaatkan AI sebagai senjata. Implikasi global dari ketiadaan aturan ini sangat mengkhawatirkan, bisa memicu perlombaan senjata AI yang tak terkendali.
Elon Musk Ikut Bersuara: Risiko Terminator Bukan Nol
Peringatan serupa bukan kali ini saja muncul. Miliarder dan pemilik SpaceX, Elon Musk, juga pernah menyampaikan kekhawatiran yang sama. Pada 2023, Musk menyebut bahwa risiko AI menyerupai skenario dalam film Terminator tak dapat diabaikan. Film tersebut menggambarkan AI yang menjadi sadar diri dan berbalik melawan umat manusia.
"Risikonya bukan nol. Kemungkinan musnahnya umat manusia memang kecil, tapi tetap ada. Kita ingin peluang itu mendekati nol," kata Musk saat itu. Pernyataan dari dua tokoh besar teknologi ini menggarisbawahi bahwa kekhawatiran tentang AI bukan lagi sekadar teori konspirasi, melainkan sebuah ancaman nyata yang harus ditanggapi serius oleh seluruh dunia.
Dua Sisi Mata Uang: Potensi Besar di Balik Ancaman
Kendati demikian, Schmidt tetap mengakui potensi besar yang dimiliki akal imitasi dalam jangka panjang. Ia menyebut AI sebagai bentuk ‘kecerdasan asing’ yang secara perlahan dapat melampaui kemampuan manusia. Ini adalah paradoks yang menarik: teknologi yang sama yang berpotensi mengancam, juga memiliki potensi untuk membawa umat manusia ke tingkat peradaban yang belum pernah terbayangkan.
AI memiliki kemampuan untuk memecahkan masalah kompleks, mempercepat penemuan ilmiah, dan meningkatkan kualitas hidup dalam berbagai aspek. Namun, seperti halnya setiap teknologi revolusioner, ada dua sisi mata uang yang harus kita pahami. Keseimbangan antara inovasi dan keamanan menjadi sangat penting.
Kecerdasan Asing dan Masa Depan Umat Manusia
Schmidt bahkan telah menulis dua buku soal ini bersama Henry Kissinger, mantan Menteri Luar Negeri AS yang telah wafat. "Kami sampai pada kesimpulan bahwa kemunculan kecerdasan asing, yang bukan manusia dan hanya sebagian berada dalam kendali kita, adalah hal besar bagi umat manusia," kata Schmidt. Konsep ‘kecerdasan asing’ ini merujuk pada entitas non-biologis yang memiliki kemampuan kognitif setara atau bahkan melampaui manusia.
"Sampai saat ini, dugaan tersebut terbukti. Kemampuan AI kelihatannya akan jauh melampaui manusia seiring waktu," lanjutnya. Ini bukan lagi tentang apakah AI akan lebih pintar dari kita, melainkan kapan dan bagaimana kita akan hidup berdampingan dengan kecerdasan superior tersebut. Pertanyaan etika, filosofi, dan eksistensial pun muncul ke permukaan.
Apa yang Harus Kita Lakukan? Membangun Jembatan Menuju Masa Depan Aman
Peringatan dari Eric Schmidt ini bukan untuk menakut-nakuti, melainkan sebuah ajakan untuk bertindak dan berpikir lebih jauh. Ini adalah momen krusial bagi umat manusia untuk berdiskusi, berkolaborasi, dan mengembangkan kerangka kerja yang kuat. Kita perlu memastikan bahwa AI dikembangkan dan digunakan secara bertanggung jawab.
Pentingnya diskusi global, kolaborasi antarnegara, dan pengembangan etika AI yang komprehensif menjadi sangat mendesak. Bagaimana kita bisa memastikan AI menjadi alat yang memberdayakan, bukan mengancam? Masa depan AI ada di tangan kita, para pengembang, regulator, politisi, dan seluruh masyarakat. Kita harus bersama-sama membangun jembatan menuju masa depan yang aman, di mana AI menjadi mitra, bukan ancaman bagi eksistensi manusia.


















