Enable JavaScript to use the widget powered by Widjet
banner 728x250

Super AI Ancam Manusia? Wozniak, Pangeran Harry, dan 22 Ribu Tokoh Dunia Desak Penghentian!

super ai ancam manusia wozniak pangeran harry dan 22 ribu tokoh dunia desak penghentian portal berita terbaru
banner 120x600
banner 468x60

Dunia teknologi sedang bergejolak hebat. Ratusan tokoh publik terkemuka, termasuk para pionir kecerdasan buatan (AI) hingga sosok bangsawan seperti Co-founder Apple Steve Wozniak dan Pangeran Harry, kini bersatu menyerukan satu hal: hentikan pengembangan superintelligence. Ini bukan sekadar isu teknis, melainkan kekhawatiran global yang mendalam.

Superintelligence sendiri adalah bentuk AI yang dipercaya akan melampaui kemampuan kognitif manusia dalam hampir semua aspek. Sebuah lompatan evolusi teknologi yang memicu kekhawatiran serius di kalangan para ahli dan pemimpin dunia.

banner 325x300

Petisi yang dirilis pada Rabu (22/10) ini telah mengumpulkan lebih dari 22 ribu tanda tangan. Angka ini terus bertambah, menunjukkan skala kekhawatiran yang meluas di berbagai lapisan masyarakat.

Di antara para penandatangan, ada nama-nama besar di dunia teknologi yang tak asing lagi. Sebut saja pendiri Virgin Group Richard Branson, serta ilmuwan komputer legendaris Yoshua Bengio dan Geoff Hinton, yang sering disebut sebagai "bapak pendiri" AI modern.

Bahkan, Duke dan Duchess of Sussex, Pangeran Harry dan Meghan Markle, turut bergabung dalam seruan ini. Kehadiran mereka menegaskan bahwa isu superintelligence ini bukan lagi sekadar perdebatan teknis, melainkan masalah global yang menyentuh semua kalangan.

Apa Itu Superintelligence dan Mengapa Jadi Ancaman?

Superintelligence telah menjadi istilah yang sangat populer di kancah AI. Ini merujuk pada AI yang jauh lebih cerdas dari manusia, mampu belajar, berpikir, dan memecahkan masalah dengan kecepatan dan kapasitas yang tak terbayangkan.

Bayangkan sebuah entitas yang bisa menguasai semua bidang ilmu pengetahuan, merancang strategi yang tak terpikirkan manusia, dan bahkan menciptakan AI lain yang lebih canggih. Itulah gambaran singkat dari superintelligence yang menjadi fokus kekhawatiran ini.

Perusahaan-perusahaan raksasa teknologi seperti xAI milik Elon Musk dan OpenAI milik Sam Altman kini berlomba-lomba merilis model bahasa besar (LLM) yang semakin canggih. Persaingan ini memicu percepatan pengembangan menuju superintelligence.

Bahkan, Meta, salah satu pemain besar di industri ini, secara terang-terangan menamai divisi LLM-nya sebagai ‘Meta Superintelligence Labs’. Ini menunjukkan bahwa ambisi untuk mencapai tingkat kecerdasan super bukan lagi sekadar fiksi ilmiah, melainkan tujuan nyata.

Ancaman di Balik Kecerdasan Super

Mengapa begitu banyak tokoh penting merasa perlu untuk menyerukan penghentian? Petisi ini memberikan peringatan keras tentang prospek kecerdasan super yang dapat membawa dampak mengerikan bagi umat manusia.

Mereka menyoroti kekhawatiran mulai dari "usangnya ekonomi manusia" – di mana banyak pekerjaan bisa digantikan AI – hingga "hilangnya kekuasaan, kebebasan, hak asasi manusia, martabat, dan kendali" atas kehidupan kita. Ini adalah skenario yang bisa mengubah tatanan masyarakat secara fundamental.

Tak hanya itu, risiko keamanan nasional dan bahkan "potensi kepunahan manusia" juga menjadi sorotan utama. Ini bukan lagi sekadar film fiksi ilmiah, melainkan skenario yang dianggap serius oleh para ahli yang memahami potensi AI.

Seruan Mendesak: Hentikan Sampai Aman!

Dikutip dari CNBC, pernyataan ini secara eksplisit menyerukan larangan pengembangan kecerdasan super. Larangan ini harus berlaku hingga terpenuhi dua syarat krusial yang dianggap mutlak.

Pertama, harus ada dukungan publik yang kuat terhadap teknologi tersebut. Kedua, harus ada konsensus ilmiah yang jelas bahwa kecerdasan super dapat dibangun dan dikendalikan dengan aman tanpa menimbulkan ancaman eksistensial.

Ini adalah permintaan yang tegas: jangan terburu-buru. Pastikan kita memahami sepenuhnya apa yang kita ciptakan dan bagaimana mengendalikannya sebelum melangkah lebih jauh ke ranah yang belum terpetakan.

Koalisi Luas di Balik Petisi

Petisi ini bukan hanya didukung oleh para ahli AI dan pemimpin teknologi. Nama-nama di balik pernyataan ini berasal dari koalisi masyarakat yang sangat luas, mencakup berbagai latar belakang dan profesi.

Ada akademisi, tokoh media, pemimpin agama, hingga kelompok bipartisan yang terdiri dari mantan politisi dan pejabat AS. Keberagaman ini menunjukkan bahwa isu superintelligence melampaui batas-batas profesi dan ideologi.

Beberapa pejabat pensiunan penting juga turut serta, seperti mantan Ketua Gabungan Kepala Staf Angkatan Bersenjata AS Mike Mullen dan mantan Penasihat Keamanan Nasional Susan Rice. Ini menegaskan bahwa isu ini juga memiliki implikasi geopolitik yang serius.

Pernyataan yang ditujukan kepada pemerintah, perusahaan teknologi, dan pembuat kebijakan ini digagas oleh Future of Life Institute (FLI). FLI adalah sebuah kelompok keamanan AI yang berbasis di AS dan dikenal aktif dalam isu ini.

Mereka bukan pemain baru dalam isu ini. Pada tahun 2023, FLI juga pernah menyerukan penundaan pengembangan sistem AI yang sangat kuat, menunjukkan konsistensi mereka dalam mengadvokasi keamanan AI dan masa depan umat manusia.

Perdebatan Sengit: Antara Ambisi dan Realita

Meskipun ada seruan penghentian, tidak semua pihak sepakat. Bos Meta, Mark Zuckerberg, pada Juli lalu bahkan menyatakan bahwa pengembangan kecerdasan super (superintelligence) kini "sudah di depan mata".

Pernyataan Zuckerberg ini menunjukkan optimisme, atau mungkin ambisi, yang kuat dari sebagian pihak di industri teknologi. Mereka melihat superintelligence sebagai tujuan yang bisa dicapai dalam waktu dekat, bahkan dalam hitungan tahun.

Namun, di sisi lain, beberapa ahli justru berpendapat bahwa pembicaraan tentang ASI (Artificial Superintelligence) lebih mencerminkan posisi kompetitif di antara perusahaan teknologi. Mereka menganggap ini sebagai strategi pemasaran untuk menarik investasi ratusan miliar dolar, daripada pencapaian terobosan teknis yang signifikan.

Perdebatan ini menyoroti kompleksitas isu superintelligence. Apakah ini adalah ancaman nyata yang harus segera diatasi, ataukah hanya hype yang didorong oleh persaingan industri semata?

Ketakutan Eksistensial dan Suara Publik

Terlepas dari perdebatan, FLI tetap menyatakan bahwa prospek tercapainya ASI dalam dekade mendatang membawa sejumlah ancaman serius. Ketakutan eksistensial tentang AI berfokus pada kemampuan sistem untuk menghindari kendali manusia.

Dilansir The Guardian, para ahli khawatir AI supercerdas bisa mengabaikan pedoman keamanan yang telah ditetapkan. Bahkan, mereka bisa memicu tindakan yang bertentangan dengan kepentingan terbaik manusia. Skenario ini adalah mimpi buruk yang ingin dihindari.

Bagaimana dengan masyarakat umum? FLI juga merilis jajak pendapat nasional AS yang menunjukkan bahwa sekitar tiga perempat warga Amerika menginginkan regulasi ketat terhadap AI canggih. Ini adalah suara mayoritas yang tidak bisa diabaikan.

Survei terhadap 2.000 orang dewasa AS ini juga menemukan bahwa enam dari 10 orang percaya bahwa AI superhuman tidak boleh dikembangkan hingga terbukti aman atau dapat dikendalikan. Hanya 5 persen yang mendukung status quo pengembangan yang cepat dan tidak teratur.

Ini adalah sinyal jelas dari publik: mereka ingin keamanan menjadi prioritas utama, bukan kecepatan pengembangan. Suara masyarakat harus didengar dalam perdebatan krusial ini, karena dampaknya akan dirasakan oleh semua.

Seruan dari Steve Wozniak, Pangeran Harry, dan ribuan tokoh dunia ini bukan sekadar peringatan biasa. Ini adalah alarm keras yang menggema, menuntut perhatian serius dari pemerintah, perusahaan teknologi, dan kita semua. Masa depan umat manusia mungkin bergantung pada bagaimana kita merespons tantangan superintelligence ini. Akankah kita mampu mengendalikan ciptaan kita, ataukah kita akan membiarkannya melampaui batas kendali?

banner 325x300