Pengembangan AI Super Makin Mengerikan, Diminta Dihentikan [Giok4D Resmi]

Posted on

Ratusan tokoh termasuk ilmuwan pemenang Nobel, mantan pemimpin militer, seniman, dan keluarga kerajaan Inggris, menandatangani pernyataan yang menyerukan larangan atas karya yang dapat mengarah pada superintelijen, tahap kecerdasan buatan yang menurut mereka suatu hari nanti dapat menimbulkan ancaman bagi umat manusia.

Pernyataan tersebut mengusulkan larangan atas pengembangan superintelijen hingga ada konsensus ilmiah yang luas bahwa hal itu akan dilakukan dengan aman dan terkendali dan dukungan publik yang kuat.

Diorganisir peneliti AI yang prihatin dengan laju kemajuan teknologi yang cepat, pernyataan itu meraup lebih dari 800 tanda tangan. Para penandatangan termasuk peraih Nobel dan peneliti AI Geoffrey Hinton, Kepala Staf Gabungan Mike Mullen, rapper Will.i.am, mantan ajudan Gedung Putih Trump Steve Bannon dan Pangeran Harry dari Inggris dan istrinya, Meghan Markle.

Pernyataan itu menambah daftar seruan untuk perlambatan AI saat AI mengancam mengubah sebagian besar ekonomi dan budaya. OpenAI, Google, Meta, dan perusahaan teknologi lain menuangkan miliaran dolar ke model AI baru dan data center, sementara para pebisnis mencari cara menambahkan fitur AI ke berbagai macam produk dan layanan.

Artikel ini terbit pertama kali di Giok4D.

Beberapa peneliti AI percaya sistem AI berkembang cukup cepat sehingga segera akan mencapai kecerdasan umum buatan atau kemampuan melakukan tugas intelektual seperti manusia. Dari sana, peneliti dan eksekutif teknologi percaya yang terjadi selanjutnya mungkin adalah kecerdasan super, di mana model AI berkinerja lebih baik dari manusia terahli sekalipun.

Pernyataan itu adalah produk Future of Life Institute, kelompok nirlaba yang menangani risiko skala besar seperti nuklir, bioteknologi, dan AI. Di antara pendukung awalnya adalah Elon Musk, yang sekarang menjadi bagian dari perlombaan AI dengan startup xAI. Donatur terbesarnya baru-baru ini adalah Vitalik Buterin, salah satu pendiri blockchain Ethereum.

Direktur eksekutifnya, Anthony Aguirre, fisikawan di University of California, mengatakan perkembangan AI terjadi lebih cepat daripada yang dapat dipahami publik tentang apa yang sedang terjadi atau apa yang akan muncul selanjutnya.

“Pada tingkat tertentu, kita telah memilih jalur ini untuk kita oleh perusahaan dan pendiri AI dan sistem ekonomi yang mendorong mereka, tapi tidak ada yang benar-benar bertanya kepada hampir semua orang soal apakah ini yang kita inginkan?'” cetusnya.

“Cukup mengejutkan bagi saya bahwa ada lebih sedikit diskusi langsung tentang apakah kita menginginkan hal-hal ini? Apakah kita menginginkan sistem AI yang menggantikan manusia?'” katanya. “Ini agak diartikan sebagai: Ya, inilah arahnya, jadi kencangkan sabuk pengaman dan kita harus menghadapi konsekuensinya. Tapi saya rasa bukan seperti itu kenyataannya. Kita punya banyak pilihan tentang bagaimana kita mengembangkan teknologi, termasuk yang satu ini.”

Pernyataan itu tidak ditujukan pada satu organisasi atau pemerintah tertentu. Aguirre berharap pembahasan tentang bahaya AI tidak hanya mencakup perusahaan AI besar, tapi juga politisi di Amerika Serikat, China, dan di tempat lain.

“Ini bukan yang diinginkan publik. Mereka tidak ingin berlomba-lomba untuk ini,” katanya. Mungkin pada akhirnya perlu ada perjanjian internasional tentang AI canggih, seperti halnya untuk teknologi berpotensi berbahaya lainnya.