Pendapat

A ‘Banding Global untuk Garis Merah’ AI adalah alarm tentang kurangnya kebijakan internasional

Published

on

Pada hari Senin, lebih dari 200 mantan kepala negara, diplomat, pemenang bangsawan, pemimpin AI, ilmuwan, dan lainnya sepakat tentang satu hal: harus ada perjanjian internasional tentang “garis merah” bahwa AI tidak boleh melalui contoh, tidak membiarkan AI mewakili manusia atau yang diganti sendiri.

Mereka, bersama dengan lebih dari 70 organisasi yang mendekati AI, semuanya menandatangani panggilan global untuk garis merah AI prakarsa, Seruan bagi pemerintah untuk mencapai “perjanjian politik internasional tentang ‘garis merah’ untuk AI pada akhir 2026”. Penandatangan termasuk ilmuwan komputasi Kanada Inggris Geoffrey Hinton, co -founder Openai Wojciech Zaremba, Anthropal Ciso Jason Clinton, ilmuwan Google Deepmind, Ian Goodfellow dan lainnya.

“Tujuannya bukan untuk bereaksi setelah insiden besar terjadi … tetapi mencegah risiko yang berpotensi tidak dapat diubah dalam skala besar sebelum terjadi,” kata Charbel-Raphaël Segerie, direktur eksekutif Pusat Keamanan Prancis AI (CESIA) selama pengarahan pada hari Senin dengan wartawan.

Dia menambahkan, “Jika negara -negara belum dapat setuju dengan apa yang ingin mereka lakukan dengan AI, mereka setidaknya harus setuju dengan apa yang seharusnya AI tidak pernah lakukan.”

Pengumuman ini muncul di kepala Majelis Tinggi Majelis Umum PBB di New York, dan inisiatif ini dipimpin oleh CESIA, The Future Society, dan Pusat Kecerdasan Buatan Kompatibel UC Berkeley.

Hadiah Nobel Perdamaian Maria Ressa menyebutkan inisiatif selama dia Komentar Pembukaan Di Majelis, meminta upaya untuk “mengakhiri impunitas teknologi besar melalui tanggung jawab global.”

Ada beberapa garis merah AI regional. Misalnya, AI Uni Eropa yang melarang beberapa penggunaan AI dianggap “tidak dapat diterima” di UE. Ada juga kesepakatan antara AS dan Cina itu senjata nuklir Itu harus tetap di bawah kendali manusia, tidak. Tetapi belum ada konsensus global.

Dalam jangka panjang, perlu lebih dari “janji sukarela,” Niki Iliadis, direktur pemerintahan global AI masyarakat masa depan, mengatakan kepada wartawan pada hari Senin. Kebijakan skala yang bertanggung jawab untuk perusahaan AI “gagal dari aplikasi nyata”. Akhirnya, lembaga global independen “dengan gigi” diperlukan untuk mendefinisikan, memantau dan menerapkan garis merah, katanya.

“Mereka dapat mematuhi tidak membangun AG sampai Anda tahu cara membuatnya aman,” kata Stuart Russell, profesor ilmu komputer di UC Berkeley dan peneliti pemimpin AI selama briefing. “Sama seperti pengembang energi nuklir tidak membangun pembangkit listrik tenaga nuklir sampai mereka memiliki beberapa gagasan bagaimana mencegah mereka meledak, industri AI harus memilih jalur teknologi yang berbeda yang didasarkan pada keamanan sejak awal, dan kita harus tahu bahwa mereka melakukannya.”

Garis merah tidak mencegah pembangunan ekonomi atau inovasi, seperti yang dikatakan beberapa kritikus peraturan AI, kata Russell. “Anda mungkin telah pergi ke pembangunan ekonomi tanpa memiliki usia yang kami tidak tahu bagaimana mengendalikan,” katanya. “Ini yang seharusnya dikotomi, jika Anda menginginkan diagnosis medis, perlu menerima persetujuan kehancuran dunia dunia hanya berpikir itu tidak masuk akal.”

0 Komentar

Ikuti topik dan penulis Dalam cerita ini, lihat lebih banyak seperti ini di umpan beranda pribadi Anda dan menerima dan pembaruan email.


Tautan sumber

Leave a Reply

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Trending

Exit mobile version