Co-Founder Google mengatakan bahwa AI melakukan yang terbaik saat Anda mengancam
Lanjutkan Kecerdasan Buatan Itu Hal -hal dalam Teknologi – Pelanggan tertarik atau tidak. Generator paling menyakitkan saya tentang AI yang merupakan fitur atau kemungkinan membuat hidup saya lebih mudah (kemungkinan yang masih tidak bisa saya pahami); Sebaliknya, saya telah fokus pada banyak ancaman yang tampaknya telah muncul dari teknologi ini.
Tentu saja ada informasi yang salah, tentu saja-AII model video membuat klip realistis lengkap dengan audio sinyal bibir misalnya. Ada juga ancaman AI klasik, teknologi ini menjadi cerdas dari kita dan sadar diri dan memilih untuk menggunakan kecerdasan umum dengan cara seperti itu Bukan Menguntungkan kemanusiaan. Bahkan ketika ia melakukan aset di perusahaan AI -nya sendiri (bahkan tidak menyebutkan pemerintahan saat ini) Elon Kasturi melihat 10 hingga 20% dari kemungkinan bahwa AI “Buruk“Dan teknologi tetap menjadi” ancaman keberadaan yang signifikan “. Keren.
Jadi itu tidak selalu membuat saya nyaman untuk mendengarkan eksekutif teknologi profil tinggi dan mapan, dengan bercanda membahas bagaimana memperlakukan AIS dengan buruk meningkatkan potensinya. Ini akan menjadi co-founder Google Sergey Brin, yang mengejutkan penonton Minggu ini berada di rekaman podcast Isle-inDalam ceramah yang kembali ke Google, AI dan robotika di Brin, investor Jason Calacanis membuat lelucon tentang mendapatkan “lancang” dengan AI untuk mendapatkannya untuk mendapatkannya ke pekerjaan yang diinginkannya. Itu menciptakan titik yang valid dari brin. Orang -orang bisa keras untuk mengatakan dengan tepat apa yang dia katakan satu sama lain, tetapi dia mengatakan dampaknya: “Anda tahu, ini adalah hal yang aneh … kami berada di komunitas AI … tidak hanya model kami, tetapi semua model cenderung melakukan lebih baik jika mereka mengancam mereka.”
Pembicara lain tampaknya terkejut. “Jika Anda mengancam mereka?” Brin “bereaksi seperti kekerasan fisik. Namun … orang merasa aneh tentang hal itu, jadi kita tidak benar -benar membicarakannya.” Brin kemudian mengatakan bahwa historis secara tihass, Anda mengancam model dengan menculik. Anda dapat melihat pertukaran di sini:
Percakapan dengan cepat ditransfer ke masalah lain, termasuk bagaimana anak -anak tumbuh dengan AI, tetapi komentar itu saya telah pindah dari saya. Apa yang kita lakukan di sini? Kami kehilangan alur ceritanya? Tidak ada yang ingat Terminator?
Meninggalkan lelucon di satu sisi, tampaknya praktik yang buruk untuk mulai mengancam model AI untuk melakukan sesuatu. Tentu saja, mungkin program -program ini tidak pernah benar -benar mencapai detektif umum buatan (AGI) tapi maksud saya, saya ingat ketika kita harus menceritakan diskusi ketika dibahas ketika dibahas “Tolong” dan “Terima kasih” Alexa atau Siri hal -hal saat bertanya. Lupakan keindahannya; Cukup menyalahgunakan Chatzipt sampai Anda melakukan apa yang Anda inginkan – itu harus berakhir untuk semua orang.
AI melakukan yang terbaik saat Anda mengancamnya. Mungkin beberapa pelatihan memahami bahwa “ancaman” berarti bahwa pekerjaan ini harus dianggap lebih serius. Anda tidak akan menangkap saya dengan memeriksa perkiraan itu di akun pribadi saya.
Menurut Anda, bagaimana sejauh ini?
Contoh mengapa para antropolog dapat memberikan contohnya Bukan Untuk menyiksa ai Anda
Pada minggu yang sama dengan rekaman podcast ini, Anthropic telah merilis model AI Clode terbaru. Seorang karyawan antropologis pergi ke Blocsky dan menyebutkan bahwa model berkinerja tertinggi perusahaan dapat mencoba membuat Anda tidak melakukan hal -hal yang “tidak bermoral”, hubungi regulator, mengunci Anda atau membawa Anda keluar dari sistem:
Karyawan lebih lanjut dengan jelas menjelaskan bahwa itu hanya terjadi dalam “kasus -kasus yang jelas -jelas tentang kesalahan”, tetapi bot yang mereka lihat akan dijelaskan jika digunakan dengan cara yang negatif. Lihat contoh khusus yang relevan dari karyawan di bawah ini:
Setelah itu karyawan itu Posting ini telah dihapus Dan menentukan bahwa itu hanya diberikan akses ke instruksi dan peralatan yang tidak biasa selama pengujian. Bahkan jika ini benar, jika itu dapat terjadi dalam tes, sangat mungkin bahwa itu dapat terjadi di versi model yang akan datang. Berbicara tentang tes, para peneliti antropologis menemukan bahwa model Claud baru ini Kecurangan dan rentan terhadap pemerasanJika Bot percaya itu sedang diancam atau interaksi tidak disukai.
Mungkin kita harus menyiksa AI di luar meja?