Pendapat

Antropik memiliki aturan baru untuk lanskap yang lebih berbahaya

Published

on

Antropik telah memperbarui kebijakan penggunaan untuk chatbot Claude AI -nya sebagai tanggapan terhadap masalah keamanan yang meningkat. Selain memperkenalkan aturan keamanan cyber yang lebih ketat, Antropik sekarang ditentukan Beberapa senjata paling berbahaya yang tidak boleh dikembangkan orang menggunakan Claude.

Antropik tidak menyoroti penyesuaian yang dilakukan dalam kebijakan senjatanya di pos, merangkum perubahannya, tetapi perbandingan antara Kebijakan Penggunaan Perusahaan Lama Dan baru Anda mengungkapkan perbedaan yang luar biasa. Although anthropy previously prohibited the use of Claude to “produce, modify, design, market or distribute weapons, explosives, hazardous materials or other systems designed to cause damage or loss of human life”, the updated version expands on this specifically prohibiting the development of high performance explosives, together with biological, nuclear, chemical and radiological (CBN) (CBR) (CBR) (CBN) (CBR), as well as Ledakan biologis, nuklir dan radiologis dan radiologis (CBR).

Pada bulan Mei, antropia Perlindungan diterapkan dalam “AI Safety Level 3” Bersama dengan peluncuran model baru Claude Opus 4. Safegun dirancang untuk membuat model lebih sulit untuk di -jailbreak serta membantunya membantu dalam mengembangkan senjata CBRN.

Dalam postingnya, antropik juga mengenali risiko yang ditimbulkan oleh alat AI agen, termasuk penggunaan komputer, memungkinkan Claude untuk mengendalikan komputer pengguna, serta kode Claude, alat yang menggabungkan Claude langsung ke terminal pengembang. “Kemampuan yang kuat ini memperkenalkan risiko baru, termasuk potensi penyalahgunaan skala, penciptaan malware dan serangan cyber,” tulis Anthrapic.

AI Startup menanggapi risiko potensial ini, menekuk bagian baru “tidak membahayakan komputer atau sistem jaringan pada kebijakan penggunaannya. Bagian ini mencakup aturan terhadap penggunaan Claude untuk menemukan atau mengeksplorasi kerentanan, membuat atau mendistribusikan malware, mengembangkan alat untuk serangan penolakan layanan dan banyak lagi.

Selain itu, antropik melonggarkan kebijakannya di sekitar konten politik. Alih -alih melarang penciptaan semua jenis konten yang terkait dengan kampanye politik dan lobi, antropik sekarang akan melarang orang menggunakan Claude untuk “menggunakan kasus yang menyesatkan atau mengganggu proses demokratis atau melibatkan segmentasi oleh pemilih dan kampanye.” Perusahaan juga mengklarifikasi bahwa persyaratannya untuk semua kasus penggunaan “berisiko tinggi”, yang ikut bermain ketika orang menggunakan Claude untuk membuat rekomendasi kepada individu atau pelanggan, hanya berlaku untuk skenario konsumen, bukan untuk penggunaan komersial.

Tautan sumber

Leave a Reply

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Trending

Exit mobile version