Antropik mengumumkan pada hari Kamis Claude Gov, produknya yang dirancang khusus untuk agen pertahanan dan intelijen AS. Model AI lebih longgar untuk digunakan pemerintah dan dilatih untuk menganalisis informasi rahasia dengan lebih baik.
Pendapat
Antropik meluncurkan Claude Gov untuk penggunaan militer dan intelijen
Perusahaan mengatakan model yang mengumumkan “sudah diterapkan oleh lembaga di tingkat tertinggi keamanan nasional AS” dan bahwa akses ke model -model ini akan terbatas pada lembaga pemerintah yang menangani informasi rahasia. Perusahaan tidak mengkonfirmasi berapa lama mereka digunakan.
CLAUDE GOV Models dirancang khusus untuk menangani kebutuhan pemerintah secara eksklusif, seperti penilaian ancaman dan analisis intelijen, menurut antropik Posting Blog. Dan sementara perusahaan mengatakan “menjalani tes keamanan yang sama yang sama seperti semua model Claude kami”, model memiliki spesifikasi tertentu untuk pekerjaan keamanan nasional. Misalnya, mereka “menolak lebih sedikit ketika terlibat dengan informasi rahasia” yang diberi makan pada mereka, sesuatu Claude berorientasi yang berorientasi Claude dilatih untuk memberi sinyal dan menghindari.
Model Claude Gov juga memiliki pemahaman yang lebih besar tentang dokumen dan konteks dalam pertahanan dan kecerdasan, menurut kemahiran antropik dan lebih baik dalam bahasa dan dialek yang relevan dengan keamanan nasional.
Penggunaan AI oleh lembaga pemerintah telah diperiksa sejak lama karena kemungkinan kerusakan dan efek riak bagi minoritas dan masyarakat yang rentan. Telah ada daftar panjang penangkapan ilegal beberapa negara bagian AS Karena penggunaan polisi pengakuan wajah, Bukti terdokumentasi bias dalam kepolisian prediktif dan diskriminasi dalam algoritma pemerintah Mengevaluasi bantuan -estar yang baik. Selama bertahun-tahun, ada juga kontroversi di seluruh industri sehubungan dengan perusahaan teknologi besar seperti Microsoft, Google dan Amazon, yang memungkinkan personel militer di Israel untuk menggunakan produk AI mereka, dengan kampanye publik dan protes di bawah Tidak ada teknologi untuk apartheid pergerakan.
Antropik Gunakan kebijakan Secara khusus menentukan bahwa pengguna mana pun “tidak boleh membuat atau memfasilitasi pertukaran senjata atau barang ilegal atau sangat diatur”, termasuk penggunaan produk atau layanan antropik untuk “memproduksi, memodifikasi, merancang, memasarkan atau mendistribusikan senjata, bahan peledak, bahan berbahaya atau sistem lain yang dirancang untuk menyebabkan kerusakan atau kehilangan kehidupan manusia.”
Setidaknya sebelas bulan yang lalu, perusahaan katanya membuat satu set pengecualian kontrak untuk kebijakan penggunaannya yang “dikalibrasi dengan hati -hati untuk memungkinkan penggunaan yang menguntungkan oleh lembaga pemerintah yang dipilih dengan cermat.” Pembatasan tertentu – seperti kampanye informasi yang salah, desain atau penggunaan senjata, konstruksi sistem sensor dan operasi cyber jahat – akan tetap dilarang. Tetapi antropik dapat memutuskan “menyesuaikan pembatasan penggunaan pada misi dan otoritas hukum entitas pemerintah”, meskipun bertujuan untuk “menyeimbangkan penggunaan penggunaan produk dan layanan kami yang menguntungkan dengan mitigasi kemungkinan kerusakan.”
Claude Gov adalah tanggapan Anthropic terhadap Chatgpt Gov, produk Openai untuk lembaga pemerintah AS, diluncurkan pada bulan Januari. Ini juga merupakan bagian dari tren raksasa dan startup AI yang lebih luas, berusaha untuk memperkuat bisnis mereka dengan lembaga pemerintah, terutama dalam skenario peraturan yang tidak pasti.
Ketika Openai mengumumkan ChatGpt Gov, perusahaan mengatakan bahwa tahun lalu, lebih dari 90.000 karyawan pemerintah federal, negara bagian dan lokal telah menggunakan teknologi mereka untuk menerjemahkan dokumen, menghasilkan ringkasan, menulis memorandum kebijakan, menulis kode, membuat aplikasi dan banyak lagi. Antropik telah menolak untuk berbagi angka atau menggunakan kasus dari jenis yang sama, tetapi perusahaan adalah bagian dari Program Palantir FedStart, penawaran SaaS untuk perusahaan yang ingin menggunakan perangkat lunak berorientasi pemerintah federal.
AI Skala, raksasa AI yang menyediakan data pelatihan untuk para pemimpin industri seperti Openai, Google, Microsoft dan Meta, menandatangani perjanjian Dengan Departemen Pertahanan pada bulan Maret, untuk program agen AI pertama untuk perencanaan militer AS. Dan sejak itu, ia telah memperluas bisnisnya ke pemerintah dunia, baru -baru ini menginvestasikan kontrak lima tahun dengan Qatar untuk menyediakan alat otomatisasi untuk layanan publik, bantuan medis, transportasi dan banyak lagi.