Connect with us

Berita

Tidak semuanya membutuhkan LLM: Kerangka kerja untuk evaluasi saat itu adalah kecerdasan buatan yang logis

Published

on


“Apa kebutuhan pelanggan yang membutuhkan solusi untuk kecerdasan buatan?” Tidak selalu “ya”. LLM masih mahal dan tidak selalu akurat. Baca selengkapnya

Tautan sumber

Continue Reading
Click to comment

Leave a Reply

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Berita

Langchain Alignment Menutup Kesenjangan Trust TRST dengan kalibrasi pada tingkat yang cepat

Published

on


Langchain memungkinkan lembaga untuk membuat dan mengkalibrasi model untuk mengevaluasi dan memelihara aplikasi di dekat preferensi manusia. Baca selengkapnya

Tautan sumber

Continue Reading

Berita

Di dalam wawancara Biden Confidentie CEV Richti, “Transfer” dalam penyelidikan rumah

Published

on

baruAnda sekarang dapat mendengarkan Fox News!

Seorang anggota Lingkaran Internal Mantan Presiden Joe Biden duduk dengan penyelidik Komite Kontrol Dewan Perwakilan Rakyat untuk melakukan wawancara maraton tertutup, yang berlangsung selama lebih dari delapan jam pada hari Rabu.

Sebuah sumber yang akrab dengan Sitdown mengatakan kepada Fox News Digital bahwa Steve Richti, yang memegang posisi presiden selama empat tahun dari masa jabatan Biden, digambarkan sebagai “pertempuran dan pertahanan” selama pertemuan sukarela.

Sumber itu menggambarkan Rictei sebagai tantangan dalam menghadapi keraguan tentang intensitas mental Biden, meskipun “dia mengakui bahwa mereka semua tahu bahwa Omar Biden adalah masalah dan mereka menanganinya sebagai masalah politik,” kata mereka.

Sumber itu mengatakan kepada Fox News Digital: “Mr. Ricchetti menyatakan bahwa dia percaya bahwa Presiden Biden memiliki kemampuan untuk menjadi presiden dan bahwa dia melakukan kemampuan presiden setiap hari. Dia percaya bahwa Joe Biden dapat menjadi presiden hari ini, dan bahwa dia bisa menang pada tahun 2024.”

Biden, seorang dokter, menolak untuk menghentikan penyelidikan terhadap penutup -up: “Setiap alasan”

Mantan penasihat Presiden Steve Richiti bertemu dengan anggota parlemen pada hari Rabu (Gambar Getty)

Ricchetti, tekanan umum dan demokratis sejak lama, mulai bekerja untuk pertama kalinya di Biden pada Maret 2012 ketika ia diangkat sebagai penasihat wakil presiden selama era mantan Presiden Barack Obama. Dia tinggi untuk menjadi Kepala Staf Biden pada Desember 2013.

Sumber itu mengatakan bahwa ia menggambarkan Biden selama 13 tahun terakhir, dan menggambarkannya sebagai hubungan pribadi dengan mantan ibu negara, Gil Biden dan Hunter Biden juga.

Anak -anak Ricchetti juga dekat dengan Gedung Putih selama periode Biden – setidaknya tiga dari mereka memiliki pekerjaan dalam manajemen demokratis di beberapa titik.

Ketua Komite Pengawasan Dewan Perwakilan Rakyat sedang menyelidiki R-Ky. gedung Putih Asisten telah menyembunyikan tanda -tanda retret mental di presiden, dan jika itu berarti bahwa prosedur eksekutif ditandatangani melalui otopsi tanpa sepengetahuannya.

Steve Richiti adalah sumpah konstitusional

Ricchetti memiliki hubungan dengan Biden selama lebih dari satu dekade. (Jonathan Ernest)

Ricchetti adalah asisten ketujuh sebelumnya untuk tangan, tetapi hanya yang keempat yang muncul secara sukarela. Mantan Dokter Kevin Okonor dan mantan asisten Gedung Putih Annie Thomasini dan Anthony Bernal adalah semua Amandemen Kelima untuk menjawab pertanyaan.

Rictei mengatakan kepada para penyelidik bahwa ia tidak berpartisipasi dalam surat evaluasi fisik Biden O’Connor, “tetapi ia melakukan percakapan dengan karyawan senior tentang cara berkomunikasi dan memberikan surat evaluasi fisik kepada Presiden Biden,” katanya kepada sumber Fox News Digital.

Sumber itu mengatakan bahwa ia juga membela faktor -faktor Biden yang berulang, menggambarkannya sebagai “kesalahan umum” yang dapat dilakukan siapa pun.

“Frekuensi kesalahan ini tidak meningkat sejak Joe Biden adalah wakil presiden,” kata sumber itu.

Ron Klein menghindari jurnalis setelah barbekyu maraton dalam penyelidikan Tashir

Klik di sini untuk mendapatkan aplikasi Fox News

Mayoritas interogasi datang selama sesi delapan jam dari Partai Republik-sumber mengatakan bahwa Demokrat sering mencoba mengubah masalah ini untuk membahas Presiden Donald Trump.

Richti tidak mengatakan apa -apa kepada wartawan ketika meninggalkan pertemuan pada Rabu malam.

Tidak ada anggota parlemen untuk sitdown, seperti biasanya dengan wawancara tertulis ini.

Tautan sumber

Continue Reading

Berita

IBM: Biaya bayangan AI 670 ribu dolar lebih, 97 % perusahaan tidak memiliki kendali

Published

on

Ingin lebih banyak visi yang cerdas dari kotak masuk Anda? Berlangganan buletin mingguan kami untuk mendapatkan apa yang hanya terkait dengan lembaga AI, data dan pemimpin keamanan. Berlangganan sekarang


Shadow AI adalah masalah $ 670.000 yang tidak diketahui sebagian besar organisasi.

Biaya IBM 2025 untuk Laporan Pelanggaran DataHari ini, dalam kemitraan dengan Bunon InstituteIni mengungkapkan bahwa pelanggaran melibatkan penggunaan karyawan yang tidak sah dari lembaga alat intelijen buatan untuk biaya lembaga dengan rata -rata $ 4,63 juta. Ini sekitar 16 % dari rata -rata global $ 4,44 juta.

Penelitian, berdasarkan 3470 wawancara di 600 organisasi yang menembus, mencerminkan adopsi cepat kecerdasan buatan untuk kontrol keamanan. Sementara hanya 13 % organisasi yang melaporkan insiden keamanan terkait dengan kurangnya intelijen, 97 % dari yang dilanggar yang tidak memiliki kontrol yang tepat untuk mencapai kecerdasan buatan. 8 % lainnya tidak yakin apakah itu berisiko melalui sistem kecerdasan buatan.

“Data menunjukkan bahwa kesenjangan antara mengadopsi kecerdasan buatan dan pengawasan sudah ada, dan para aktor mulai mengancam untuk mengeksploitasinya,” kata Souja Vesyanan, wakil presiden produk keamanan dan produk waktu di IBM. “Laporan ini mengungkapkan bahwa tidak ada akses dasar ke akses dasar sistem kecerdasan buatan, meninggalkan data yang sangat sensitif dan menampilkan model untuk diproses.”


AI Impact Series kembali ke San Francisco – 5 Agustus

Tahap selanjutnya dari kecerdasan buatan di sini – apakah Anda siap? Bergabunglah dengan para pemimpin dari Block, GSK dan SAP untuk mengambil tampilan eksklusif tentang cara memulai kembali agen independen dari tugas alur kerja yayasan-dari keputusan dalam waktu yang sebenarnya untuk otomatisasi komprehensif.

Mengamankan tempat Anda sekarang – ruang terbatas: https://bit.ly/3guPlf


Bayangan AI, rantai pasokan adalah tanker serangan favorit

Laporan tersebut menemukan bahwa 60 % dari kecelakaan keselamatan penuntutan menyebabkan data yang terancam punah, sementara 31 % menyebabkan gangguan dalam operasi harian lembaga. Informasi Identifikasi Pelanggan (PII) diretas dalam 65 % kecelakaan bayangan kecerdasan buatan. Ini jauh lebih tinggi dari rata -rata global 53 %. Salah satu kelemahan terbesar dalam keamanan AI adalah tata kelola, dengan 63 % dari organisasi yang menembus baik untuk kebijakan tata kelola intelijen buatan atau masih berkembang.

“Shadow Ai seperti steroid di Tour de France; orang menginginkan keuntungan tanpa menyadari konsekuensi jangka panjang”, Itamar Golan, CEO Keamanan langsungBeri tahu VentureBeat. Perusahaannya memberi peringkat lebih dari 12.000 aplikasi internasional Amnesty dan menemukan 50 lagi setiap hari.

VentureBeat terus melihat pertahanan lawan lawan saat ini terhadap serangan perangkat lunak dan model rantai pasokan. Tidak mengherankan bahwa laporan itu ditemukan bahwa rantai pasokan adalah serangan utama kecelakaan keselamatan kecerdasan buatan, dengan 30 % yang mencakup aplikasi, aplikasi aplikasi atau komponen tambahan. Laporan tersebut juga menyatakan: “Rantai penyelesaian adalah penyebab paling umum dari insiden keselamatan kecerdasan buatan. Insiden keamanan melibatkan model dan aplikasi kecerdasan buatan beragam, tetapi ada satu jenis yang dengan jelas mengklaim klasifikasi tertinggi: kompromi rantai pasokan (30 %), yang mencakup aplikasi pendek dan komponen tambahan.”

Amnesty International menyebar di senjata

Setiap bentuk kecerdasan buatan melanjutkan senjata, termasuk LLM yang dirancang untuk meningkatkan tradecraft, dalam akselerasi. Enam belas persen pelanggaran sekarang termasuk penyerang yang menggunakan kecerdasan buatan, terutama untuk berburu yang diciptakan oleh kecerdasan buatan (37 %) dan serangan Deepfake (35 %). Model, termasuk penipuan, Ghostgpt Dan Darkgpt, pengecer kurang dari $ 75 per bulan dan Dirancang khusus untuk strategi serangan seperti berburu, mengeksploitasi pembuatan kode, inspeksi kode, memindai kelemahan dan memeriksa keaslian kartu kredit.

Semakin banyak LLM yang diberikan adalah semakin besar kemungkinan mengarahkan untuk menghasilkan output berbahaya. Cisco Laporan Keamanan Kecerdasan Buatan Laporan bahwa LLM yang telah disita lebih mungkin menghasilkan 22 kali output berbahaya daripada model dasar.

“Lawan tidak hanya menggunakan kecerdasan buatan untuk mengotomatiskan serangan, tetapi mereka menggunakannya untuk mencampur lalu lintas reguler, yang membuatnya sulit ditemukan.” Jaringan CatoBaru -baru ini saya memberi tahu VentureBeat. “Tantangan sebenarnya adalah bahwa serangan yang beroperasi dengan Amnesty International yang sama bukan satu peristiwa tunggal; ini adalah proses pengintaian, penghindaran, dan adaptasi yang berkelanjutan.”

Shlomo Kramer, CEO Cato Networks, juga memperingatkan dalam sebuah wawancara baru -baru ini dalam proyek VentureBeat: “Ada jendela pendek di mana perusahaan dapat menghindari jatuh ke dalam struktur yang terfragmentasi. Para penyerang bergerak lebih cepat daripada tim integrasi,” juga Shalomo Kramer, CEO Cato Networks.

Wasit adalah salah satu kelemahan yang dieksploitasi

Dari 37 % organisasi yang mengklaim memiliki kebijakan tata kelola intelijen buatan, hanya 34 % yang melakukan audit reguler IQ. Hanya 22 % dari tes agresif pada model kecerdasan buatan. DevSecops telah muncul sebagai faktor tertinggi, yang mengurangi biaya pelanggaran, dan organisasi rata -rata menyediakan $ 227.192.

Laporan laporan mencerminkan bagaimana deportasi tata kelola sebagai prioritas yang lebih rendah mempengaruhi keamanan jangka panjang. “Sebagian besar organisasi penetrasi (63 %) tidak memiliki kebijakan infeksi buatan atau masih satu pengembangan. Bahkan ketika ia memiliki kebijakan, kurang dari setengahnya memiliki persetujuan untuk menyebarkan kecerdasan buatan, dan 62 % tidak memiliki kontrol akses yang tepat pada sistem kecerdasan buatan.”

Sebagian besar organisasi tidak memiliki tata kelola dasar untuk mengurangi risiko yang terkait dengan kurangnya kecerdasan, karena 87 % mengakui tidak adanya kebijakan atau operasi. Hampir dua pertiga dari perusahaan yang diretas gagal memeriksa model kecerdasan buatan secara teratur, dan lebih dari tiga perempat tidak melakukan tes bermusuhan, membuat kelemahan kritis terpapar.

Pola keterlambatan dalam menanggapi kelemahan yang diketahui di luar pemerintahan kecerdasan buatan untuk praktik keamanan dasar. Chris Joyle, Wakil Presiden Manajemen untuk Keamanan Keamanan herbaMenekankan transformasi dalam perspektif: “Apa yang saat ini kita sebut” manajemen koreksi “harus lebih disebut manajemen paparan – atau jam berapa yang dibutuhkan organisasi Anda untuk terpapar kelemahan tertentu?”

Keuntungan AI sebesar $ 1,9 juta: Mengapa buah -buah keamanan pintar datang?

Terlepas dari sifat hubungan kecerdasan buatan, laporan ini memberikan harapan untuk melawan dua angka yang meningkat. Lembaga yang mencapai semuanya menggunakan kecerdasan dan otomatisasi buatan memberikan $ 1,9 juta per pelanggaran dan resolusi kecelakaan 80 hari. Menurut laporan: “Tim keamanan yang menggunakan kecerdasan dan otomatisasi buatan telah secara singkat meningkatkan waktu pelanggaran mereka 80 hari dan mengurangi biaya rata -rata pelanggaran sebesar $ 1,9 juta dibandingkan dengan lembaga yang tidak menggunakan solusi ini.”

Sungguh menakjubkan betapa kontrasnya ditawarkan. Organisasi atas nama intelijen buatan menghabiskan $ 3,62 juta untuk pelanggaran, dibandingkan dengan $ 5,52 juta untuk mereka yang tidak memiliki Amnesty International, yang menyebabkan biaya biaya sebesar 52 %. Tim -tim ini menentukan pelanggaran dalam 153 hari, dibandingkan dengan 212 hari dari pendekatan tradisional, dan kemudian mengandungnya dalam 51 hari, dibandingkan dengan 72 hari.

“Alat kecerdasan buatan unggul dalam analisis cepat data besar melalui catatan, titik akhir, gerakan jaringan, dan menemukan pola yang tepat lebih awal,” catat Vineet Arra, CTO AT Winwire. Kemungkinan ini untuk mengubah ekonomi keamanan: sementara biaya pelanggaran global rata -rata berada pada $ 4,44 juta, pengguna pekerjaan intelijen buatan yang keras pada 18 % lebih rendah dari standar ini.

Namun, adopsi terus berjuang. Hanya 32 % menggunakan keamanan kecerdasan buatan secara luas, 40 % menyebarkannya dengan cara yang terbatas, dan 28 % menggunakannya tanpa kapasitas apa pun. Lebih banyak organisasi mendistribusikan kecerdasan buatan secara merata melalui siklus keamanan keamanan, sering melacak distribusi berikut: pencegahan sebesar 30 %, temukan 29 %, investigasi 26 % dan 27 % respons.

Daren Goeson, Manajemen Produk SVP di Ivanti, ini meningkatkan: “Alat keselamatan dapat bekerja dengan amnesti internasional untuk menganalisis sejumlah besar data untuk mendeteksi kasus yang tidak normal dan memprediksi ancaman potensial lebih cepat dan lebih akurat daripada analis manusia mana pun.”

Tim keamanan tidak terbelakang; Namun, 77 % sesuai dengan atau akreditasi dari total perusahaan mereka adalah kecerdasan buatan. Di antara mereka yang berinvestasi pasca -LAGU, 45 %memilih solusi yang didorong oleh kecerdasan buatan, dengan fokus pada penemuan ancaman (36 %), perencanaan respons kecelakaan (35 %) dan alat keamanan data (31 %).

Faktor devsecops mengintegrasikan manfaat lebih banyak, memberikan tambahan $ 227.192, menjadikannya pengurangan biaya terbaik. Selain dampak kecerdasan buatan, institusi dapat mengurangi biaya pelanggaran lebih dari dua juta dolar, yang mengubah keselamatan dari pusat biaya menjadi diskriminasi kompetitif.

Mengapa biaya keamanan siber AS telah mencapai tingkat rekor, sedangkan seluruh dunia menghemat jutaan orang

Adegan keamanan siber mengungkapkan paradoks yang luar biasa pada tahun 2024: dengan penurunan biaya pelanggaran global menjadi $ 4,44 juta, yang merupakan penurunan pertama dalam lima tahun. Organisasi Amerika telah melihat paparan mereka terhadap $ 10,22 juta yang belum pernah terjadi sebelumnya untuk setiap kecelakaan. Perbedaan ini menunjukkan perubahan mendasar dalam bagaimana risiko internet dikumpulkan lintas batas geografis. Organisasi perawatan kesehatan masih menanggung beban yang lebih berat, dengan biaya rata -rata $ 7,42 juta per pelanggaran, dan jadwal waktu keputusan diperpanjang hingga 279 hari – atau lima minggu penuh dengan tes rekan mereka di industri lain.

Hasil operasional sama: 86 % dari organisasi yang diretas melaporkan gangguan besar di tempat kerja, karena mereka membutuhkan tiga perempat lebih dari 100 hari untuk mengembalikan operasi normal. Mungkin sebagian besar dari mereka sehubungan dengan pemimpin keamanan adalah munculnya kelelahan investasi. Kewajiban pengeluaran keamanan setelah layanan menurun dari 63 % menjadi hanya 49 % setiap tahun, yang menunjukkan bahwa organisasi mempertanyakan pengembalian investasi keamanan interaktif. Di antara mereka yang telah mencapai pemulihan total, hanya 2 % yang berhasil mengembalikan posisi operasi mereka dalam waktu 50 hari, sementara 26 % membutuhkan lebih dari 150 hari untuk memulihkan kaki operasional. Standar -standar ini menekankan fakta yang keras: sementara organisasi global meningkatkan kemampuan mereka untuk menahan biaya pelanggaran, lembaga -lembaga Amerika menghadapi krisis yang meningkat yang tidak dapat diselesaikan dengan pengeluaran keamanan tradisional saja. Kesenjangan luas membutuhkan pemikiran ulang dasar dari strategi fleksibilitas dunia maya, terutama untuk penyedia layanan kesehatan yang bekerja di persimpangan risiko maksimum dan jadwal untuk pemulihan yang diperpanjang.

Laporan IBM menekankan alasan pentingnya pemerintahan

“Gen AI telah mengurangi penghalang untuk masuknya penjahat internet … sehingga penyerang rendah di bidang manfaat dari Genai untuk menulis program teks untuk fotografi, menganalisis kelemahan, dan meluncurkan serangan dengan upaya minimal,” Catatan Crowdstrike CEO dan pendiri George Courts.

Mike Riemer, Field Ciso di Ivanti, menawarkan harapan: “Selama bertahun -tahun, pemogok menggunakan Amnesty International untuk mendukung mereka. Namun, pada tahun 2025 mereka akan mewakili titik balik dengan para pembela mulai memanfaatkan kemampuan penuh atas nama keamanan siber.”

Laporan IBM memberikan visi yang dapat digunakan organisasi untuk segera bekerja:

  1. Menerapkan tata kelola kecerdasan buatan sekarang Dengan hanya 45 % dari persetujuan penyebaran kecerdasan buatan
  2. Mendapatkan visi dalam bayang -bayang kecerdasan buatan Audit reguler diperlukan ketika 20 % pelanggaran menderita kecerdasan buatan yang tidak sah
  3. Mempercepat akreditasi AI untuk keamanan Vakses $ 1,9 juta membenarkan publikasi agresif

Laporan ini juga menyimpulkan: “Lembaga harus menjamin pejabat keamanan informasi besar (CISO), staf pendapatan kecil (CROS) dan staf kepatuhan terbesar (CCO), dan tim mereka bekerja sama secara teratur. Berinvestasi dalam program keamanan dan tata kelola terintegrasi dapat membantu mengumpulkan para pemangku kepentingan melalui pekerjaan bersama secara otomatis dalam menemukan bayangan dan bayangan.”

Karena para penyerang menciptakan AI dan karyawan membuat alat bayangan untuk produktivitas, institusi yang bertahan akan mempertimbangkan manfaat kecerdasan buatan dengan mengelola risiko mereka secara ketat. Dalam adegan baru ini, di mana mesin -mesin pertempuran dalam kecepatan tidak dapat dicocokkan, putusannya tidak hanya terkait dengan kepatuhan; Ini tentang tetap hidup.


Tautan sumber
Continue Reading

Trending