Berita
Berapa informasi yang benar -benar menghafal LLMS? Sekarang kami tahu, terima kasih kepada Meta, Google, Nvidia dan Cornell

Bergabunglah dengan buletin harian dan mingguan untuk mendapatkan pembaruan terbaru dan konten eksklusif untuk meliput kecerdasan buatan terkemuka di industri ini. Pelajari lebih lanjut
Kebanyakan orang yang tertarik pada AI sudah tahu bahwa model bahasa besar (LLM) – seperti yang ada di belakang chatgpt, Claude’s Claude, dan Google Gemini – dilatih dalam koleksi data besar: triliun kata yang ditarik dari situs web, buku, pintu kode, semakin, dan mode lain seperti gambar, video dan video. Tapi kenapa?
Dari data ini, LLMS mengembangkan pemahaman statistik dan umum tentang bahasa dan polanya dan dunia – dienkripsi dalam bentuk miliaran parameter, atau “pengaturan”, dalam jaringan neuron buatan (yang merupakan fungsi matematika yang mengubah data input menjadi sinyal output).
Dengan paparan semua data pelatihan ini, LLMS belajar untuk menemukan dan menggeneralisasi pola yang tercermin dalam parameter sel saraf mereka. Misalnya, kata “apel” sering muncul di dekat istilah yang terkait dengan makanan, buah atau pohon, dan kadang -kadang komputer. Model mengambil bahwa apel bisa merah, hijau, atau kuning, atau bahkan kadang -kadang warna lain jika rusak atau langka, “apel” dalam bahasa Inggris, dan dimakan. Pengetahuan statistik ini memengaruhi bagaimana formulir merespons ketika pengguna memasuki seorang mentor – pembentukan output yang membuatnya berdasarkan tautan yang Anda “pelajari” dari data pelatihan.
Tetapi pertanyaan besar tetap ada – bahkan di antara para peneliti kecerdasan buatan -: berapa banyak data pelatihan LLM yang digunakan untuk konstruksi Digeneralisasi Representasi konsep, dan seberapa banyak itu menyimpan Secara harfiah atau dengan cara yang identik atau hampir identik dengan data asli?
Ini penting tidak hanya untuk lebih memahami cara kerja LLMS – dan ketika mereka membuat kesalahan – tetapi juga sebagai model, mereka mempertahankan diri dalam mengklaim hak cipta yang disajikan oleh pencipta data dan pemiliknya, seperti seniman dan tanda -tanda rekaman. Jika ternyata LLMS untuk mereproduksi sebagian besar data pelatihan mereka secara harfiah, pengadilan mungkin lebih cenderung mendukung dengan jaksa penuntut yang membahas bahwa model yang telah disalin secara ilegal dari bahan yang dilindungi. Jika tidak – jika model ditemukan untuk membuat output berdasarkan pola umum alih -alih salinan simetris yang akurat – pengembang mungkin dapat melanjutkan pengikis dan pelatihan data hak cipta sehubungan dengan pertahanan hukum saat ini seperti penggunaan yang adil.
Sekarang, kami akhirnya memiliki jawaban untuk masalah perlindungan LLMS untuk generalisasi: Sebuah studi baru yang dikeluarkan minggu ini Dari para peneliti di Meta, Google DeepMind, Universitas Cornell dan Nvidia menemukannya Model yang mirip dengan GPT memiliki kapasitas hemat tetap sekitar 3,6 bit untuk setiap guru.
Untuk memahami apa arti 3,6 bit dalam praktik:
- Satu bagian adalah unit data digital terkecil, mewakili 0 atau 1.
- Penyimpanan 3.6 bit memungkinkan sekitar 12,13 nilai khas, sebagaimana dihitung oleh 2^3.6.
- Itu datang ke jumlah informasi yang diperlukan untuk memilih salah satu dari 12 opsi seperti memilih sebulan dalam setahun atau sebagai hasil dari gulungan 12 aspek.
- Dia – dia Tidak cukup untuk menyimpan bahkan satu bahasa Inggris (yang membutuhkan sekitar 4,7 bit), Tetapi cukup untuk menyembuhkan surat dari kelompok yang dikurangi dari 10 bahasa Inggris umum (yang membutuhkan sekitar 3,32 bit).
- Dalam panel, 3,6 bit adalah 0,45 byte – kurang dari setengah ukuran huruf khas yang disimpan dalam ASCII (yang digunakan 8 bit atau 1 byte).
Jumlah ini tidak tergantung pada model dalam perbedaan arsitektur yang masuk akal: kedalaman yang berbeda, menampilkan, dan akurasi yang menghasilkan hasil yang sama. Perkiraan tetap stabil melalui ukuran model dan bahkan tingkat akurasi, dengan model akurasi penuh mencapai nilai yang sedikit lebih tinggi (hingga 3,83 bit/parameter).
Lebih banyak data pelatihan tidak mengarah pada lebih banyak hafalan – pada kenyataannya, itu akan menjadi formulir Lebih sedikit Untuk menyimpan satu titik data
Salah satu makanan utama pencarian adalah bahwa model tidak menghemat lebih banyak ketika mereka dilatih dalam lebih banyak data. Sebaliknya, kapasitas tetap model didistribusikan melalui kumpulan data, yang berarti bahwa setiap titik data individu kurang mendapat perhatian.
Jack Morris, penulis utama, Penjelasan melalui jejaring sosial x “Pelatihan tentang lebih banyak data akan memaksa model untuk menghemat lebih sedikit untuk setiap sampel.”
Hasil ini dapat membantu mengurangi kekhawatiran tentang model besar yang menjaga konten hak cipta atau sensitif.
Jika pelestarian terbatas dan dikurangi melalui banyak contoh, kemungkinan mengkloning setiap pelatihan spesifik berkurang. Intinya, lebih banyak data pelatihan mengarah pada perilaku generalisasi yang lebih aman, bukan peningkatan risiko.
Bagaimana para peneliti mengidentifikasi hasil ini
Untuk secara akurat menentukan jumlah model bahasa, para peneliti menggunakan pendekatan yang tidak konvensional tetapi kuat: Mereka melatih model transformator pada set data bitstings yang seragam. Sampel diambil dari masing -masing bit ini secara independen, memastikan bahwa tidak ada pola, struktur atau pengulangan melalui contoh.
Karena setiap sampel unik bebas dari fitur umum, yaitu, kemampuan untuk menunjukkan model dalam Mencerminkan rekonstruksi atau identifikasi rantai ini selama evaluasi secara langsung jumlah informasi yang mereka simpan – atau disimpanPelatihan.
Alasan utama untuk pengaturan ini sepenuhnya menghilangkan kemungkinan generalisasi. Berbeda dengan bahasa alami – yang penuh dengan struktur tata bahasa, gangguan semantik, dan konsep yang diulang – data acak tidak mengandung informasi tersebut. Setiap contoh terutama noise, tanpa hubungan statistik dengan hubungan lain. Dalam skenario seperti itu, kinerja apa pun harus datang sesuai dengan formulir pada data pengujian dari menghafal contoh pelatihan, karena kurangnya pola distribusi yang harus diedarkan dari.
Penulis berpendapat bahwa cara mereka mungkin Salah satu satu -satunya cara awal untuk memisahkan menghafal dari pembelajaran Dalam praktiknya, karena ketika LLMS dilatih dalam bahasa nyata, bahkan ketika hasil dihasilkan yang cocok dengan data pelatihan, sulit untuk mengetahui apakah Anda telah menyimpan input atau hanya menyimpulkan struktur dasar dari pola yang mereka perhatikan.
Metode ini memungkinkan para peneliti untuk menetapkan hubungan langsung antara jumlah parameter model dan total informasi yang disimpan. Dengan meningkatkan ukuran model dan melatih setiap variabel ke saturasi, melalui ratusan percobaan pada model mulai dari 500 kilo hingga 1,5 miliar guru, perhatikan hasil yang konsisten: 3.6 bit dicadangkan untuk setiap guruYang mereka laporkan sebagai ukuran dasar kapasitas memori LLM.
Tim menerapkan metodologinya pada model yang dilatih dalam koleksi data dunia nyata juga. Ketika pelatihan dalam teks, model menunjukkan keseimbangan antara menghafal dan generalisasi.
Koleksi data yang lebih kecil mendorong ukuran yang lebih besar, tetapi dengan meningkatkan ukuran kumpulan data, model telah beralih ke pola yang bersirkulasi. Transisi ini ditandai dengan fenomena yang dikenal sebagai “pendaratan ganda”, karena kinerja menurun sementara sebelum perbaikan segera setelah surat edaran ditendang.
Studi ini juga mempelajari bagaimana akurasi khas – pelatihan dalam bfloat16 versus float32 – mengarah pada kemungkinan pelestarian. Perhatikan peningkatan sederhana dari 3,51 menjadi 3,83 bit untuk setiap guru saat beralih ke resolusi 32 -bit penuh. Namun, keuntungan ini jauh lebih rendah daripada dua kali lipat bit yang tersedia yang menunjukkannya, yang berarti mengurangi pengembalian dari akurasi atas.
Data unik kemungkinan akan disimpan
Makalah ini mengusulkan undang -undang pembatasan yang terkait dengan kapasitas model dan ukuran data yang ditetapkan untuk secara efektif.
Serangan -serangan ini mencoba menentukan apakah titik data tertentu adalah bagian dari set pelatihan model. Penelitian menunjukkan bahwa serangan semacam itu menjadi tidak dapat diandalkan dengan pertumbuhan kumpulan data, yang mendukung argumen yang secara luas membantu mengurangi risiko privasi.
Sementara makalah ini berfokus pada perilaku Negara Bagian Tengah, beberapa peneliti telah mengindikasikan bahwa jenis data tertentu-seperti menulis yang sangat unik atau logis-masih lebih mungkin dilestarikan.
Para penulis mengakui pembatasan ini dan menekankan bahwa cara mereka dirancang untuk mengkarakterisasi tren publik alih -alih kasus tepi.
Bergerak menuju pemahaman manusia yang lebih besar tentang pemahaman LLM
Dengan memberikan definisi awal dan terukur, penelitian ini memberi pengembang dan peneliti alat baru untuk menilai perilaku model bahasa. Ini tidak hanya dengan transparansi yang khas, tetapi juga dengan kepatuhan, privasi dan standar moral dalam mengembangkan kecerdasan buatan. Hasilnya menunjukkan bahwa lebih banyak data-tidak kurang mungkin menjadi jalur paling aman ketika model bahasa dilatih secara luas.
Untuk menempatkan total bentuk bentuk dalam perspektif:
- Model parameter dapat menghemat 500 km sekitar 1,8 juta bit, atau 225 kilo data.
- Model parameter dapat berisi 1,5 miliar pada sekitar 5,4 miliar bit, atau 675MB informasi awal.
- Tidak dapat dibandingkan dengan menyimpan file model seperti gambar (misalnya, gambar 3,6MB adalah sekitar 30 juta bit), tetapi penting ketika didistribusikan melalui pola teks yang terpisah.
Saya bukan pengacara atau ahli hukum, tetapi saya berharap penelitian semacam itu disebutkan dalam banyak tuntutan hukum yang berkelanjutan antara penyedia kecerdasan buatan dan pencipta/pemegang hak data.
Tautan sumber
Berita
Salesforce meluncurkan Agenforce 3 dengan kemampuan untuk mencatat kecerdasan buatan dan dukungan MCP

Bergabunglah dengan acara bahwa para pemimpin lembaga telah dipercaya selama hampir dua dekade. VB Transform menggabungkan orang yang membangun strategi AI untuk institusi nyata. Pelajari lebih lanjut
Salesforce Perbaikan komprehensif diletakkan di platform agen AI mereka pada hari Senin, karena mereka mengatasi hambatan terbesar yang dihadapi lembaga ketika pekerja digital diterbitkan secara luas: mengetahui apa yang sudah dilakukan agen -agen ini dan memastikan bahwa mereka dapat bekerja dengan aman melalui sistem perusahaan.
Perusahaan Agenforce 3 Rilis ini memberikan komprehensif “Pusat Komando“Ini memberi para eksekutif dalam waktu yang sebenarnya dalam kinerja agen kecerdasan buatan, serta dukungan asli untuk standar inter -operasi yang muncul yang memungkinkan agen berkomunikasi dengan ratusan alat bisnis eksternal tanpa perlu pengkodean yang dialokasikan.
Waktu mencerminkan peningkatan permintaan untuk institusi untuk agen kecerdasan buatan. Menurut data SLESFORCE, penggunaan agen kecerdasan buatan melonjak sebesar 233 % dalam enam bulan, dengan lebih dari 8.000 pelanggan terdaftar untuk menyebarkan teknologi. Adopsi pertama melihat pengembalian yang terukur: mesin Mengurangi waktu menangani kasus pelanggan sebesar 15 %, sementara 1-800 ACCOUNTANT 70 % mencapai keputusan independen untuk permintaan obrolan administratif selama musim pajak puncak.
“Kami memiliki ratusan aplikasi langsung, jika tidak ribuan, dan mereka berlari secara luas,” kata Jayesh Govindarajan, EVP dari Salesforce AI, dalam wawancara eksklusif dengan VentureBeat. Dia menunjukkan bahwa perusahaan telah bergerak secara tegas daripada operasi penerbitan eksperimental: “Agen kecerdasan buatan tidak lagi eksperimental. Mereka sangat pindah ke jalinan lembaga.”
Adam Evans, EVP dan GM dari Salesforce AI, mengatakan dalam acara langsung pada hari Senin mengumumkan peningkatan platform: “Selama beberapa bulan terakhir, kami mendengarkan secara mendalam pelanggan kami dan kami telah melanjutkan dengan cepat dalam laju inovasi teknologi kami yang cepat. Klien.”
Bagaimana Pepsico World Food memimpin revolusi agen AI
Di antara perusahaan yang membangun teknologi ini PepsiCo,, yang menerbitkan Agenforce sebagai bagian dari transformasi AI yang lebih luas dalam operasi globalnya. Dalam sebuah wawancara eksklusif dengan VentureBeat, Athina Kanyoura, kepala strategi dan pejabat transformasi di PepsiCo, menggambarkan publikasi pengembangan perusahaan di pasar yang semakin kompleks.
“Sebagai mitra lama di Salesforce, kami telah menyadari peluang untuk sepenuhnya mengintegrasikan cara kami menggunakan platform mereka melalui bisnis kami – terutama dengan pengembangan adegan pelanggan, perdagangan menjadi lebih rumit dan kebutuhan untuk mengintegrasikan data data kami dengan lebih baik,” kata Kaneoura VentureBeat.
Raksasa makanan dan minuman, yang produknya dikonsumsi lebih dari satu miliar kali sehari di seluruh dunia, percaya bahwa agen kecerdasan buatan diperlukan untuk bertemu pelanggan “di mana mereka – dan dengan cara mereka ingin berurusan dengan kita”, sementara memimpin efisiensi antarmuka punggung dengan mengintegrasikan sistem dan menyederhanakan operasi.
Hubungan PepsiCo tujuh tahun yang sudah lama dengan Salesforce telah membuat perusahaan dengan cepat pindah ke agen intelijen buatan. “Kami sangat senang tentang bagaimana memperkuat Agenforce dari pengalaman harian kami yang menyederhanakan alur kerja dan membocorkan ide-ide paling cerdas dalam waktu yang sebenarnya,” Canona menjelaskan.
Lost Piece: Mengapa AI perlu memantau dan mengontrol waktu aktual
Pusat respons SLESFORCE untuk kesenjangan kritis diwakili di pasar perusahaan AI. Sementara perusahaan bergegas untuk menerbitkan agen intelijen buatan untuk layanan pelanggan, penjualan, dan tugas operasional, banyak dari mereka kurang melihat bagaimana pekerja digital ini melakukan atau memengaruhi hasil bisnis.
Govindarajan menggambarkan tantangan yang dihadapi lembaga -lembaga yang telah lulus program eksperimental: “Adalah satu hal untuk membangun penawaran eksperimental untuk AI, tetapi ketika Anda sudah membangun sistem agen dan meletakkannya di depan pengguna, ada standar yang berbeda.” Dia menjelaskan bahwa perusahaan membutuhkan alat untuk memahami ketika agen kecerdasan buatan berjuang dan ketika mereka membawa orang ke alur kerja.
“Tim tidak dapat mengetahui apa yang dilakukan agen – atau perkembangan mereka dengan cukup cepat,” perusahaan mengakui pengumumannya. Platform pengamatan baru memberikan analisis terperinci dari reaksi agen, pemantauan kesehatan dengan peringatan waktu aktual dan rekomendasi perilaku untuk meningkatkan peningkatan.
Sistem ini membahas apa yang disebut Govindarajan “hari ini dua masalah” – tantangan operasional yang muncul setelah publikasi awal. Dia berkata: “Anda dapat memiliki banyak agen untuk banyak orang, dan Anda harus dapat mencatat bagaimana ini sudah mempengaruhi tugas yang harus dilakukan secara luas.” Ini termasuk pengelolaan operasi pengiriman antara agen digital dan pekerja manusia ketika keputusan atau persetujuan yang kompleks diperlukan.
Sistem mengambil semua kegiatan agen di Salesforce Cloud Data Menggunakan Pengukuran Opentil Aktifkan integrasi dengan alat pemantauan saat ini seperti Datadog Dan sistem institusi lainnya. Ini membahas perlunya pengawasan agen AI dalam alur kerja operasi saat ini.
Standar Terbuka dan Integrasi yang Aman: Bagaimana Agen Kecerdasan Buatan Menelepon melalui Sistem Institusi
Mungkin yang paling penting adalah pelukan Salesforce Bentuk protokol konteks (MCP), standar terbuka untuk tindakan agen AI. Artikel asosiasi akan mencakup dukungan MCP asli, yang memungkinkan Agenforce untuk berkomunikasi dengan server apa pun yang kompatibel dengan MCP tanpa pekerjaan pengembangan khusus.
“Ada operasi perantara umum, lalu ada apa yang kami sebut operasi sementara di tingkat lembaga,” jelas oleh Gary Liraubt, wakil presiden teknik produk di Salesforce, dalam wawancara eksklusif dengan VentureBeat. “Jika tingkat institusi tidak, ini mirip dengan interop yang tidak dapat diandalkan.” Dia mengatakan bahwa perbedaan utama terletak pada mekanisme tata kelola dan mengendalikan yang dibutuhkan oleh agen lembaga.
Kemungkinan ini, yang bekerja di samping pasar Expanded ExpReMange yang diperluas Layanan Web AmazonDan danaDan Google CloudDan IBMDan Paypal Dan tape. Lerhaupt mengatakan bahwa perusahaan akan diluncurkan dengan “North 20, mungkin 25 Plus”, server MCP telah diperiksa, dengan mitra seperti PayPal memberikan kapasitas dan tagihan kotak yang menyediakan akses ke dokumen melalui aplikasi MCP mereka.
“Di dunia yang penuh dengan alat kecerdasan buatan, agen FORS tidak hanya muncul dari teknologi yang unik, tetapi juga sesuai dengan ekosistem teknologi kami, cara kami bekerja dan strategi kecerdasan buatan kami, standar dan kerangka kerja kami.”
Melakukan Pembayaran: AI Model lebih cepat dan keamanan masa depan untuk industri terorganisir
Laten di balik fitur -fitur baru adalah apa yang ditingkatkan oleh Salesforce.atlas“Arsitektur yang dirancang untuk kinerja dan keamanan di tingkat lembaga. Statuta sekarang memberikan 50 % lebih sedikit dari waktu kedatangan dibandingkan dengan Januari 2025, di samping aliran respons pengalaman waktu aktual pengguna dan kegagalan otomatis di antara model kecerdasan buatan untuk memastikan pekerjaan yang berkelanjutan.
Untuk industri terorganisir, pendekatan Salesforce untuk menjadi tuan rumah model intelijen buatan secara langsung dalam infrastruktur membahas masalah keamanan yang penting. “Dengan antropor, tumpukan akan dioperasikan penuh dalam infrastruktur Salesforce,” Govindaraajan menjelaskan. “Panggilan tidak keluar ke Openai, dan lalu lintas akan bekerja di dalam VPC Salesforce. Untuk industri terorganisir, inilah yang sedang kami kerjakan.”
Secara kritis untuk industri terorganisir, Saleforce sekarang menjadi tuan rumah Model manusia Langsung di dalam infrastrukturnya melalui Amazon BedrockMemelihara data sensitif dalam perimeter keamanan Selesforce. Perusahaan berencana untuk menambahkan Model Google Gemini Akhir tahun ini, lembaga telah memberikan lebih banyak opsi kepada tata kelola model kecerdasan buatan.
Platform ini juga memperluas ketersediaan global ke Kanada, Inggris, India, Jepang, dan Brasil, dengan dukungan enam bahasa tambahan, termasuk Prancis, Jerman, Spanyol, Italia, Jepang, dan Portugis.
Dari nol ke agen AI: bagaimana tindakan industri dibangun sebelumnya
Dalam menyadari bahwa lembaga -lembaga membutuhkan pengembalian investasi intelijen buatan, Salesforce telah membangun lebih dari 200 prosedur industri yang dibentuk terlebih dahulu – Dengan lebih dari 100 tambahan musim panas ini saja. Ini berkisar dari jadwal pasien di bidang perawatan kesehatan untuk menghasilkan proposal periklanan di media, yang dirancang untuk membantu perusahaan menerbitkan agen kecerdasan buatan dengan cepat alih -alih membangun dari titik nol.
Hasilnya menunjukkan pematangan platform. Selain deviasi rata-rata 1-800Kountant sebesar 70 % selama musim pajak, Govindarajan martir dengan buletin produksi lainnya: “OpenTable 73 % dari semua pertanyaan web restoran yang diobati oleh agen”, dan Grupo Falabella, hanya proses layanan pelanggan Kolombia menggunakan WhatsApp, telah mencapai 71 % reduksi dalam koneksi.
Perusahaan juga memberikan harga yang lebih fleksibel, termasuk lisensi penggunaan tanpa batas untuk agen dan harga karyawan untuk setiap bisnis yang bersatu dengan pekerjaan AI yang sebenarnya, bukan ukuran percakapan yang sederhana.
Tenaga kerja digital baru: apa arti adopsi AI untuk operasi komersial
Karena institusi semakin terlihat agen kecerdasan buatan sebagai karyawan digital alih -alih alat otomatisasi sederhana, risiko untuk penerbitan dengan benar tidak lebih tinggi dari sebelumnya. Perusahaan yang telah berhasil memperluas ruang lingkup klien kecerdasan buatan akan mendapatkan keunggulan kompetitif yang besar, sementara perusahaan yang berjuang dengan tata kelola dan risiko gangguan operasional.
“Peran baru muncul untuk orang -orang yang menjalankan armada agen.” “Manajer informasi mungkin bertanya,” Saya memiliki tujuh agen yang bekerja di institusi saya, apa yang terjadi secara luas? “Tapi seseorang menjalankan agen pemasaran tertentu dengan lensa yang berbeda dari masalah yang sama.”
Dia mengatakan bahwa Lerhaupt menempatkan momen saat ini sebagai transformatif: “Anda memiliki komputer pribadi, lalu internet dan sekarang multi -agen.” Dia menggambarkan pengembangan satu publikasi sebagai “revolusi multi -agen dan kemampuan untuk menghubungkan faktor -faktor bersama untuk melakukan jenis pekerjaan baru yang sangat kompleks.”
Untuk PepsiCo, pergeseran melebihi keuntungan efisiensi. “Kecerdasan buatan dan teknologi membentuk kembali operasi lembaga dengan cara yang tak terbayangkan,” kata Kanyura. “Pekerjaan yang kami lakukan dengan Agenforce adalah salah satu transformasi PepsiCo yang lebih luas sebagai perusahaan yang terhubung, yang membuka jalan bagi masa depan kerja yang lebih fleksibel dan diadaptasi.”
Ini menekankan adegan kompetitif karena perusahaan teknologi utama berlomba untuk menciptakan platform agen kecerdasan buatan. Ketika ditanya tentang persaingan dari Microsoft, Google dan Amazon, Govindarajan menekankan keunggulan integrasi Salesforce: “Kami dapat melacak seluruh siklus kerja dalam sistem lingkungan lembaga,” katanya. “Kami dapat menentukan aliran dan interaksi di institusi, dan kami terbuka dan diperluas dalam membawa data dan prosedur Anda dan mengaturnya secara efektif.”
Platform Agenforce 3 umumnya tersedia sekarang, dengan banyak fitur termasuk antropolog yang di -host dan pusat kepemimpinan penuh yang ditawarkan hingga Agustus. Tapi mungkin tanda yang paling menakjubkan pada kesediaan yayasan terhadap teknologi tidak ada dalam daftar fitur – itu percaya diri pada perusahaan seperti PepsiCo untuk bertaruh pada transformasi digitalnya pada agen kecerdasan buatan yang akhirnya dapat mereka lihat, ukur, dan kontrol.
Tautan sumber
Berita
James Harden dituduh mengabaikan gugatan kekerasan seksual

baruAnda sekarang dapat mendengarkan Fox News!
James Hardin, Los Angeles Cleibers, dituduh diabaikan, karena keponakannya digugat karena dugaan kekerasan seksual dan pemerkosaan yang terjadi di pesta Malam Tahun Baru pada Desember 2024.
Marisa Witti menuduh Hakim Armani Blackburn melakukan pelecehan seksual dan pemerkosaan dalam gugatan yang diajukan di Provinsi Harris, Texas. Gugatan itu menuduh Harden karena mengabaikan “karena perilaku personel keamanan di rumah setelah partai,” menurut pernyataan pers yang dikeluarkan oleh Wigdour.
Klik di sini untuk lebih banyak liputan olahraga di foxnews.com
Kiper Los Angeles, Cleibers James Harden (1) pada kuarter ketiga melawan Denver Nagsz selama pertandingan kedua putaran pertama kualifikasi 2025 untuk bola liga profesional Amerika di Bilal Arena pada 21 April 2025 di Denver, Colorado. (Yesaya J. Download/Imagn Images)
Dia bukan pengacara Blackburn. Fox News Digital telah menghubungi Harden dan Clippers untuk memberikan komentar.
Watti mengklaim bahwa tim keamanan Harden memindahkan dua temannya yang menghadiri pesta di rumahnya bersamanya meskipun ada “banding yang masih ada.” Dan saya menelepon Friends of Watti dengan saudara perempuannya, kepada kami, yang kemudian menelepon saudara perempuan Harden – ibu Blackburn. Gugatan itu mengatakan bahwa Elena Watti dapat memperoleh gambar keamanan Harden, tetapi anggota tim mengatakan bahwa ada seorang wanita di rumah dengan Blackburn, tetapi wanita itu bukan Marisa dan Ati.

Kiper Los Angeles, Cleibers, James Hardin (1) sebelum pertandingan keempat putaran pertama kualifikasi 2024 di Liga Profesional Amerika melawan Denver Nags di Intuit Dome pada 26 April 2025 di Englo, California. (Jane Kamin/April-Imagn)
Paisers Teres Haleporton menderita Achilles yang robek, yang kemungkinan akan ketinggalan musim depan: Laporan
Gugatan itu mengklaim bahwa jika tim keamanan Harden “bertindak secara bertanggung jawab”, mereka akan menghentikan dugaan pemerkosaan.
“Sejak Hari Tahun Baru, ketika saya melaporkan pemerkosaan Blackburn kepada polisi, saya bingung tentang bagaimana keamanan Mr. Harden pada hari itu – menyakitkan membayangkan bahwa semua ini bisa berhenti pada waktu yang tepat,” kata Watti dalam sebuah pernyataan. “Saya berharap keluhan ini umumnya akan mendorong personel keamanan untuk bertindak lebih bertanggung jawab ketika perempuan dalam bahaya.”

Kiper La Cleibers James Harden (1) selama kuartal keempat melawan Denver Nagsz selama pertandingan kelima babak pertama di kualifikasi 2025 dalam bola liga profesional Amerika di Bilal Arena pada 29 April 2025 di Denver, Colorado. (Foto/Imagn Ron Chenwi)
Klik di sini untuk mendapatkan aplikasi Fox News
Pengacara dan ATI mengatakan mereka berencana untuk meminta pertanggungjawaban Blackburn dan mengeraskan tindakan mereka.
Digital Fox News Cakupan Olahraga di X Dan berlangganan Newsletter Fox News Sport Hold.
Berita
Di luar kecerdasan buatan yang kuat: Institut Teknologi Massachusetts menyediakan model untuk mengajar diri mereka sendiri

Bergabunglah dengan acara bahwa para pemimpin lembaga telah dipercaya selama hampir dua dekade. VB Transform menggabungkan orang yang membangun strategi AI untuk institusi nyata. Pelajari lebih lanjut
Peneliti di dengan Saya mengembangkan kerangka kerja yang disebut Model bahasa self -adaptation (Seal) Model LLMS memungkinkan pembelajaran dan terus beradaptasi dengan memperbarui parameter internal mereka. Seal cenderung LLM untuk membuat data pelatihan dan memperbarui instruksi, memungkinkannya untuk menyerap pengetahuan baru secara permanen dan mempelajari tugas -tugas baru.
Kerangka kerja ini dapat berguna untuk aplikasi lembaga, terutama untuk agen kecerdasan buatan yang bekerja di lingkungan yang dinamis, di mana mereka harus terus -menerus memproses informasi baru dan menyesuaikan perilaku mereka.
Tantangan AC LLMS
Meskipun model bahasa besar telah menunjukkan kemampuan yang hebat, adaptasi mereka dengan tugas -tugas spesifik, menggabungkan informasi baru, atau penguasaan keterampilan berpikir baru, masih merupakan hambatan yang besar.
Saat ini, ketika menghadapi tugas baru, LLM biasanya belajar dari data “AS-IS” melalui metode seperti Finetung atau Lost-Context. Namun, data yang disediakan tidak selalu dalam format optimal model untuk belajar secara efisien. Metode model saat ini tidak memungkinkan pengembangan strategi sendiri untuk konversi dan pembelajaran terbaik dari informasi baru.
“Misalnya, asisten pengkodean mungkin perlu menyerap kerangka kerja program yang ditentukan perusahaan, atau model yang dihadapi pelanggan mungkin perlu mempelajari perilaku atau preferensi pengguna yang unik dari waktu ke waktu,” kata Gio Barry, seorang mahasiswa PhD di Massachusetts Institute of Technology dan rekan kerja kertas.
Dalam kasus seperti itu, pengambilan sementara terbatas, dan pengetahuan harus “dipanggang” berat model untuk mempengaruhi semua respons di masa depan.
Buat Model Bahasa yang Diri Sendiri
“Sebagai langkah menuju pengembangan dan adaptasi model bahasa yang efektif, kami menyarankan agar LLM dilengkapi dengan kemampuan untuk menghasilkan data pelatihan dan arahan mereka dalam menggunakan data ini,” kata para peneliti di Massachusetts Institute of Technology dalam makalah mereka.
Solusi peneliti adalah segel, kependekan dari model adaptasi diri. Algoritma Pembelajaran Penguatan (RL) digunakan untuk melatih LLM untuk membuat instruksi “pengeditan diri” dalam bahasa alami yang mendefinisikan cara memperbarui model atau bobotnya sendiri. Pemerintah mandiri ini dapat merestrukturisasi informasi baru, membuat contoh pelatihan buatan, atau bahkan mengidentifikasi parameter teknis dari proses pembelajaran itu sendiri.
Secara intuitif, SEAL mengajarkan model cara membuat panduan kustomnya. Alih -alih hanya membaca dokumen baru (data awal), formulir belajar untuk menulis ulang dan membuat kembali informasi dengan cara yang dapat menyerap dan menyerapnya dengan lebih mudah. Proses ini menyatukan banyak bidang utama penelitian kecerdasan buatan, termasuk pembuatan data buatan dan pembelajaran untuk meningkatkan dan pelatihan pada waktu tes (TTT).
Bingkai bekerja pada sistem loop. Dalam “cincin internal”, model ini menggunakan pengeditan diri untuk membuat pembaruan sementara sementara untuk bobotnya. Dalam “Episode Eksternal”, sistem mengevaluasi apakah pembaruan ini telah meningkatkan kinerja model pada misi yang ditargetkan. Jika ya, model menerima hadiah positif, yang meningkatkan kemampuannya untuk menghasilkan jenis muatan diri yang efektif ini di masa depan. Seiring waktu, LLM menjadi ahli dalam mengajar dirinya sendiri.
Dalam studi mereka, para peneliti menggunakan satu model dari seluruh bingkai perangko. Namun, mereka juga memperhatikan bahwa proses ini dapat dipisahkan dalam model “guru-siswa”. Model guru khusus dapat dilatih untuk menghasilkan pengeditan diri yang efektif untuk model siswa yang terpisah, yang akan diperbarui setelah itu. Pendekatan ini dapat memungkinkan jalur pipa adaptif yang lebih khusus dan efektif dalam pengaturan lembaga.
Segel
Para peneliti menguji segel di dua bidang utama: menggabungkan pengetahuan (kemampuan untuk mengintegrasikan fakta baru secara permanen) dan belajar sedikit bidikan (kemampuan untuk menggeneralisasi dari beberapa contoh).

Untuk mengintegrasikan pengetahuan, tujuannya adalah untuk mengetahui apakah model dapat menjawab pertanyaan tentang klip teks tanpa mencapai klip selama interogasi. Finetuning llama-3.2b disajikan pada teks mentah hanya peningkatan marjinal pada model dasar.
Namun, ketika model SEAL menciptakan “pengeditan diri” dengan menghasilkan banyak “barang antik” dari klip dan dilatih pada data buatan ini, akurasinya melonjak menjadi 47 %. Perlu dicatat bahwa hasil ini melebihi kinerja penggunaan data buatan yang dibuat oleh GPT-4.1 terbesar, yang menunjukkan model yang telah dipelajari untuk membuat bahan pelatihan yang unggul untuk dirinya sendiri.

Untuk belajar sedikit, para peneliti menguji segel pada contoh pemikiran busur, di mana model harus menyelesaikan teka -teki visual. Pada tahap self -liberasi, model harus membuat strategi adaptasi keseluruhan, termasuk bala bantuan data dan alat yang harus digunakan dan tingkat pembelajaran yang harus diterapkan.
SEAL mencapai tingkat keberhasilan 72,5 %, peningkatan yang signifikan dalam tingkat 20 % tanpa pelatihan RL dan pembelajaran standar 0 % dalam konteks.

Efek dari institusi
Beberapa ahli menawarkan bahwa menyediakan data pelatihan berkualitas tinggi yang dibuat oleh manusia dapat habis di tahun -tahun mendatang. Kemajuan mungkin segera tergantung pada “kemampuan model untuk menghasilkan sinyal pelatihan penggunaan tinggi,” kata para peneliti. Mereka menambahkan, “Langkah alami berikutnya adalah merancang bentuk generator tempat tinggal buatan yang berdedikasi yang menghasilkan perusahaan korpora prajurit baru, yang memungkinkan bahan di masa depan untuk memperluas efisiensi data dan mencapai data yang lebih besar tanpa mengandalkan teks manusia tambahan.”
Misalnya, para peneliti menyarankan agar LLM dapat memakan dokumen -dokumen kompleks seperti makalah akademik atau laporan keuangan dan menghasilkan ribuan interpretasi dan efek pada memperdalam pemahaman mereka.
“Episode berulang dari ekspresi diri dan informasi diri ini dapat memungkinkan spesifikasi untuk meningkat dalam topik langka atau aktris aktif bahkan tanpa adanya pengawasan eksternal tambahan,” jelas para peneliti.
Kemampuan ini sangat menjanjikan untuk membangun agen kecerdasan buatan. Agen harus mendapatkan pengetahuan dan menjaga mereka saat mereka berinteraksi dengan lingkungan mereka. Segel menyediakan mekanisme untuk ini. Setelah reaksi, agen dapat mensintesis pengeditan diri untuk membuat pembaruan berat badan, memungkinkannya untuk menyerap pelajaran yang dipetik. Agen ini memungkinkan pengembangan dari waktu ke waktu, meningkatkan kinerjanya berdasarkan pengalaman, dan mengurangi ketergantungannya pada pemrograman tetap atau panduan manusia yang sering.
“Seal menjelaskan bahwa model bahasa besar tidak tetap diperbaiki setelah pelatihan,” tulis para peneliti. “Dengan belajar menghasilkan data pengeditan diri mereka dan menerapkannya melalui pembaruan ringan, mereka dapat secara mandiri mengintegrasikan pengetahuan baru dan beradaptasi dengan tugas -tugas baru.”
Pembatasan segel
Namun, segel bukanlah solusi global. Misalnya, ia dapat menderita “kelupaan bencana”, di mana kursus pelatihan ulang yang berkelanjutan dapat mempelajari model sebelumnya.
“Dalam implementasi kami saat ini, kami mendorong pendekatan hibrida,” kata Barry. “Lembaga harus selektif tentang pengetahuan penting yang cukup untuk menggabungkannya secara permanen.”
Data yang realistis dan dikembangkan dapat tetap dalam memori eksternal melalui pemotongan, sementara pengetahuan jangka panjang dalam bentuk perilaku lebih cocok untuk pembaruan tingkat berat segel.
Dia berkata: “Jenis strategi memori hibrida ini memastikan bahwa informasi yang benar berlanjut tanpa melanjat model atau memberikan kelupaan yang tidak perlu.”
Perlu juga dicatat bahwa segel membutuhkan waktu yang tidak membedakan waktu untuk menetapkan contoh -contoh pembiberasi diri dan melatih model. Ini membuat pembebasan terus menerus dalam waktu aktual tidak mungkin di sebagian besar pengaturan produksi.
Barry mengatakan: “Kami membayangkan model penerbitan yang lebih praktis karena sistem mengumpulkan data untuk beberapa periode, atau beberapa jam atau sehari dan kemudian menargetkan pengeditan diri selama periode modernisasi yang dijadwalkan.” “Pendekatan ini memungkinkan lembaga untuk mengendalikan biaya adaptasi, sambil melanjutkan kemampuan torrent untuk menyerap pengetahuan baru.”
Tautan sumber
- Berita8 tahun ago
These ’90s fashion trends are making a comeback in 2017
- Berita8 tahun ago
The final 6 ‘Game of Thrones’ episodes might feel like a full season
- Berita8 tahun ago
According to Dior Couture, this taboo fashion accessory is back
- Berita8 tahun ago
The old and New Edition cast comes together to perform
- Berita8 tahun ago
Phillies’ Aaron Altherr makes mind-boggling barehanded play
- Berita8 tahun ago
Uber and Lyft are finally available in all of New York State
- Berita8 tahun ago
Disney’s live-action Aladdin finally finds its stars
- Berita8 tahun ago
Steph Curry finally got the contract he deserves from the Warriors