Berita
Nvidia terbuka nemotron-nano-9b-v2 dapat beralih/berhenti berpikir

Ingin lebih banyak visi yang cerdas dari kotak masuk Anda? Berlangganan buletin mingguan kami untuk mendapatkan apa yang hanya terkait dengan lembaga AI, data dan pemimpin keamanan. Berlangganan sekarang
Model kecil melewati sesaat. Setelah penerbitan model bentuk kecerdasan buatan baru Cukup kecil untuk menyesuaikan jam tangan pintar Dari MIT Spin -off Liquid AI, model kecil yang cukup untuk dijalankan di smartphone Google, Nvidia bergabung dengan pesta hari ini dengan Model Bahasa Kecil Baru (SLM) Sendiri, Nemotron-nano-9b-v2,, yang mencapai kinerja tertinggi di kelasnya tentang kriteria spesifik dan datang dengan kemampuan pengguna untuk mengubah dan menghentikan “berpikir”, yaitu melindungi diri sebelum mengambil jawaban.
Sedangkan parameternya 9 miliar lebih besar dari beberapa parameter yang mencakup jutaan model kecil yang dicakup oleh VentureBeat baru -baru iniNvidia mencatat bahwa itu adalah pengurangan yang berarti dalam ukuran aslinya 12 miliar guru Dan dirancang agar sesuai Unit Pemrosesan Grafis NVIDIA A10.
Sebagai Oleksii Kuchiaev, manajer NVIDIA dari AI Model setelah pelatihan, Katanya di x Menanggapi pertanyaan yang disajikannya kepadanya: “12b hingga 9b telah dipangkas agar sesuai dengan A10 secara khusus, yang merupakan pilihan GPU umum untuk publikasi. Ini juga merupakan model campuran yang memungkinkannya untuk memproses ukuran batch yang lebih besar dan hingga 6x lebih cepat dari model transformator yang sama. “
Untuk konteks, banyak LLM terkemuka dalam kisaran 70+ miliar parameter (parameter panggilan merujuk pada pengaturan internal yang mengatur bentuk model, dengan umumnya menunjukkan model yang lebih besar dan lebih mampu).
Kecerdasan buatan membatasi batasnya
Tutup daya, biaya tinggi simbol, dan penundaan dibentuk kembali. Bergabunglah dengan salon eksklusif kami untuk menemukan bagaimana perbedaan besar:
- Mengubah energi menjadi keuntungan strategis
- Mengajar penalaran yang efektif untuk keuntungan produktivitas nyata
- Membuka Pengembalian Investasi Kompetitif dengan Sistem Kecerdasan Buatan Berkelanjutan
Mengamankan tempat Anda untuk tinggal di latar depan: https://bit.ly/4mwngngo
Model ini mengambil berbagai bahasa, termasuk bahasa Inggris, Jerman, Spanyol, Prancis, Italia, Jepang dan dalam deskripsi yang diperpanjang, Korea, Portugis, Rusia, dan Cina. Itu cocok untuk mereka berdua Instruksi berikut dan pembuatan kode.
Nemotron-nano-9b-v2 Dan Set data sebelum pelatihan Sekarang tersedia dalam menghadapi pelukan dan melalui katalog perusahaan.
Integrasi struktur transformator dan mamba
Itu tergantung pada Nemotron-HModel pengiriman uang hibrida Mamba yang merupakan dasar untuk penawaran terbaru perusahaan.
Sementara LLM yang paling populer adalah model “adaptor” murni, yang sepenuhnya tergantung pada lapisan perhatian, mereka bisa menjadi mahal dalam memori dan akun dengan pertumbuhan panjang urutan.
Sebaliknya, model Nemotron-H dan lainnya menggunakan Struktur mamba yang dikembangkan oleh para peneliti Di Universitas Carnegie Mellon dan Bruneston juga Menenun dalam model ruang status selektif (atau SSM), yang dapat menangani urutan informasi yang sangat panjang di dalam dan di luar situasi.
Lapisan -lapisan ini meluas sejalan dengan panjang urutan dan dapat mengatasi konteks untuk periode yang lebih lama dari kepentingan diri sendiri tanpa memori yang sama dan menghitung pengeluaran publik.
AYbrid mamba mengurangi biaya ini dengan mengganti sebagian besar perhatian dengan lapisan area linier, dan mencapai produksi hingga 2-3 x lebih tinggi pada konteks panjang Akurasi serupa.
Laboratorium kecerdasan buatan lainnya, seperti NVIDIA, seperti AI2, juga telah merilis model berdasarkan Mamba.
Beralih/berpikir menggunakan bahasa
Nemotron-Nano-9b-V2 ditempatkan sebagai model yang seragam, hanya obrolan dan logika yang dilatih dari awal.
itu Pengaturan default sistem untuk membuat trek berpikir sebelum memberikan jawaban akhir, meskipun pengguna dapat mengubah perilaku ini Dengan kode kontrol sederhana seperti /berpikir atau /no_tkink.
Modelnya juga sayaNTRDUCES Manajemen Waktu Operasi “Anggaran Berpikir”setiap Pengembang mengizinkan jumlah simbol ini Saya dikhususkan untuk pemikiran internal sebelum formulir melengkapi respons.
Mekanisme ini bertujuan untuk menyeimbangkan akurasi dengan jintan, Terutama dalam aplikasi seperti dukungan pelanggan atau agen independen.
Standar menceritakan kisah yang menjanjikan
Hasil evaluasi menjelaskan akurasi kompetitif terhadap model terbuka lainnya dalam skala kecil. Itu diuji dalam mode “berpikir” menggunakan suite nemo-skills, Nemotron-Nano-9b-V2 mencapai 72,1 persen di AIME25Dan 97,8 persen di Math500, 64,0 persen di GPQADan 71,1 persen di LiveCodebench.
Gelar telah dilaporkan pada instruksi berikut dan standar konteks panjang: 90,3 persen pada Ifeval, 78,9 persen dalam tes 128kKeuntungan yang lebih kecil tetapi terukur pada standar BFCL V3 dan HLE.
Di semua daerah, Nano-9b-V2 menunjukkan resolusi yang lebih tinggi dari QWEN3-8B, Titik umum untuk perbandingan.

NVIDIA menjelaskan hasil ini dengan kurva akurasi terhadap anggaran yang menunjukkan bagaimana standar kinerja meningkat dengan peningkatan simbol pemikiran yang khas. Perusahaan menyarankan bahwa kontrol anggaran yang tepat dapat membantu pengembang untuk meningkatkan kualitas dan jintan dalam kasus produksi.
Pelatihan Koleksi Data Buatan
Baik keluarga Nano dan Nemotron-H bergantung pada campuran data pelatihan dan sumber yang terkoordinasi di web dan buatan.
Perusahaan ini mencakup teks umum, simbol, matematika, sains, dokumen hukum dan keuangan, serta kelompok data kemahiran yang mirip dengan penyelarasan.
NVIDIA mengkonfirmasi penggunaan efek berpikir buatan yang disebabkan oleh model besar lainnya untuk meningkatkan kinerja pada standar yang kompleks.
Lisensi dan Penggunaan Komersial
Nano-9b-V2 dirilis di bawah ini Perjanjian Lisensi Formulir Terbuka NVIDIAPembaruan terakhir pada Juni 2025.
Lisensi ini dirancang agar mudah dan ramah kepada institusi. Nvidia secara tegas menyatakan bahwa model tersebut Secara komersial Di luar kotakDan itu Pengembang bebas untuk membuat dan mendistribusikan model.
Lebih penting lagi, NVIDIA tidak mengklaim kepemilikan output apa pun yang dibuat oleh formulir, yang meninggalkan tanggung jawab dan hak dengan pengembang atau lembaga yang ia gunakan.
Adapun pengembang organisasi, ini berarti bahwa model dalam produksi dapat ditempatkan segera tanpa menegosiasikan lisensi komersial terpisah atau membayar biaya terkait dengan ambang batas penggunaan atau tingkat pendapatan atau sensus pengguna. Tidak ada barang yang memerlukan lisensi berbayar begitu perusahaan mencapai kisaran tertentu, tidak seperti beberapa lisensi terbuka bertahap yang digunakan oleh penyedia layanan lain.
Namun, perjanjian tersebut mencakup banyak kondisi yang harus diperhatikan oleh lembaga:
- Pegangan tanganPengguna tidak dapat mengatasi atau mengganggu mekanisme keselamatan terintegrasi (disebut sebagai “pegangan tangan”) tanpa menerapkan alternatif serupa yang cocok untuk menerbitkannya.
- redistribusi: Setiap redistribusi model atau derivatif harus menyertakan lisensi model Open NVIDIA (“dilisensikan oleh NVIDIA Corporation di bawah NVIDIA Open Model”).
- kepatuhanPengguna harus mematuhi peraturan dan pembatasan komersial (misalnya, undang -undang ekspor Amerika).
- Kondisi kecerdasan buatan yang layak dipercayaMenggunakan harus konsisten dengan instruksi penasihat yang layak dipercaya pada NVIDIA, yang mencakup pertimbangan penerbitan yang bertanggung jawab dan moral.
- Persyaratan untuk litigasi: Jika pengguna memulai hak cipta atau litigasi dalam paten terhadap entitas lain yang mengklaim akan dilanggar oleh model, maka lisensi berakhir secara otomatis.
Kondisi ini fokus pada penggunaan hukum dan bertanggung jawab alih -alih ruang lingkup komersial. Lembaga tidak perlu meminta izin tambahan atau membayar royalti ke NVIDIA hanya untuk membangun produk, mencairkannya, atau membatasi basis pengguna. Sebaliknya, mereka harus memastikan bahwa praktik penerbitan menghormati keamanan, dukungan dan kewajiban kepatuhan.
GPS di pasar
Dengan Nemotron-Nano-9B-V2, NVIDIA menargetkan pengembang yang membutuhkan keseimbangan antara kemampuan berpikir dan mempublikasikan efisiensi pada langkah-langkah yang lebih kecil.
Fitur kontrol dari anggaran waktu operasi dan fitur logika bertujuan untuk memberi pembangun sistem lebih banyak fleksibilitas dalam mengelola akurasi terhadap kecepatan respons.
Peluncuran pelukan wajah mereka dan cokelat nafidia yang khas menunjukkan bahwa mereka Seharusnya tersedia secara luas untuk pengalaman dan integrasi.
Versi NVIDIA NANO-9 V2 menunjukkan fokus konstan pada efisiensi dan pemikiran yang dapat dikontrol dalam model bahasa.
Dengan menggabungkan struktur hibrida dengan tekanan baru dan teknik pelatihanPerusahaan menyediakan alat pengembang yang berupaya mempertahankan akurasi sambil mengurangi biaya dan jintan.
Tautan sumber
Berita
GEPA meningkatkan LLM tanpa belajar yang ditugaskan untuk meningkatkan

Ingin lebih banyak visi yang cerdas dari kotak masuk Anda? Berlangganan buletin mingguan kami untuk mendapatkan apa yang hanya terkait dengan lembaga AI, data dan pemimpin keamanan. Berlangganan sekarang
Peneliti dari University of California, BerkeleyDan Universitas Stanford Dan Databricks Saya telah menyajikan cara baru untuk meningkatkan kecerdasan buatan yang disebut terobosan Ini sangat mengungguli teknik pembelajaran penguatan tradisional (RL) untuk mengadaptasi model bahasa besar (LLM) untuk tugas -tugas khusus.
GEPA menghilangkan model populer untuk belajar melalui ribuan upaya untuk bereksperimen dan kesalahan yang dipandu oleh nilai numerik sederhana. Sebaliknya, pemahaman bahasa LLM digunakan untuk memikirkan kinerjanya, mendiagnosis kesalahan dan mengembangkan instruksinya. Selain lebih akurat daripada di tempat, GEPA secara signifikan lebih efisien, mencapai hasil super dengan kurang dari 35 kali.
Untuk perusahaan yang membangun agen dan biografi kerja yang kompleks, ini diterjemahkan langsung ke dalam kursus pengembangan yang lebih cepat, biaya matematika yang jauh lebih rendah, dan aplikasi yang lebih andal.
Biaya tinggi untuk meningkatkan sistem kecerdasan buatan modern
Aplikasi AI untuk lembaga modern jarang satu panggilan ke LLM. Seringkali “Sistem AI Kendaraan”, alur kerja kompleks yang melakukan beberapa seri LLM, alat eksternal seperti basis data atau penerjemah yang diterjemahkan dalam instruksi perangkat lunak, dan logika untuk melakukan tugas -tugas lanjutan, termasuk penelitian multi -step dan analisis data.
Kecerdasan buatan membatasi batasnya
Tutup daya, biaya tinggi simbol, dan penundaan dibentuk kembali. Bergabunglah dengan salon eksklusif kami untuk menemukan bagaimana perbedaan besar:
- Mengubah energi menjadi keuntungan strategis
- Mengajar penalaran yang efektif untuk keuntungan produktivitas nyata
- Membuka Pengembalian Investasi Kompetitif dengan Sistem Kecerdasan Buatan Berkelanjutan
Mengamankan tempat Anda untuk tinggal di latar depan: https://bit.ly/4mwngngo
Ada cara umum untuk meningkatkan sistem ini adalah melalui metode pembelajaran penguatanSeperti kebijakan relatif grup (GRPO), teknik yang digunakan dalam model pemikiran umum, termasuk Deepsek-R1. Metode ini diperlakukan sebagai kotak hitam; Ini menjalankan tugas, mendapatkan skala sukses sederhana (“hadiah standar”, seperti 7/10 derajat), dan menggunakan komentar ini untuk secara perlahan mendorong parameter model ke arah yang benar.
Kerugian utama RL adalah inefisiensi sampel. Untuk belajar secara efektif dari gelar numerik yang terpisah ini, metode RL sering membutuhkan puluhan ribu, atau bahkan ratusan ribu, dari percobaan, yang dikenal sebagai “pengguliran”. Untuk aplikasi lembaga apa pun di dunia nyata yang mencakup panggilan alat mahal (misalnya, informasi API, perakitan kode) atau menggunakan model kepemilikan yang kuat, proses ini lambat dan mahal.
Seperti yang diceritakan kepada Lakshya A Agrawal, rekan penulis kertas dan mahasiswa PhD di University of California, Berkeley, VentureBeat, kompleksitas ini merupakan hambatan besar bagi banyak perusahaan. Agrouwal mengatakan: “Untuk banyak perbedaan, RL tidak praktis karena pendekatan biaya dan kompleksitasnya sejauh ini adalah rekayasa tangan yang cepat.” Dia menunjukkan bahwa GEPA dirancang untuk tim yang perlu meningkatkan sistem yang dibangun pada model atas yang tidak dapat sering dikendalikan, memungkinkan mereka untuk meningkatkan kinerja tanpa mengelola grup GPU khusus.
Para peneliti membingkai tantangan ini sebagai berikut: “Bagaimana kita dapat mengekstraksi sinyal pembelajaran maksimum dari setiap penawaran mahal untuk memungkinkan adaptasi efektif sistem kecerdasan buatan yang canggih dalam pengaturan yang rendah atau anggaran?”
Belajar dengan baik dalam bahasa
GEPA (Genetic-Pareto) adalah peningkatan cepat yang menangani tantangan ini dengan mengganti imbalan sporadis dengan komentar bahasa yang kaya dan alami. Ini meningkatkan fakta bahwa implementasi penuh dari sistem kecerdasan buatan (termasuk langkah -langkah pemikiran, panggilan alat, dan bahkan pesan kesalahan) dapat diurutkan dalam teks yang dapat dibaca dan dipahami oleh LLM. Metodologi GEPA didasarkan pada tiga kolom dasar.
Yang pertama adalah “pengembangan terarah genetik”, di mana GEPA memperlakukan serangkaian klaim seperti gen. Ini “berbalik” berulang kali untuk membuat versi baru yang lebih baik. Mutasi ini adalah proses pintar yang didorong oleh kolom kedua: “Refleksi dengan reaksi linguistik alami.” Setelah beberapa operan, GEPA LLM memberikan implementasi penuh (apa yang coba dilakukan oleh sistem) dan hasilnya (apa yang terjadi dengan benar atau salah). Kemudian “LLM” mencerminkan komentar ini dalam bahasa alami untuk mendiagnosis masalah dan menulis gelombang yang lebih baik dan lebih rinci. Misalnya, alih -alih hanya melihat tingkat rendah dalam misi pembuatan kode, itu dapat menganalisis kesalahan dalam kode dan menyimpulkan klaim untuk menentukan penerbitan perpustakaan tertentu.
Kolom ketiga adalah “Pilihan Berbasis Parito”, yang menjamin eksplorasi cerdas. Alih -alih hanya berfokus pada router yang berkinerja terbaik, yang dapat menyebabkan tersandung dalam solusi optimal (optimal lokal “, GEPA mempertahankan berbagai klaim” khusus “. Ini melacak apa yang menuntut kinerja yang lebih baik pada berbagai contoh individu, dan membuat daftar yang lebih baik. Dengan mengambil solusi yang lebih baik. Dengan mengambil sampel dari berbagai koleksi strategi kemenangan ini, Gepa jaminan yang membuat ini menjamin bahwa GEPA itu menjamin hal itu. input.

Efektivitas seluruh proses ini tergantung pada apa yang oleh peneliti disebut “rekayasa pengaliran counter”. Agrawal menjelaskan bahwa kuncinya adalah permukaan rincian teks yang kaya yang sudah diproduksi oleh sistem tetapi sering diabaikan. Dia mengatakan: “Jalur saluran tradisional sering mengurangi detail ini menjadi satu hadiah numerik, yang menghalangi penyebab hasil tertentu.” “Arah penting GEPA adalah untuk mengatur reaksi yang hanya memperluas hasil tetapi juga jalur dan kesalahan medium dalam teks normal – bukti yang sama yang digunakan seseorang untuk mendiagnosis perilaku sistem.”
Misalnya, untuk sistem pengambilan dokumen, ini berarti memasukkan dalam dokumen daftar yang dipulihkan dan dilewatkan dengan benar, alih -alih menghitung hasil akhir.
Gepa di tempat kerja
Para peneliti mengevaluasi GEPA di empat tugas yang beragam, termasuk jawaban atas hotpotqa dan informasi yang mempertahankan privasi (pupa). Mereka menggunakan kedua model open source (QWEN3 8B), kepemilikan (GPT-4.1 Mini), dan perbandingan GEPA dengan GRPO berbasis RL dan peningkatan klaim MIPROV2 modern.
Di semua tugas, GEPA telah sangat mengungguli GRPO, mencapai tingkat tinggi hingga 19 % dengan penggunaan hingga 35 kali. Dia menjelaskan bahwa Agrawal memberikan contoh nyata dari gain efisiensi ini: “Kami menggunakan GEPA untuk meningkatkan sistem QA dalam waktu sekitar 3 jam melawan 24 jam GRPO – penurunan 8x pada saat pengembangan, dengan kinerja 20 % lebih tinggi juga.” “Biaya peningkatan berbasis RL untuk skenario yang sama dalam tes kami adalah sekitar $ 300 pada saat GPU, sementara GEPA harganya kurang dari $ 20 untuk hasil yang lebih baik-15x penghematan dalam pengalaman kami.”

Selain kinerja mentah, para peneliti menemukan bahwa sistem GEPA yang lebih baik lebih dapat diandalkan ketika menghadapi data yang tidak terlihat baru. Ini diukur dengan “celah melingkar” (perbedaan antara kinerja dalam data pelatihan dan data uji akhir). Agrawal mengasumsikan bahwa ini karena GEPA belajar dari reaksi terkaya. Dia mengatakan: “Kesenjangan generalisasi yang lebih kecil di GEPA mungkin berasal dari penggunaan reaksi yang kaya dalam bahasa alami di setiap hasil yang telah berhasil, dan apa yang gagal, dan mengapa-dari hanya mengandalkan bonus numerik.” “Sistem ini dapat mendorong pengembangan instruksi dan strategi berdasarkan pemahaman yang lebih luas tentang keberhasilan, bukan hanya pola belajar untuk data pelatihan.” Untuk institusi, keandalan yang ditingkatkan ini berarti aplikasi kecerdasan buatan yang kurang rapuh dan lebih mudah beradaptasi dengan peran yang dihadapi pelanggan.
Salah satu manfaat praktis utama adalah bahwa klaim GEPA berdasarkan instruksi hingga 9,2 kali klaim optimal seperti MIPROV2, yang mencakup banyak contoh yang lebih sedikit. Klaim Luxor mengurangi waktu kedatangan dan mengurangi biaya model API. Ini membuat aplikasi akhir lebih cepat dan lebih murah untuk dijalankan dalam produksi.
Makalah ini juga memberikan hasil yang menjanjikan untuk penggunaan GEPA sebagai strategi penelitian “waktu penalaran”, yang mengubah kecerdasan buatan dari satu generator yang menjawab untuk memecahkan masalah berulang. Agrawal adalah skenario di mana GEPA dapat digabungkan ke dalam pipa CI/CD perusahaan. Ketika kode baru dilakukan, GEPA dapat membuat beberapa versi yang ditingkatkan dan secara otomatis memperbaikinya, mengujinya untuk kinerja, buka permintaan penarikan dengan variabel kinerja terbaik untuk insinyur untuk ditinjau. “Ini mengubah peningkatan menjadi proses yang berkelanjutan dan mekanis-generasi solusi yang sering bertepatan atau melebihi penyempurnaan ahli manual,” kata Agrawal. Dalam pengalaman mereka untuk menghasilkan CUDA, pendekatan ini telah memperkuat 20 % dari tugas ke tingkat ahli, dibandingkan dengan 0 % untuk mencoba satu bidikan GPT-4O.
Para penulis makalah percaya bahwa GEPA adalah langkah penting menuju model baru untuk mengembangkan kecerdasan buatan. Tetapi selain menciptakan lebih banyak kecerdasan buatan, efeknya yang paling mendesak pada mereka yang mendapatkan sistem kinerja tinggi mungkin.
“Kami berharap GEPA memungkinkan transformasi positif dalam membangun sistem kecerdasan buatan-yang membuat peningkatan sistem yang dapat dilakukan oleh pengguna akhir, yang sering memiliki pengalaman lapangan terkait tugas, tetapi tidak harus waktu dan kemauan untuk mempelajari rincian RL yang kompleks,” kata Agrawal. “Ini memberi energi langsung kepada para pemangku kepentingan dengan pengetahuan bidang tugas tertentu.”
Tautan sumber
Berita
Kepala Kepolisian Seattle dikatakan makan di dekatnya sambil mencuri perhiasan untuk dua juta dolar

baruAnda sekarang dapat mendengarkan Fox News!
Menurut apa yang dilaporkan, kepala Departemen Kepolisian Seattle jauh dari toko perhiasan ketika ia dipindahkan di siang hari bolong pada hari Kamis, ketika pencuri keluar dengan perkiraan jumlah berlian $ 2 juta, emas dan kebanggaan.
Pada hari itu, empat pencuri yang meyakinkan melakukan pencurian dalam perhiasan Menashe & Sons di Seattle Barat, mengancam karyawan dengan penyemprotan beruang dan senapan Thunderbolt setelah memecahkan pintu depan kaca yang tertutup dengan palu dan mencuri segala sesuatu dari enam kotak lebar di toko.
Tetapi dengan pencurian perhiasan, kepala polisi Seattle Ceann Barnes akan pergi yogurt. Jason Rantz Penawaran di Seattle Reed 770 AM.
Seorang juru bicara Departemen Kepolisian Seattle dikonfirmasi Jason Rantz Dia menunjukkan bahwa presiden sudah dekat, tetapi dia tidak bisa mengatakan dengan tepat di mana itu adalah waktu pencurian.
Pencuri yang malang menarik pencurian tengah hari di toko perhiasan Seattle dalam waktu kurang dari dua menit
Empat pencuri persuasif menyiapkan perampokan kasar di toko perhiasan di Seattle Barat, meninggalkan berlian dan jam tangan emas dan mewah dalam waktu kurang dari dua menit. (Menashe Sons & Jeweles)
“Dia adalah presiden Barnes dan rincian keamanannya di perusahaan terdekat ketika pencurian itu terjadi,” kata juru bicara itu. “Mereka berada di dalam pekerjaan dan tidak mengetahui kejahatan yang terungkap.
Juru bicara itu menambahkan: “Para tersangka ada di dalam dan di luar toko perhiasan dalam 90 detik.” “Detail keamanannya berada dalam pakaian yang jelas pada saat pencurian.”
Juru bicara departemen juga mengatakan Penawaran Radio Presiden dan rinciannya menjadi sadar akan pencurian setelah kendaraan polisi menanggapi lampu dan peringatan ke tempat kejadian.
Polisi California NAB 7 Warga Negara Asing Dalam Mencuri Toko Perhiasan, 1 Tersangka masih longgar

Kepala Kepolisian Seattle of Seattle Parins dikatakan makan siang di sebuah restoran, Yarawat, Yaradat, ketika permata itu dicuri. (Menashe Sons & Jeweles)
Polisi mengatakan pencuri membuka kasus dengan kalung zamrud senilai $ 125.000 dan sebuah kasus yang berisi sekitar 750.000 dolar jam Rolex.
“Kami terguncang sebagai karyawan,” kata Josh Minash, wakil kepala keluarga keluarga, mengatakan pada hari Jumat. “Kami akan tutup sebentar.”
Matthew Street, direktur Jim terdekat untuk Fastrious, Fox 13 di Seattle bahwa staf toko perhiasan telah melarikan diri dari belakang dan pergi ke gym meminta bantuan.
Rumah rumah Seattle Macklemore bersama anak -anak di dalam; Seorang pendidik berkelahi dengan penyerang yang mencuri perhiasan

Kepala polisi tidak tahu bahwa pencurian itu terjadi sampai dia dan rincian keamanannya diperhatikan oleh mobil polisi dengan lampu dan alarm, menurut laporan Jason Rantz. (Google Maps)
Dia menambahkan bahwa ada “banyak kejutan dan kejutan” karena pencurian, yang menyebabkan kunci gym pintu sampai polisi tiba.
Para tersangka melarikan diri dari penyelundup sebelum polisi tiba di belakang. Penangkapan belum dilakukan.
Tidak ada yang terluka selama pencurian.
Klik di sini untuk mendapatkan aplikasi Fox News
Polisi Seattle mengharuskan siapa pun dengan informasi kontak dengan 206-23-5000.
Brie Stimson dari Fox News Digital berkontribusi pada laporan ini.
Berita
Embam: 5 Metode bahwa lembaga dapat mengurangi biaya kecerdasan buatan tanpa mengorbankan kinerja

Ingin lebih banyak visi yang cerdas dari kotak masuk Anda? Berlangganan buletin mingguan kami untuk mendapatkan apa yang hanya terkait dengan lembaga AI, data dan pemimpin keamanan. Berlangganan sekarang
Lembaga tampaknya menerimanya sebagai fakta penting: model kecerdasan buatan membutuhkan banyak akun; Mereka hanya menemukan cara untuk mendapatkan lebih banyak dari mereka.
Tapi seharusnya tidak seperti ini, menurut Sasha Lakkoni, Amnesty International dan iklim di Sulaman. Bagaimana jika ada cara yang lebih cerdas untuk menggunakan kecerdasan buatan? Bagaimana jika, alih -alih berusaha mencapai lebih banyak (sering tidak perlu) dan cara untuk menjalankannya, dapat fokus pada peningkatan kinerja model dan akurasi?
Pada akhirnya, pembuat model dan lembaga fokus pada masalah yang salah: mereka harus komputasi TergenangTidak lebih sulit atau lebih usaha, kata Lukoni.
“Ada cara yang lebih cerdas untuk melakukan hal -hal yang saat ini kita lakukan, karena kita sangat buta: kita membutuhkan lebih banyak fluktuasi, dan kita membutuhkan lebih banyak unit pemrosesan grafis, dan kita membutuhkan lebih banyak waktu.”
Kecerdasan buatan membatasi batasnya
Tutup daya, biaya tinggi simbol, dan penundaan dibentuk kembali. Bergabunglah dengan salon eksklusif kami untuk menemukan bagaimana perbedaan besar:
- Mengubah energi menjadi keuntungan strategis
- Mengajar penalaran yang efektif untuk keuntungan produktivitas nyata
- Membuka Pengembalian Investasi Kompetitif dengan Sistem Kecerdasan Buatan Berkelanjutan
Mengamankan tempat Anda untuk tinggal di latar depan: https://bit.ly/4mwngngo
Di bawah ini adalah lima pembelajaran utama dari pelukan yang dapat membantu institusi dari semua ukuran menggunakan kecerdasan buatan lebih efisien.
1: Ukuran yang tepat dari model misi
Hindari merusak model raksasa dan tujuan umum untuk setiap penggunaan. Model misi atau pemotongan dapat cocok, atau bahkan Lebih banyak model, secara akurat untuk beban kerja target – dengan biaya lebih rendah dan dengan konsumsi energi yang rendah.
Bahkan, Luccioni ditemukan dalam tes bahwa model tugas menggunakan energi kurang dari 20 hingga 30 kali energi tujuan umum. Dia berkata: “Karena ini adalah model yang dapat melakukan tugas ini, tidak seperti tugas apa pun yang Anda lempar, yang seringkali ini merupakan model linguistik yang besar,” katanya.
Distilasi adalah kuncinya di sini; Bentuk lengkap dapat dilatih pada awalnya dari awal dan kemudian memolesnya untuk tugas tertentu. “Deepseek R1, misalnya,” sangat besar sehingga sebagian besar organisasi tidak dapat menggunakannya “karena Anda membutuhkan setidaknya 8 unit pemrosesan resmi. Sebaliknya, versi suling dapat 10, 20, atau bahkan 30x lebih kecil dan dijalankan pada satu unit pemrosesan grafik tunggal.
Dia menunjukkan bahwa model open source membantu dalam efisiensi, karena mereka tidak membutuhkan pelatihan dari awal. Ini dibandingkan dengan hanya beberapa tahun, ketika perusahaan adalah sumber daya limbah karena mereka tidak dapat menemukan model yang mereka butuhkan; Saat ini, mereka dapat mulai dengan model dasar, menyesuaikan dan menyesuaikannya.
“Ini memberikan inovasi bersama bertahap, tidak seperti semua orang dilatih dalam model mereka pada koleksi data mereka dan terutama membuang -buang akun dalam proses ini,” kata Luxyoni.
Menjadi jelas bahwa perusahaan dengan cepat kecewa dengan Jenderal AI, karena biayanya belum sebanding dengan manfaatnya. Kasus penggunaan publik, seperti menulis email atau menyalin catatan rapat, sangat berguna. Namun, model tugas masih membutuhkan “banyak pekerjaan” karena model di luar kotak tidak memotongnya dan juga lebih mahal, seperti kata Luccioni.
Ini adalah batasan nilai tambah berikut. “Banyak perusahaan ingin melakukan tugas tertentu.” “Mereka tidak menginginkan Agi, mereka menginginkan kecerdasan tertentu. Ini adalah celah yang harus diberi makan.”
2. Buat efisiensi default
Adopsi “teori pembayaran” dalam desain sistem, anggaran pemikiran konservatif, selalu mengurangi fitur obstetri dan membutuhkan kepatuhan terhadap pola perhitungan berbakti tinggi.
Dalam ilmu kognitif, “teori pertahanan” adalah pendekatan untuk mengelola perubahan perilaku yang dirancang untuk mempengaruhi perilaku manusia dengan keterampilan. Lucioni menunjukkan bahwa “contoh gerejawi” menambahkan alat meja untuk makan di luar negeri: membuat orang memutuskan apakah mereka menginginkan peralatan plastik, alih -alih secara otomatis memasukkannya dengan setiap permintaan, dapat secara signifikan mengurangi limbah.
“Hanya untuk membuat orang memilih sesuatu untuk pembatalan sesuatu sebenarnya, itu sebenarnya mekanisme yang sangat kuat untuk mengubah perilaku orang,” kata Luxyoni.
Mekanisme virtual juga tidak perlu, karena mereka meningkatkan penggunaan, dan oleh karena itu, biaya karena model melakukan lebih dari yang mereka butuhkan. Misalnya, dengan mesin pencari umum seperti Google, ringkasan Gen AI secara otomatis diisi di bagian atas. Lucioni juga memperhatikan bahwa ketika saya baru-baru ini menggunakan GPT-5 dari Openai, model secara otomatis berfungsi dalam mode berpikir penuh pada “pertanyaan yang sangat sederhana”.
“Bagi saya, pengecualian seharusnya,” katanya. Seperti, “Apa arti hidup, lalu, saya ingin ringkasan Gen Ai. Tetapi dengan” Apa cuaca di Montreal “atau” jam kerja apa di apotek lokal? “Saya tidak memerlukan ringkasan kecerdasan buatan, namun default.
3. Meningkatkan penggunaan perangkat
Gunakan silinder. Sesuaikan ukuran pembayaran yang tepat dan pastikan mereka menghasilkan perangkat spesifik untuk mengurangi memori yang terbuang dan menarik energi.
Misalnya, perusahaan itu sendiri harus bertanya: haruskah modelnya selalu? Akankah orang mengumpulkannya dalam waktu yang sebenarnya, 100 permintaan sekaligus? Dalam hal ini, peningkatan selalu diperlukan, seperti yang ditunjukkan Lucioni. Namun, di banyak orang lain, bukan; Model ini dapat dioperasikan secara berkala untuk meningkatkan penggunaan memori, dan informasi yang salah dapat memastikan penggunaan memori yang optimal.
“Ini agak mirip dengan tantangan teknik, tetapi ini adalah tantangan yang sangat spesifik, jadi sulit untuk mengatakan,” hanya distilasi semua model, “atau” mengubah akurasi di semua model. ”
Dalam salah satu studi terbarunya, saya menemukan bahwa ukuran pembayaran tergantung pada perangkat, bahkan untuk jenis atau versi yang ditentukan. Transisi dari satu ukuran batch ke satu plus dapat meningkatkan penggunaan energi karena model membutuhkan lebih banyak bilah memori.
“Ini adalah sesuatu yang tidak terlihat orang, mereka seperti,” Oh, saya akan meningkatkan ukuran batch, “tetapi itu benar -benar datang untuk beralih semua hal yang berbeda ini, dan tiba -tiba itu sangat efektif, tetapi hanya berfungsi dalam konteks yang Anda tentukan.”
4. Memotivasi transparansi energi
Itu selalu membantu ketika orang termotivasi; Untuk tujuan ini, pelukan diluncurkan awal tahun ini Titik kekuatan kecerdasan buatan. Ini adalah cara baru untuk meningkatkan lebih banyak efisiensi energi, menggunakan sistem peringkat 1 hingga 5, dengan model paling efisien yang mendapatkan kondisi “lima bintang”.
Ini dapat dianggap “Bintang Energi untuk Kecerdasan Buatan”, dan terinspirasi oleh Program Federal yang kemungkinan akan berakhir, yang menetapkan spesifikasi efisiensi energi dan merek yang memenuhi syarat dengan logo Energy Star.
“Dua dekade yang lalu, ini adalah motivasi yang sangat positif. Orang -orang ingin mengklasifikasikan bintang -bintang, kan?” Kata Luxiouni. “Sesuatu yang mirip dengan gelar kekuatan akan menjadi hebat.”
Wajahnya yang tertanam Para pemimpin sekarang,, yang Anda rencanakan untuk memperbarui dengan model baru (Deepseek, GPT -SS) pada bulan September, dan melakukannya terus -menerus setiap 6 bulan atau lebih cepat dengan ketersediaan model baru. Lukoni mengatakan bahwa tujuannya adalah agar para pembangun model akan mempertimbangkan klasifikasi “lencana kehormatan.”
5. Refleksi tentang mentalitas “lebih banyak akun lebih baik”
Alih -alih mengejar GPU terbesar, mulailah dengan bertanya: “Apa cara paling cerdas untuk mencapai hasilnya?” Untuk banyak beban kerja, struktur yang paling cerdas dan data yang terkoordinasi mengungguli brute force.
“Saya pikir orang mungkin tidak memerlukan banyak unit pemrosesan grafis seperti yang mereka pikirkan,” kata Luxyoni. Alih -alih hanya pergi ke grup terbesar, perusahaan mendesak untuk memikirkan kembali tugas -tugas bahwa unit pemrosesan grafis akan menyelesaikan unit grafis dan mengapa mereka membutuhkannya, bagaimana mereka telah membuat jenis tugas ini sebelumnya, dan apa penambahan unit pemrosesan grafis tambahan pada akhirnya.
Dia berkata: “Ini adalah semacam perlombaan ini ke bawah di mana kita membutuhkan kelompok yang lebih besar.” “Dia berpikir tentang apa yang dia gunakan untuk kecerdasan buatan, dan teknologi apa yang Anda butuhkan, apa yang membutuhkannya?”
Tautan sumber
- Berita8 tahun ago
These ’90s fashion trends are making a comeback in 2017
- Berita8 tahun ago
The final 6 ‘Game of Thrones’ episodes might feel like a full season
- Berita8 tahun ago
According to Dior Couture, this taboo fashion accessory is back
- Berita8 tahun ago
The old and New Edition cast comes together to perform
- Berita8 tahun ago
Phillies’ Aaron Altherr makes mind-boggling barehanded play
- Berita8 tahun ago
Uber and Lyft are finally available in all of New York State
- Berita8 tahun ago
Disney’s live-action Aladdin finally finds its stars
- Berita8 tahun ago
Mod turns ‘Counter-Strike’ into a ‘Tekken’ clone with fighting chickens