Berita

Model Cogito V2 memiliki intuisi diri

Published

on

Ingin lebih banyak visi yang cerdas dari kotak masuk Anda? Berlangganan buletin mingguan kami untuk mendapatkan apa yang hanya terkait dengan lembaga AI, data dan pemimpin keamanan. Berlangganan sekarang


Deep Cogito, AI Research Startup, adalah markas besar San Francisco, yang didirikan oleh mantan swogon, Hari ini saya merilis empat model linguistik terbuka baru (LLMS) Ini mencoba sesuatu untuk dilakukan dengan beberapa: pelajari cara berpikir lebih efektif dari waktu ke waktu – dan memperbaikinya sendiri.

Model, Itu dirilis sebagai bagian dari keluarga V2 Cogito, Ini berkisar antara 70 miliar hingga 671 miliar guru dan tersedia untuk pengembang dan lembaga kecerdasan buatan untuk digunakan mengingat kombinasi lisensi terbatas dan sepenuhnya terbuka. Termasuk:

  • Cogite V2-70B (padat)
  • Cogito V2-109B (ahli campuran)
  • Cogito V2-405B (padat)
  • Cogito V2-671B (Pakar Pakar)

Seri Cogito V2 mencakup keduanya berat Dan Campuran ahli (mee) Model, setiap kesempatan untuk memenuhi kebutuhan yang berbeda. Model padat, seperti variabel 70B dan 405B, aktif, semua parameter pada setiap lintasan, yang membuatnya lebih mudah diprediksi dan lebih mudah dipublikasikan melalui berbagai perangkat.

Itu sempurna untuk Aplikasi rendah, penyesuaian, dan lingkungan dengan unit pemrosesan grafis terbatas. Model MEE, seperti versi 109b dan 671b, gunakan mekanisme panduan yang tersebar untuk mengaktifkan beberapa sub -networks “para ahli” yang berspesialisasi pada satu waktu, memungkinkan banyak hal Ukuran total model terbesar Tanpa kenaikan relatif dalam biaya akun.


AI Impact Series kembali ke San Francisco – 5 Agustus

Tahap selanjutnya dari kecerdasan buatan di sini – apakah Anda siap? Bergabunglah dengan para pemimpin dari Block, GSK dan SAP untuk mengambil tampilan eksklusif tentang cara memulai kembali agen independen dari tugas alur kerja yayasan-dari keputusan dalam waktu yang sebenarnya untuk otomatisasi komprehensif.

Mengamankan tempat Anda sekarang – ruang terbatas: https://bit.ly/3guPlf


Ini membuatnya cocok Tugas Inferensi Kinerja TinggiPenelitian dalam pemikiran kompleks, atau presentasi Keakuratan tingkat perbatasan dengan mengorbankan waktu operasi yang lebih rendah. Di Cogito V2, model MEE 671B berfungsi sebagai yang terbaik, dan manfaat dari efisiensi dan efisiensinya dalam mengarahkan untuk mencocokkan atau memotong model terbuka terkemuka pada standar – dengan penggunaan rantai berpikir jauh lebih pendek.

Sekarang tersedia Sulaman Untuk diunduh dan digunakan oleh perusahaan dan seterusnya Ketidakpastian untuk Penggunaan Lokal OnlineAtau bagi mereka yang tidak dapat meng -host kesimpulan model pada perangkat mereka sendiri, melalui antarmuka API (API) dari Bersama -sama, Amnesty InternationalDan Basis Dan Runbod.

Ada juga kuantitas8 bit Floating Point (FP8)“Versi 671B, yang mengurangi volume angka yang digunakan untuk mewakili parameter model dari 16 bit menjadi 8 bit, membantu pengguna menjalankan model besar lebih cepat, lebih murah dan lebih mudah perangkat-kadang-kadang dengan kinerja yang hampir tidak terputus, 95-99 %. Itu bisa sedikit terdegradasi dari akurasi modelTerutama untuk tugas yang membutuhkan akurasi yang akurat (misalnya, beberapa masalah matematika atau pemikiran).

Setiap empat cModel Ogito V2 dirancang sebagai sistem berpikir hibrida: mereka dapat segera merespons untuk menanyakan, atau ketika dibutuhkan, mencerminkan secara internal sebelum menjawab.

Sangat penting bahwa refleksi ini bukan hanya waktu operasi – tetapi juga dalam proses pelatihan itu sendiri.

Model -model ini dilatih untuk menyerap pemikiran mereka. Ini berarti bahwa jalan yang sama yang mereka ambil untuk mencapai jawaban – langkah mental, jika diizinkan untuk berbicara – disuling lagi dalam bobot model.

Seiring waktu, Mereka sudah mempelajari setiap garis pemikiran penting dan yang tidak.

Blog Cogito yang dalam, “para peneliti”, juga memperhatikan bentuk “Moster yang berkelok -kelok” untuk dapat mencapai jawabannya, dan sebaliknya, mengembangkan intuisi yang lebih kuat untuk jalur penelitian yang benar untuk proses berpikir. “

Dan hasilnya, seperti yang Anda klaim dalam kogito, adalah Pemikiran lebih cepat, lebih efisien dan peningkatan kinerja, Bahkan dalam situasi “standar” yang disebut SO.

Stimulasi intelijen diri

Sementara banyak orang di komunitas kecerdasan buatan menghadapi perusahaan sekarang, Deep Cogito diam -diam dibangun selama lebih dari setahun.

Perusahaan ini keluar dari Stealth pada bulan April 2025 dengan serangkaian model open source yang dilatih pada meta LAMA 3.2. Versi awal ini menunjukkan hasil yang menjanjikan.

menyukai VentureBeat Sebelumnya dilaporkan bahwa Cogito V1 (3B dan 8B) terkecil melampaui rekan Lama 3 melalui beberapa kriteria – kadang -kadang dengan margin lebar.

CEO dan co -founder COGITO DEED DRISHAN ARERA Insinyur LLM yang sebelumnya dijelaskan di Google-Tujuan Jangka Panjang Perusahaan adalah untuk membangun Model yang dapat menyebabkan dan meningkat dengan setiap pengulanganSangat mirip dengan bagaimana Alfago meningkatkan strateginya melalui permainan diri.

Ini menggantikan metode dasar cogito dalam, distilasi dan amplifikasi (IDA), klaim tulisan tangan atau stabil dengan visi model canggih.

Apa itu “intuisi”?

Dengan Cogito V2, tim mengambil episode ini jauh lebih luas. Gagasan sentralnya sederhana: Berpikir tidak hanya merupakan alat untuk waktu inferensi, tetapi lebih harus menjadi bagian dari kecerdasan dasar model.

Jadi perusahaan telah menerapkan sistem di mana model menjalankan rantai berpikir selama pelatihan – kemudian dilatih dalam ide -ide perantara.

Proses ini memberikan perbaikan konkret, sesuai dengan standar internal. Model MILPSTION 671B (MIE) mengungguli kinerja mendalam R1 dalam tugas berpikir, mencocokkan atau mengatasi 0528 terbaru dengan penggunaan rantai berpikir yang lebih pendek sebesar 60 %.

Pada MMLU, GSM8K dan MGSM, Cogito 671B MEE sama dengan gaya terbuka terbaik seperti QWEN1.5-72B dan Deepseek V3, dan pergi ke tingkat kinerja model tertutup seperti Claude 4 Opus dan O3.

khususnya:

  • Cogito 671b MEE (Mode Berpikir) Deepseek R1 0528 Pencocokan melalui QA multi -bahasa dan tugas pengetahuan umum, dan mengungguli dalam strategi dan diskon logis.
  • Dalam posisi non -musimDepsek v3 0324, menunjukkan bahwa intuisi suling membawa bobot yang nyata bahkan tanpa jalur berpikir yang diperpanjang.
  • Kemampuan model untuk menyelesaikan pemikiran lebih sedikit langkah juga merupakan efek dari kursus sungai: biaya inferensi rendah dan waktu respons yang lebih cepat pada klaim kompleks.

Arora menjelaskan ini sebagai perbedaan antara mencari jalan dengan imbalan mengetahui di mana letak tujuan.

“Karena model Cogito mengembangkan intuisi yang lebih baik untuk jalan yang harus diambil saat mencari pada saat penalaran, mereka memiliki 60 % rantai berpikir yang lebih pendek daripada Deepseek R1”. Tentang topik di x Mengumumkan model V2 baru.

Apa saja jenis tugas yang diungguli oleh model Cogito yang dalam saat menggunakan intuisi perangkat mereka?

Beberapa contoh paling persuasif dari tes internal Cogito V2 persis seperti yang muncul dalam digunakan.

Dalam klaim matematika yang berat, pengguna bertanya apakah kereta yang bergerak pada 80 mil per jam dapat mencapai kota 240 mil dalam waktu kurang dari 2,5 jam.

Sementara banyak model meniru akun langkah demi langkah dan kadang -kadang membuat kesalahan konversi unit, Cogito 671b mencerminkan secara internal, menentukan bahwa 240 ÷ 80 = 3 jam, dan disimpulkan dengan benar bahwa kereta itu adalah Tidak mungkin Itu tiba tepat waktu. Ia melakukannya dengan pemikiran interior pendek – di bawah 100 ikon – dibandingkan dengan 200+ yang digunakan oleh Deepsek R1 untuk mencapai jawaban yang sama.

Dalam contoh lain yang mencakup pemikiran hukum, pengguna bertanya apakah putusan Mahkamah Agung AS akan berlaku untuk masalah virtual yang mencakup penelitian dan penyitaan. Posisi berpikir di Cogito menyoroti logika dua langkah: menentukan apakah lantai default cocok dengan sebelumnya, kemudian jelaskan alasannya atau tidak. Model ini mencapai jawaban yang akurat dengan justifikasi yang jelas – jenis pemikiran interpretatif yang masih banyak diperangi LLM.

Tugas lain menunjukkan peningkatan dalam menangani misteri. Dalam pertanyaan multi-hukum klasik- “Jika dia bukan ibu dari Bob, dan Bob adalah ayah Charlie, apa yang bukan untuk Charlie?” Model sering terjalin dalam kata ganti. Model Cogito V2 dengan benar memperkenalkan Alice sebagai nenek Charlie, bahkan dalam perubahan yang sedikit diformulasikan ketika model terbuka lainnya tersandung.

Efisiensi luas

Meskipun ukurannya sangat besar dari model baru, Deep Cogito mengklaim bahwa itu melatih semua delapan model Cogito – termasuk pos pemeriksaan V1 yang lebih kecil 100 juta dolar selain beberapa model terkemuka Openai.

Ini termasuk pembuatan data, peningkatan sintetis, infrastruktur, dan lebih dari 1.000 percobaan pelatihan. Dibandingkan dengan anggaran sembilan angka untuk model perbatasan lainnya, mereka adalah bagian dari pengeluaran khas.

Arora mengaitkan aset ini dengan tesis dasar perusahaan: model yang paling cerdas membutuhkan perangkat kontrol yang lebih baik, bukan lebih banyak simbol.

Dengan mengajarkan model untuk mengatasi jalur pemikiran yang berlebih atau menyesatkan, Cogito V2 memberikan kinerja yang lebih kuat tanpa waktu daur ulang.

Ini adalah barter yang bermakna bagi pengguna yang mengoperasikan model pada perangkat infrastruktur atau API di mana jintan dan biaya berada.

Apa berikut untuk Deep Cogito dan V2?

Versi Cogito V2 bukan produk final tetapi berulang. Arora menggambarkan peta jalan perusahaan sebagai “mendaki bukit” – model yang Anda buat, belajar dari efek berpikir, distilasi, dan ulangi episode. Seiring waktu, setiap gaya menjadi batu untuk bergerak bagi yang lain.

Setiap model DEP Cogito adalah open source, dan perusahaan mengatakan ini akan tetap benar untuk pengulangan di masa depan.

Memang, karyanya menarik perhatian dan dukungan dari para pendukung seperti Eric Vishria dari Benchmark dan South Park Commons Agarwal.

Wajah memeluk, bersama AI, Runpod, Baseten, tim Llama Meta dan Lepas Luang.

Untuk pengembang, peneliti dan tim lembaga, Model sekarang tersedia. Pengembang Ini dapat dioperasikan secara lokal, membandingkan kondisi, atau menyingkirkan kasus penggunaan tertentu.

Untuk masyarakat open-source yang lebih luas, Cogito V2 menawarkan lebih dari sekadar pemenang baru dengan cara yang berbeda untuk membangun intelijen. Bukan dengan berpikir keras, tetapi dengan mempelajari cara berpikir lebih baik.


Tautan sumber

Leave a Reply

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Trending

Exit mobile version