Berita
Model baru untuk Amnesty International: Bagaimana “Berpikir sebagai Peningkatan” mengarah pada model yang lebih baik untuk tujuan umum
Ingin lebih banyak visi yang cerdas dari kotak masuk Anda? Berlangganan buletin mingguan kami untuk mendapatkan apa yang hanya terkait dengan lembaga AI, data dan pemimpin keamanan. Berlangganan sekarang
Para peneliti di University of Illinois Urbana Chambine dan Virginia University telah mengembangkan struktur model baru yang dapat mengarah pada sistem kecerdasan buatan yang lebih kuat dengan kemampuan berpikir yang paling kuat.
Ditelepon Transformator berbasis energi (EBT), Arsitektur menunjukkan kemampuan normal untuk menggunakan waktu inferensi untuk menyelesaikan masalah yang kompleks. Untuk lembaga ini, ini dapat diterjemahkan ke dalam aplikasi internasional amnesti yang efektif yang dapat diedarkan pada situasi baru tanpa perlu model khusus dalam mengendalikannya.
Tantangan Berpikir Sistem 2
Dalam psikologi, pemikiran manusia sering dibagi menjadi dua posisi: sistem 1, yang cepat dan intuitif, dan sistem 2, yang lambat, dipelajari dan analitis. Model bahasa besar saat ini (LLM) unggul dalam tugas gaya pertama, tetapi industri kecerdasan buatan semakin fokus pada memungkinkan pemikiran 2 menghadapi tantangan pemikiran yang paling kompleks.
Model berpikir menggunakan banyak teknik penskalaan pada saat penalaran untuk meningkatkan kinerja mereka pada masalah sulit. Salah satu metode umum pembelajaran penguatan (RL), yang digunakan dalam model seperti Deepseek-R1 dan O-Series model dari OpenAII, adalah bonus kecerdasan buatan untuk menghasilkan simbol yang khas sampai mereka mencapai jawaban yang benar. Pendekatan lain, sering disebut N terbaik, termasuk membuat beberapa jawaban yang mungkin dan menggunakan mekanisme verifikasi untuk seleksi yang lebih baik.
Namun, metode ini memiliki cacat besar. Mereka sering terbatas pada berbagai masalah yang mudah diverifikasi, seperti matematika dan pengkodean, dan dapat menyebabkan penurunan kinerja dalam tugas -tugas lain seperti penulisan kreatif. Selain itu, Bukti Modern Ini menunjukkan bahwa metode berbasis RL mungkin tidak mengajarkan model berpikir baru, sebaliknya membuat mereka lebih cenderung menggunakan pola berpikir yang berhasil yang sudah mereka ketahui. Ini membatasi kemampuan mereka untuk memecahkan masalah yang membutuhkan eksplorasi nyata dan melampaui sistem pelatihan.
Model Berbasis Energi (EBM)
Arsitektur mengusulkan pendekatan yang berbeda berdasarkan kategori model yang dikenal sebagai EBMS. Ide dasarnya sederhana: alih -alih menghasilkan jawaban langsung, model “fungsi energi” belajar untuk bertindak sebagai hak. Fungsi ini membutuhkan input (seperti router) dan kandidat memprediksi dan menetapkan nilai, atau “energi”, untuk itu. Gelar energi rendah menunjukkan kompatibilitas tinggi, yang berarti prediksi cocok untuk input, sedangkan derajat energi tinggi menunjukkan kecocokan yang lemah.
Dengan menerapkan ini pada logika kecerdasan buatan, para peneliti menyarankan kertas Devs harus dilihat dengan “berpikir sebagai ukuran perbaikan mengenai verifikasi yang menguntungkan, yang menilai konsensus (probabilitas abnormal) antara entri dan prediksi kandidat.” Proses dimulai dengan ramalan acak, yang secara bertahap direvisi dengan mengurangi derajat energinya dan mengeksplorasi ruang solusi yang mungkin sehingga dekat dengan jawabannya sangat kompatibel. Pendekatan ini didasarkan pada prinsip bahwa memeriksa solusinya jauh lebih mudah daripada menghasilkan satu titik nol.
Desain “pusat terpusat pada” tiga tantangan utama dalam logika alamat kecerdasan buatan. Pertama, ini memungkinkan alokasi akun dinamis, yang berarti bahwa model dapat “berpikir” untuk periode yang lebih lama dalam masalah yang lebih sulit dan lebih pendek dalam masalah mudah. Kedua, EBM dapat menangani ketidakpastian secara alami untuk masalah dunia nyata karena tidak ada jawaban yang jelas. Ketiga, mereka bekerja sebagai tantangan mereka sendiri, menghilangkan kebutuhan akan model eksternal.
Tidak seperti sistem lain yang menggunakan generator dan verifikasi terpisah, EBM menggabungkan keduanya dalam satu model seragam. Fitur utama dari pengaturan ini adalah generalisasi yang lebih baik. Karena memeriksa solusi pada data baru di luar distribusi (OOD) seringkali lebih mudah daripada membuat jawaban yang benar, EBM dapat berurusan dengan lebih baik dengan skenario yang tidak dikenal.
Terlepas dari janji mereka, EBM secara historis berjuang dengan ekspansi. Untuk menyelesaikan ini, para peneliti menawarkan EBT, yang terspesialisasi Transforme Model Dirancang untuk model ini. EBTS dilatih untuk terlebih dahulu memverifikasi kompatibilitas antara konteks dan prediksi, kemudian meningkatkan prediksi sampai menemukan output energi yang lebih rendah (yang paling kompatibel). Proses ini secara efektif mensimulasikan proses berpikir untuk setiap prediksi. Para peneliti telah mengembangkan dua jenis EBT: unit unit pengkodean hanya terinspirasi oleh struktur GPT, dan model dua jalan mirip dengan Bert.
Struktur EBTS membuatnya fleksibel dan kompatibel dengan teknik waktu inferensi yang berbeda. “EBT dapat menghasilkan tempat tidur yang lebih panjang, self -loss, atau lebih baik daripada N (atau) Anda dapat mengambil sampel dari banyak EBT,” kata Alexe Gladeston, seorang mahasiswa PhD di Universitas Universitas Illinois Champin dan penulis surat kabar. “Bagian terbaiknya adalah bahwa semua kemampuan ini dipelajari selama pelatihan.”
Dompet di tempat kerja
Para peneliti membandingkan EBT dengan struktur spesifik: populer ++ adaptor Resep untuk generasi teks (metode terpisah) dan transformator proliferasi (DIT) untuk tugas -tugas seperti prediksi video dan klarifikasi gambar (metode yang sedang berlangsung). Mereka mengevaluasi model dalam kriteria utama: “mempelajari kemampuan untuk berkembang”, atau sejauh mana efisiensi mereka, dan “berpikir untuk berpikir”, yang mengukur bagaimana meningkatkan kinerja dengan lebih banyak akun pada saat penalaran.
Selama pelatihan, EBT menunjukkan efisiensi yang besar, mencapai tingkat penskalaan yang lebih tinggi hingga 35 % transformator ++ melalui data, ukuran batch, parameter, dan akun. Ini berarti bahwa EBT dapat dilatih lebih cepat dan lebih lisensi.
Setelah inferensi, EBT juga mengungguli model saat ini tentang tugas berpikir. Dengan “berpikir untuk periode yang lebih lama” (menggunakan lebih banyak langkah peningkatan) dan melakukan “identifikasi diri” (menghasilkan beberapa kandidat dan memilih satu dengan energi paling sedikit), EBTS meningkatkan 29 % lebih banyak pemodelan bahasa daripada Transformer ++. “Ini sesuai dengan tuduhan kami bahwa karena transformator tradisional nutrisi canggih tidak dapat menyesuaikan akun tambahan untuk setiap prediksi, mereka tidak dapat meningkatkan kinerja untuk setiap simbol dengan berpikir untuk periode yang lebih lama,” tulis para peneliti.
Untuk pengurangan gambar, EBTS mencapai hasil yang lebih baik daripada Dits saat menggunakan lulus 99 % lebih sedikit.
Dangka, penelitian ini menemukan bahwa EBTS adalah generalisasi yang lebih baik daripada struktur lainnya. Bahkan dengan kinerja yang sama atau lebih buruk dari sebelumnya, EBTS mengungguli model saat ini dalam tugas klinik. Keuntungan kinerja dari pemikiran System 2 adalah yang paling penting dalam data yang di luar distribusi (berbeda dari data pelatihan), yang menunjukkan bahwa EBTS sangat kuat ketika menghadapi tugas -tugas baru dan sulit.
Para peneliti menyarankan bahwa “manfaat dari pemikiran EBT tidak seragam dalam semua data, tetapi mereka berkembang secara positif dengan ukuran transformasi distribusi, dengan menyoroti pemikiran sebagai mekanisme penting untuk generalisasi yang kuat untuk melebihi distribusi pelatihan.”
Manfaat EBT penting karena dua alasan. Pertama, mereka menyarankan bahwa pada berbagai model dasar saat ini, EBTS dapat sangat mengungguli struktur transformator klasik yang digunakan dalam LLMS. Para penulis mencatat bahwa “pada skala model dasar modern yang dilatih pada data 1000x lebih banyak dengan lebih dari 1000x model yang lebih besar, kami berharap pra -kinerja EBT akan jauh lebih baik daripada resep transformator ++.”
Kedua, EBTS menunjukkan efisiensi data yang jauh lebih baik. Ini adalah fitur penting di era di mana data pelatihan berkualitas tinggi telah menjadi hambatan utama untuk memperluas ruang lingkup kecerdasan buatan. “Ketika data menjadi salah satu faktor terbatas utama dalam lebih banyak penskalaan, ini membuat EBT sangat menarik,” dan makalah menyimpulkan bahwa kertas itu.
Terlepas dari mekanisme penalaran yang berbeda, struktur EBT sebagian besar kompatibel dengan adaptor, yang memungkinkan untuk menggunakannya sebagai pengganti dalam LLM saat ini.
“EBTS sangat kompatibel dengan perangkat/kesimpulan saat ini,” kata Gladston, termasuk spekulasi decoding menggunakan model nutrisi pada kedua unit pemrosesan grafis atau TPU. Dia juga mengatakan bahwa dia dapat menjalankan akselerator khusus seperti LPU dan algoritma peningkatan seperti Flashatuth-3, atau dapat diterbitkan melalui pihak inferensi umum seperti VLLM.
Untuk pengembang dan lembaga, kemampuan berpikir yang kuat dan umum dari EBT dapat menjadikannya dasar yang kuat dan dapat diandalkan untuk membangun generasi berikutnya dari aplikasi kecerdasan buatan. “Berpikir untuk jangka waktu yang lebih lama dapat membantu hampir di hampir semua aplikasi institusi, tetapi saya pikir yang paling menarik adalah mereka yang membutuhkan keputusan, keamanan atau aplikasi yang lebih penting dengan data terbatas,” kata Gladstone.
Tautan sumber