Bergabunglah dengan buletin harian dan mingguan untuk mendapatkan pembaruan terbaru dan konten eksklusif untuk meliput kecerdasan buatan terkemuka di industri ini. Pelajari lebih lanjut
Bahkan ketika model dan logika bahasa besar tetap umum, institusi semakin menuju ke model yang lebih kecil untuk mengoperasikan kecerdasan buatan dengan lebih sedikit kekhawatiran energi dan biaya.
Sementara beberapa organisasi disuling dengan model yang lebih besar untuk versi yang lebih kecil, moderator suka Google Terus mengeluarkan model bahasa kecil (SLM) sebagai alternatif untuk model LLMS, yang mungkin lebih mahal untuk beroperasi tanpa mengorbankan kinerja atau akurasi.
Dengan pemikiran ini, Google merilis versi gaya kecil terbarunya, Gemma, yang menampilkan jendela yang diperluas, parameter yang lebih besar, dan kemampuan berpikir multi -media.
Gemma 3, yang memiliki kekuatan pemrosesan yang sama dengan model GEINII 2.0 yang besar, tetap lebih baik digunakan oleh perangkat yang lebih kecil seperti ponsel dan laptop. Model baru ini memiliki empat ukuran: 1b, 4b, 12b dan 27b.
Dengan jendela konteks yang lebih besar 128 kilometer – berbeda dengan itu, Gemma 2 memiliki jendela konteks 80K – GMMA 3 Anda dapat memahami lebih banyak informasi dan permintaan yang kompleks. Google telah memperbarui Gemma 3 untuk bekerja dalam 140 bahasa, menganalisis gambar, teks, video pendek dan dukungan dukungan untuk otomatisasi tugas dan kemajuan orang tua.
Gemma memberikan kinerja yang kuat
Untuk mengurangi biaya komputasi lebih lanjut, Google telah menyediakan versi kuantitatif GEMMA. untuk berpikir Model kuantitatif Sebagai model terkompresi. Ini terjadi melalui proses “mengurangi keakuratan nilai -nilai numerik dalam berat model” tanpa mengorbankan akurasi.
Google mengatakan bahwa Gemma 3 “menawarkan kinerja terbaru untuk ukurannya” dan mengungguli LLMS seperti LLAMA-405B, Deepseek-V3 dan O3-Mini. Gemma 3 2 2B, khususnya, berada di peringkat kedua dari Deepseek-R1 dalam tes Chatbot Arena ELO. Itu di atasnya DibsikisModel yang lebih kecil, v3 DIBSIC, OpenaiS o3-mini, Matillama-405b dan kesalahan besar.
Dengan memilih jumlah Gemma 3, pengguna dapat meningkatkan kinerja, menjalankan formulir dan membangun aplikasi “dapat sesuai dengan host unit pemrosesan GPU dan unit perawatan tensioner (TPU).”
Gemma 3 terintegrasi dengan alat pengembang seperti luging face transformers, ollama, jax, keras, pytorch dan lainnya. Pengguna juga dapat mengakses Gemma 3 melalui Google AI Studio, memeluk wajah atau kagge. Korporat dan pengembang dapat meminta akses ke Gemma 3 API melalui AI Studio.
Gima Shield untuk keamanan
Google mengatakan dia membangun protokol keselamatan di Gemma 3, termasuk auditor keselamatan bernama Shieldgema 2.
“Pengembangan Gemma 3 menjamin tata kelola data yang luas, kompatibilitas dengan kebijakan keselamatan kami melalui penilaian standar dan pengukuran yang kuat,” Google ditulis dalam posting blog. “Sementara uji komprehensif model yang lebih mampu melaporkan evaluasi kami tentang kemampuan terendah untuk melakukannya, kinerja GMMA 3 augmented STEM menyebabkan penilaian spesifik yang berfokus pada kemungkinan penyalahgunaan dalam menciptakan zat berbahaya; hasilnya menunjukkan tingkat risiko yang rendah.”
Shieldgema 2 adalah auditor foto 4B, parameter yang didasarkan pada yayasan Gemma 3. Pengguna dapat menyesuaikan Shieldgema 2 agar sesuai dengan kebutuhan mereka sendiri.
Model kecil dan meluap
Sejak Google pertama kali dirilis pada Februari 2024, SLMS telah menyaksikan peningkatan minat. Model kecil lainnya seperti Microsoft Phi-4 dan Mistral Small 3 menunjukkan bahwa institusi ingin membangun aplikasi dengan model yang kuat seperti LLM, tetapi tidak perlu menggunakan kisaran apa yang bisa dilakukan LLM.
Lembaga juga telah mulai berubah menjadi versi yang lebih kecil dari LLMS yang Anda sukai melalui distilasi. Agar jelas, Gemma bukanlah distilasi Gemini 2.0; Sebaliknya, itu dilatih dengan set data dan arsitektur yang sama. Model suling belajar dari model yang lebih besar, yaitu Gemma.
Organisasi sering lebih disukai agar sesuai dengan kasus penggunaan yang ditentukan untuk suatu model. Alih-alih menerbitkan LLM seperti O3-Mini atau Claude 3.7 soneta pada editor simbol sederhana, model yang lebih kecil, apakah SLM atau versi suling, dapat melakukan tugas-tugas ini dengan mudah tanpa mengungguli model besar.
Tautan sumber