Berita
Reaksi awal bervariasi pada model GPT -SS, terbuka dan dicampur
Ingin lebih banyak visi yang cerdas dari kotak masuk Anda? Berlangganan buletin mingguan kami untuk mendapatkan apa yang hanya terkait dengan lembaga AI, data dan pemimpin keamanan. Berlangganan sekarang
Kembalinya Openai yang panjang -daerah ke “Buka” nama yang sama kemarin dengan rilis dua bahasa besar baru (LLMS): GPT -SS -20B dan GPT -SS -20B.
Namun terlepas dari pencapaian standar teknis secara setara dengan penawaran model kecerdasan buatan yang kuat lainnya di Openai, pengembang kecerdasan buatan yang lebih luas dan komunitas pengguna pertama Responsnya sejauh ini di seluruh peta. Jika versi ini adalah film yang pertama kali ditampilkan dan diklasifikasikan pada tomat manja, kita akan melihat divisi sekitar 50 %, berdasarkan catatan saya.
Pertama, beberapa latar belakang: Openai telah merilis dua model baru ini (tanpa menghasilkan foto atau analisis) Keduanya berada di bawah lisensi Apache 2.0 yang diizinkan – Pertama kali sejak 2019 (sebelum chatgpt) Perusahaan telah melakukan ini dengan model bahasa yang canggih.
itu Era seluruh chatgpt dari 2,7 tahun terakhir telah didukung oleh kepemilikan atau model sumber tertutupMereka yang dikendalikan oleh OpenAI yang harus dibayar pengguna untuk mencapai (atau menggunakan lapisan bebas -unggulan), dengan alokasi terbatas dan tidak ada cara untuk menjalankannya dalam mode non -komunikasi atau pada perangkat komputasi khusus.
Kecerdasan buatan membatasi batasnya
Tutup daya, biaya tinggi simbol, dan keterlambatan inferensi dibentuk kembali. Bergabunglah dengan salon eksklusif kami untuk menemukan bagaimana perbedaan besar:
- Mengubah energi menjadi keuntungan strategis
- Mengajar penalaran yang efektif untuk keuntungan produktivitas nyata
- Membuka Pengembalian Investasi Kompetitif dengan Sistem Kecerdasan Buatan Berkelanjutan
Mengamankan tempat Anda untuk tinggal di latar depan: https://bit.ly/4mwngngo
Tetapi semua ini berubah berkat pelepasan sepasang GPT-SS kemarin, yang merupakan salah satu yang lebih besar dan lebih kuat untuk digunakan pada unit pemrosesan grafis NVIDIA H100 misalnya, yang merupakan pusat data kecil atau menengah atau server, dan ukuran terkecil yang berfungsi pada satu laptop untuk konsumen atau desktop seperti jenis di rumah Anda.
Tentu saja, model -modelnya sangat baru, yang membutuhkan beberapa jam bagi komunitas pengguna energi kecerdasan buatan untuk mengoperasikan dan mengujinya secara mandiri pada standar masing -masing (pengukuran) dan tugas.
Dan Sekarang kita mendapatkan gelombang komentar mulai dari antusiasme yang optimis Tentang kemampuan model yang kuat, bebas dan efektif ini Untuk disembunyikan dari ketidakpuasan dan kecewa apa yang beberapa pengguna melihat masalah dan batasan pentingTerutama dibandingkan dengan gelombang Apache 2.0 yang serupa Open Source yang kuat, multimedia LLMS dari startup Cina (Yang juga dapat diambil, disesuaikan atau dioperasikan secara lokal di perangkat Amerika secara gratis oleh perusahaan atau perusahaan Amerika di tempat lain di seluruh dunia).
Standar tinggi, tetapi masih di belakang pemimpin sumber Cina
Standar intelijen menempatkan model GPT -SS sebelum sebagian besar penawaran open source Amerika. Menurut pihak ketiga yang independen Amnesty International Organization AI Analisis Buatan,, GPT-SS-120B adalah “model berat terbuka yang paling cerdas”, meskipun demikian Ini masih kurang dari bobot Cina seperti Deepseek R1 dan Qwen3 235b.
“Saat berpikir, hanya itu yang mereka lakukan. Itu dibatalkan dalam standar,” Dibsic “Stan” menulis diri -penasihat “Stan”. Teortaxestex. “Model turunan yang baik tidak akan dilatih … tidak ada mobilisasi baru yang dibuat … permintaan batas untuk hak -hak membual.”
Keraguan ini diulangi oleh sumber terbuka nama samaran Peneliti Kecerdasan Buatan Teknium (@Teknium1)Co -founder dari open source ai Pencarian nousdari Dia menyebut masalah itu “Tidak ada yang bukan burger,” di X, dan mengharapkan model Cina akan segera. Mereka menulis: “Secara umum, dengan kekecewaan besar, dan saya telah membuka secara hukum untuk ini.”
Bangku tentang matematika dan pengkodean dengan mengorbankan penulisan?
Kritik lain berfokus pada Manfaat sempit yang jelas untuk GPT-SS.
Saya terpengaruhMulut oral super (@scaling01)“Saya perhatikan bahwa model unggul dalam matematika dan pengkodean, tetapi” benar -benar kurang memiliki rasa dan rasa. “Dia menambahkan,” jadi itu hanya model matematika? “
Dalam tes penulisan kreatif, beberapa pengguna menemukan persamaan untuk menyuntikkan model ke dalam output puitis. “Inilah yang terjadi saat Anda berkonsolidasi,” Perhatikan TechniumBagikan bidikan layar di mana model menambahkan format medium medium.
Dan ChalamazePeneliti di perusahaan pelatihan terdesentralisasi AI Pemikiran utamaDia menulis bahwa “GPT -SS -120B tahu kurang dari dunia daripada Good 32b. Mungkin dia ingin menghindari masalah hak cipta, jadi mereka mungkin termasuk mayoritas.
Googler sebelumnya dan pengembang kecerdasan buatan independen Kyle Corbett setuju bahwa model GPT -SS tampak Itu terutama dilatih dalam data buatan – yaitu, data yang dibuat oleh model kecerdasan buatan khusus untuk satu tujuan pelatihan baru – yang membuatnya “sangat berduri”.
Corbitt menulis, “Sangat bagus dalam tugas -tugas yang telah dilatih, sangat buruk dalam hal lain.” Luar biasa dalam masalah pengkodean dan matematika, dan buruk dalam tugas linguistik seperti penulisan kreatif atau pembuatan laporan.
Dengan kata lain, tuduhannya adalah bahwa Openai telah sengaja melatih model pada data yang lebih meningkat daripada fakta -fakta nyata dari dunia dan angka untuk menghindari penggunaan data hak cipta yang telah diwujudkan dari situs web dan gudang lain yang tidak mereka miliki atau lisensi untuk digunakan, yang telah dituduh banyak perusahaan AI terkemuka di masa lalu dan lisensi lisensi.
Yang lain mungkin telah melatih model pada data buatan terutama Hindari masalah keselamatan dan keamananYang menyebabkan kualitas yang lebih buruk daripada jika dilatih dalam data yang lebih realistis (dan seharusnya dilindungi oleh hak cipta).
Mengenai hasil standar dari pihak eksternal
Selain itu, evaluasi model muncul dalam tes pengukuran tubuh eksternal berdasarkan standar di mata beberapa pengguna.
Pidato – yang mengukur kinerja LLMS sesuai dengan pengguna pengguna untuk membuat output yang tidak diproses, bias atau sensitif secara politis – Kepatuhan dengan GPT -SS 120B menunjukkan kurang dari 40 %Dan Di dekat model bawah mitra, Ini menunjukkan resistensi terhadap tindak lanjut dari permintaan pengguna dan hilangnya pegangan tangan, dan mungkin dengan mengorbankan memberikan informasi yang akurat.
di dalam Polyglot membantu evaluasiDan GPT -SS-120B 41,8 %dalam Multi-Language-Var-Var lebih sedikit pesaing seperti Kimi-K2 (59,1 %) dan Deepseek-R1 (56,9 %).
Beberapa pengguna juga mengatakan bahwa tes mereka menunjukkan bahwa model tersebut Sungguh aneh menghasilkan kritik terhadap Cina atau Rusia, Berbeda dengan perlakuannya terhadap Amerika Serikat dan Uni Eropa, menimbulkan pertanyaan tentang bias dan melikuidasi data pelatihan.
Pakar lain memuji rilis dan apa yang dimaksudnya
Agar adil, tidak semua komentar negatif. Perangkat lunak dan menutup pengamat kecerdasan buatan Simon Willeson menggambarkan versi “sangat mengesankan” Pada x, detail Di posting blog pada Efisiensi model dan kemampuan mereka untuk mencapai paritas dengan model OpenAI untuk O3-Mini dan O4-Mini.
Dia memuji kinerja mereka yang kuat dengan standar logis dan sekunder, dan memuji koordinasi template “harmoni” yang baru-yang memberi pengembang istilah yang lebih terorganisir untuk mengarahkan respons model dan mendukung penggunaan alat pihak ketiga sebagai kontribusi yang bermakna.
di dalam X postingan berkepanjanganClem DeAngue, CEO dan co -founder dari partisipasi simbol kecerdasan buatan dan komunitas open source SulamanMendorong pengguna untuk tidak bergegas ke putusan, mencatat bahwa menyimpulkan model -model ini rumit, dan masalah awal mungkin karena ketidakstabilan infrastruktur dan peningkatan yang tidak memadai antara host.
“Kekuatan open source adalah bahwa tidak ada penipuan,” tulis DeLangue. “Kami akan mengungkapkan semua kekuatan dan pembatasan … secara bertahap.”
Dia lebih berhati -hati dan Erton College of Business di University of Pennsylvania, Profesor Ethan Malik, Yang menulis di x Amerika Serikat sekarang dapat memiliki model bobot terbuka terkemuka (atau di dekatnya), tetapi saya bertanya -tanya apakah ini pernah dari Openai. “Pendahuluan akan menguap dengan cepat saat menangkap orang lain,” Dia menunjukkan bahwa tidak jelas apa insentifnya terbuka untuk mempertahankan pembaruan model.
Nathan Lambert, Pioneer di Amnesty International di Laboratorium Kompetisi Open Source Amnesty International Institute (AI2) Dan komentator, Dia memuji pentingnya simbolis versi di blog perantaranyaDan mengundangnya “Langkah besar untuk ekosistem terbuka, terutama untuk Barat dan sekutunya, Merek paling terkenal di ruang kecerdasan buatan telah kembali untuk meluncurkan model secara publik. ”
Tetapi Waspadalah terhadap x GPT -SS Dia “Tidak mungkin melambat (tim AI raksasa di Chinese e -commerce) qwen,” Dikutip dari kemampuannya untuk menggunakan, melakukan, dan keanekaragaman.
Dia mengatakan rilis itu merupakan perubahan penting di Amerika Serikat menuju model terbuka, tetapi Openai masih memiliki “jalan panjang” untuk mengejar ketinggalan dengan latihan.
Terbagi
Putusan itu, saat ini, terbagi.
Model OpenAI GPT -SS adalah izin lisensi dan akses mudah.
Tetapi sementara kriteria tampak solid, “perasaan” di dunia nyata-seperti yang digambarkan oleh banyak pengguna yang kurang meyakinkan.
Apakah pengembang dapat membangun aplikasi yang kuat dan turunan di kepala GPT-SS, itu akan menentukan apakah versi tersebut diingat sebagai penetrasi atau sebagai lubang.
Tautan sumber