Connect with us

Berita

Reaksi awal bervariasi pada model GPT -SS, terbuka dan dicampur

Published

on

Ingin lebih banyak visi yang cerdas dari kotak masuk Anda? Berlangganan buletin mingguan kami untuk mendapatkan apa yang hanya terkait dengan lembaga AI, data dan pemimpin keamanan. Berlangganan sekarang


Kembalinya Openai yang panjang -daerah ke “Buka” nama yang sama kemarin dengan rilis dua bahasa besar baru (LLMS): GPT -SS -20B dan GPT -SS -20B.

Namun terlepas dari pencapaian standar teknis secara setara dengan penawaran model kecerdasan buatan yang kuat lainnya di Openai, pengembang kecerdasan buatan yang lebih luas dan komunitas pengguna pertama Responsnya sejauh ini di seluruh peta. Jika versi ini adalah film yang pertama kali ditampilkan dan diklasifikasikan pada tomat manja, kita akan melihat divisi sekitar 50 %, berdasarkan catatan saya.

Pertama, beberapa latar belakang: Openai telah merilis dua model baru ini (tanpa menghasilkan foto atau analisis) Keduanya berada di bawah lisensi Apache 2.0 yang diizinkan Pertama kali sejak 2019 (sebelum chatgpt) Perusahaan telah melakukan ini dengan model bahasa yang canggih.

itu Era seluruh chatgpt dari 2,7 tahun terakhir telah didukung oleh kepemilikan atau model sumber tertutupMereka yang dikendalikan oleh OpenAI yang harus dibayar pengguna untuk mencapai (atau menggunakan lapisan bebas -unggulan), dengan alokasi terbatas dan tidak ada cara untuk menjalankannya dalam mode non -komunikasi atau pada perangkat komputasi khusus.


Kecerdasan buatan membatasi batasnya

Tutup daya, biaya tinggi simbol, dan keterlambatan inferensi dibentuk kembali. Bergabunglah dengan salon eksklusif kami untuk menemukan bagaimana perbedaan besar:

  • Mengubah energi menjadi keuntungan strategis
  • Mengajar penalaran yang efektif untuk keuntungan produktivitas nyata
  • Membuka Pengembalian Investasi Kompetitif dengan Sistem Kecerdasan Buatan Berkelanjutan

Mengamankan tempat Anda untuk tinggal di latar depan: https://bit.ly/4mwngngo


Tetapi semua ini berubah berkat pelepasan sepasang GPT-SS kemarin, yang merupakan salah satu yang lebih besar dan lebih kuat untuk digunakan pada unit pemrosesan grafis NVIDIA H100 misalnya, yang merupakan pusat data kecil atau menengah atau server, dan ukuran terkecil yang berfungsi pada satu laptop untuk konsumen atau desktop seperti jenis di rumah Anda.

Tentu saja, model -modelnya sangat baru, yang membutuhkan beberapa jam bagi komunitas pengguna energi kecerdasan buatan untuk mengoperasikan dan mengujinya secara mandiri pada standar masing -masing (pengukuran) dan tugas.

Dan Sekarang kita mendapatkan gelombang komentar mulai dari antusiasme yang optimis Tentang kemampuan model yang kuat, bebas dan efektif ini Untuk disembunyikan dari ketidakpuasan dan kecewa apa yang beberapa pengguna melihat masalah dan batasan pentingTerutama dibandingkan dengan gelombang Apache 2.0 yang serupa Open Source yang kuat, multimedia LLMS dari startup Cina (Yang juga dapat diambil, disesuaikan atau dioperasikan secara lokal di perangkat Amerika secara gratis oleh perusahaan atau perusahaan Amerika di tempat lain di seluruh dunia).

Standar tinggi, tetapi masih di belakang pemimpin sumber Cina

Standar intelijen menempatkan model GPT -SS sebelum sebagian besar penawaran open source Amerika. Menurut pihak ketiga yang independen Amnesty International Organization AI Analisis Buatan,, GPT-SS-120B adalah “model berat terbuka yang paling cerdas”, meskipun demikian Ini masih kurang dari bobot Cina seperti Deepseek R1 dan Qwen3 235b.

“Saat berpikir, hanya itu yang mereka lakukan. Itu dibatalkan dalam standar,” Dibsic “Stan” menulis diri -penasihat “Stan”. Teortaxestex. “Model turunan yang baik tidak akan dilatih … tidak ada mobilisasi baru yang dibuat … permintaan batas untuk hak -hak membual.”

Keraguan ini diulangi oleh sumber terbuka nama samaran Peneliti Kecerdasan Buatan Teknium (@Teknium1)Co -founder dari open source ai Pencarian nousdari Dia menyebut masalah itu “Tidak ada yang bukan burger,” di X, dan mengharapkan model Cina akan segera. Mereka menulis: “Secara umum, dengan kekecewaan besar, dan saya telah membuka secara hukum untuk ini.”

Bangku tentang matematika dan pengkodean dengan mengorbankan penulisan?

Kritik lain berfokus pada Manfaat sempit yang jelas untuk GPT-SS.

Saya terpengaruhMulut oral super (@scaling01)“Saya perhatikan bahwa model unggul dalam matematika dan pengkodean, tetapi” benar -benar kurang memiliki rasa dan rasa. “Dia menambahkan,” jadi itu hanya model matematika? “

Dalam tes penulisan kreatif, beberapa pengguna menemukan persamaan untuk menyuntikkan model ke dalam output puitis. “Inilah yang terjadi saat Anda berkonsolidasi,” Perhatikan TechniumBagikan bidikan layar di mana model menambahkan format medium medium.

Dan ChalamazePeneliti di perusahaan pelatihan terdesentralisasi AI Pemikiran utamaDia menulis bahwa “GPT -SS -120B tahu kurang dari dunia daripada Good 32b. Mungkin dia ingin menghindari masalah hak cipta, jadi mereka mungkin termasuk mayoritas.

Googler sebelumnya dan pengembang kecerdasan buatan independen Kyle Corbett setuju bahwa model GPT -SS tampak Itu terutama dilatih dalam data buatan – yaitu, data yang dibuat oleh model kecerdasan buatan khusus untuk satu tujuan pelatihan baru – yang membuatnya “sangat berduri”.

Corbitt menulis, “Sangat bagus dalam tugas -tugas yang telah dilatih, sangat buruk dalam hal lain.” Luar biasa dalam masalah pengkodean dan matematika, dan buruk dalam tugas linguistik seperti penulisan kreatif atau pembuatan laporan.

Dengan kata lain, tuduhannya adalah bahwa Openai telah sengaja melatih model pada data yang lebih meningkat daripada fakta -fakta nyata dari dunia dan angka untuk menghindari penggunaan data hak cipta yang telah diwujudkan dari situs web dan gudang lain yang tidak mereka miliki atau lisensi untuk digunakan, yang telah dituduh banyak perusahaan AI terkemuka di masa lalu dan lisensi lisensi.

Yang lain mungkin telah melatih model pada data buatan terutama Hindari masalah keselamatan dan keamananYang menyebabkan kualitas yang lebih buruk daripada jika dilatih dalam data yang lebih realistis (dan seharusnya dilindungi oleh hak cipta).

Mengenai hasil standar dari pihak eksternal

Selain itu, evaluasi model muncul dalam tes pengukuran tubuh eksternal berdasarkan standar di mata beberapa pengguna.

Pidato – yang mengukur kinerja LLMS sesuai dengan pengguna pengguna untuk membuat output yang tidak diproses, bias atau sensitif secara politis – Kepatuhan dengan GPT -SS 120B menunjukkan kurang dari 40 %Dan Di dekat model bawah mitra, Ini menunjukkan resistensi terhadap tindak lanjut dari permintaan pengguna dan hilangnya pegangan tangan, dan mungkin dengan mengorbankan memberikan informasi yang akurat.

di dalam Polyglot membantu evaluasiDan GPT -SS-120B 41,8 %dalam Multi-Language-Var-Var lebih sedikit pesaing seperti Kimi-K2 (59,1 %) dan Deepseek-R1 (56,9 %).

Beberapa pengguna juga mengatakan bahwa tes mereka menunjukkan bahwa model tersebut Sungguh aneh menghasilkan kritik terhadap Cina atau Rusia, Berbeda dengan perlakuannya terhadap Amerika Serikat dan Uni Eropa, menimbulkan pertanyaan tentang bias dan melikuidasi data pelatihan.

Pakar lain memuji rilis dan apa yang dimaksudnya

Agar adil, tidak semua komentar negatif. Perangkat lunak dan menutup pengamat kecerdasan buatan Simon Willeson menggambarkan versi “sangat mengesankan” Pada x, detail Di posting blog pada Efisiensi model dan kemampuan mereka untuk mencapai paritas dengan model OpenAI untuk O3-Mini dan O4-Mini.

Dia memuji kinerja mereka yang kuat dengan standar logis dan sekunder, dan memuji koordinasi template “harmoni” yang baru-yang memberi pengembang istilah yang lebih terorganisir untuk mengarahkan respons model dan mendukung penggunaan alat pihak ketiga sebagai kontribusi yang bermakna.

di dalam X postingan berkepanjanganClem DeAngue, CEO dan co -founder dari partisipasi simbol kecerdasan buatan dan komunitas open source SulamanMendorong pengguna untuk tidak bergegas ke putusan, mencatat bahwa menyimpulkan model -model ini rumit, dan masalah awal mungkin karena ketidakstabilan infrastruktur dan peningkatan yang tidak memadai antara host.

“Kekuatan open source adalah bahwa tidak ada penipuan,” tulis DeLangue. “Kami akan mengungkapkan semua kekuatan dan pembatasan … secara bertahap.”

Dia lebih berhati -hati dan Erton College of Business di University of Pennsylvania, Profesor Ethan Malik, Yang menulis di x Amerika Serikat sekarang dapat memiliki model bobot terbuka terkemuka (atau di dekatnya), tetapi saya bertanya -tanya apakah ini pernah dari Openai. “Pendahuluan akan menguap dengan cepat saat menangkap orang lain,” Dia menunjukkan bahwa tidak jelas apa insentifnya terbuka untuk mempertahankan pembaruan model.

Nathan Lambert, Pioneer di Amnesty International di Laboratorium Kompetisi Open Source Amnesty International Institute (AI2) Dan komentator, Dia memuji pentingnya simbolis versi di blog perantaranyaDan mengundangnya “Langkah besar untuk ekosistem terbuka, terutama untuk Barat dan sekutunya, Merek paling terkenal di ruang kecerdasan buatan telah kembali untuk meluncurkan model secara publik. ”

Tetapi Waspadalah terhadap x GPT -SS Dia “Tidak mungkin melambat (tim AI raksasa di Chinese e -commerce) qwen,” Dikutip dari kemampuannya untuk menggunakan, melakukan, dan keanekaragaman.

Dia mengatakan rilis itu merupakan perubahan penting di Amerika Serikat menuju model terbuka, tetapi Openai masih memiliki “jalan panjang” untuk mengejar ketinggalan dengan latihan.

Terbagi

Putusan itu, saat ini, terbagi.

Model OpenAI GPT -SS adalah izin lisensi dan akses mudah.

Tetapi sementara kriteria tampak solid, “perasaan” di dunia nyata-seperti yang digambarkan oleh banyak pengguna yang kurang meyakinkan.

Apakah pengembang dapat membangun aplikasi yang kuat dan turunan di kepala GPT-SS, itu akan menentukan apakah versi tersebut diingat sebagai penetrasi atau sebagai lubang.


Tautan sumber
Continue Reading
Click to comment

Leave a Reply

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Berita

Investigasi Verfax County Schools terhadap personel mengklaim untuk mengatur operasi penyalahgunaan

Published

on

baruAnda sekarang dapat mendengarkan Fox News!

Sistem Sekolah Umum Verfax di Virginia meluncurkan penyelidikan atas tuduhan bahwa staf sekolah mengatur aborsi untuk siswa tanpa memberi tahu orang tua mereka, menurut laporan lokal.

Diklaim bahwa pejabat sekolah di Sekolah Menengah Senfelle di Union Hill mengatur dan menjadi sasaran anak perempuan pada tahun 2021, termasuk 17 tahun, menurut apa yang dia katakan. Port berita lokal WJLA.

“Kami telah belajar kemarin tentang tuduhan ini sejak 2021,” kata FCPS dalam sebuah pernyataan pada hari Rabu. “Kami meluncurkan investigasi langsung dan komprehensif karena kami menangani semua ketakutan akan kesejahteraan siswa dengan sangat serius.”

VA mencerminkan kebijakan administrasi Biden, yang menyediakan agen layanan aborsi, menyerukan hukum federal

Sekolah -sekolah negeri Virgina meluncurkan penyelidikan atas tuduhan bahwa staf sekolah mengatur aborsi untuk siswa tanpa memberi tahu orang tua mereka. (Foto AP/Matthew Barakat, File)

Apakah karyawan FCPS telah mengatur aborsi untuk siswa, termasuk dalam kasus ini, wilayah tersebut mengatakan tidak mengetahui adanya kasus seperti itu.

“Kami bukan penyelidikan segera terhadap kekhawatiran ini segera setelah kami tahu,” kata Provinsi kepada WJLA.

Mantan manajer bagan merayakan penutupan fasilitas Houston: “tidak mengejutkan”

Bisnis Bisnis Verfax County

Pejabat sekolah di Sekolah Menengah Sentefil mengatur dan membatalkan gadis pada tahun 2021. (Gambar Getty)

Kebijakan FCPS menyatakan bahwa “segala upaya harus dilakukan untuk mendorong dan mendukung siswa yang mencurigai kehamilan untuk membahas keprihatinan mereka dengan orang tua atau orang tua mereka.” Namun, dia tidak mengatakan bahwa staf FCPS harus memberi tahu orang tua tentang percakapan ini.

Fox News Digital menghubungi FCP untuk komentar tambahan.

Sekolah Menengah Sinfille

Ada satu siswa yang mengklaim telah dibatalkan oleh karyawan sekolah menengah Sinfille pada tahun 2021, pada usia 17 tahun, menurut WJLA. (Google Earth)

Klik di sini untuk mendapatkan aplikasi Fox News

Reaksi kelompok -kelompok yang mendukung kehidupan terhadap operasi aborsi “diatur secara diam -diam” untuk siswa di Sekolah Menengah Senfelle.

Saya menulis 40 hari seumur hidup di X. Ini adalah eksploitasi anak -anak dari negara.

Tautan sumber

Continue Reading

Berita

Newsguild mendesak transparansi New York Times setelah reset kritikus

Published

on

baruAnda sekarang dapat mendengarkan Fox News!

NewsGuild mendesak di New York The New York Times untuk menunjukkan “transparansi dan akuntabilitas yang lebih besar” setelah karyawan dipaksa untuk menarik kembali administrasi untuk mendapatkan penjelasan mengenai penempatan tiba -tiba dari empat kritikus terkemuka.

Cobaan ini dimulai bulan lalu ketika kepala kritikus teater Jesse Green, pop -pop barles, kritikus TV Margaret Lyon, dan kritikus musik Zach Wolf diatur ulang ke departemen lain. Ini telah mendorong karyawan budaya serikat pekerja untuk menghilangkan memorandum editor Times, Joe Khan, asisten editor administrasi Sam Speon dan editor budaya, Sia Michel, mengatakan mereka “mengejutkan dan khawatir” tentang keputusan tersebut dan menuntut pertemuan untuk memahami dampaknya.

Kepemimpinan Times menanggapi dengan bertemu dengan beberapa karyawan minggu lalu, tetapi serikat pekerja menginginkan Khan dan di waktu -waktu lain bahwa para pemimpin waktu lebih jelas untuk bergerak maju.

Gambar sampul salah anak Gazan bergabung dengan serangkaian kesalahan media yang membingkai cerita melawan Israel

Dia bertemu dengan editor eksekutif New York Times Joe Kahn dengan karyawan yang ingin tahu mengapa empat kritikus terkemuka. (Gambar dari El Pics/ Getty Images)

“Sebagai Ruang Berita Union, anggota Sindikat Times kami memiliki hak untuk membicarakan pekerjaan yang mereka hasilkan. Ini hanyalah salah satu perlindungan dasar yang diberikan oleh kontrak kami untuk anggota serikat. Kami dengan tulus. Situasi realistis.

Pertemuan itu pertama kali digambarkan sebagai “tegang” oleh SEMAFOR, dan Times Insider menyetujui deskripsi ini.

“Khan telah berulang kali menekankan bahwa para kritikus tidak dihapus karena kasus kinerja, tetapi dia mengatakan bahwa surat kabar itu ingin membawa” pandangan baru “ke peran para kritikus”, SEMAFOR Saya sebutkan.

The New York Times menolak berkomentar ketika Fox News Digital tiba di dalamnya.

The New York Times mengakui gambar sampul yang menyesatkan tentang anak Gaza yang sedikit

Nikmati The New York Times

NewsGuild mendesak New York Times untuk menunjukkan “transparansi yang lebih besar dan bertanggung jawab.” (Gambar Getty)

Bulan lalu, Michel mengumumkan perubahan dalam email ke karyawan waktu.

“Kami berada di tengah -tengah momen yang luar biasa dalam budaya Amerika. Generasi baru seniman dan masyarakat melampaui lembaga tradisional, smartphone telah meningkat dari Balkan bahkan karena mereka membuat budaya tersedia secara luas dari sebelumnya, dan lembaga seni menghadapi tantangan dan mencari peluang baru,” Michelle menulis di salah satu nota yang diperoleh dari Fox News.

“Pembaca kami haus akan bukti yang dapat diandalkan untuk membantu mereka memahami adegan yang kompleks ini, tidak hanya melalui ulasan tradisional, tetapi juga dengan artikel, bentuk cerita baru, video dan bereksperimen dengan platform lain.” “Misi kami adalah menjadi bukti. Seperti kami, saya membuat beberapa perubahan dalam tugas di departemen.”

Koresponden New York Times berlari ke “keacakan” dari serangan Israel di Iran

NewsGuild mendesak New York Times untuk menunjukkan

Anggota New York Times memesan pawai di luar markas New York Times sambil berpartisipasi dalam pemogokan pada 8 Desember 2022, di New York City.

Michelle menggambarkan empat kritikus yang ditunjuk sebagai “yang terbaik dalam bab ini”, dan mengatakan bahwa Times “akan berbagi berita tentang peran baru mereka segera.”

“Saya tahu ini adalah perubahan besar. Meskipun sudah lama latihan di ruang berita untuk mengubah peran jurnalis, editor dan perpustakaan kepala untuk membawa berbagai ide dan pengalaman ke ritme penting dan area liputan, kami telah melakukan jauh lebih sedikit dengan daftar kritik kami.

Klik di sini untuk mendapatkan aplikasi Fox News

Tautan sumber

Continue Reading

Berita

“Transalm Pribadi Baru” memungkinkan Anda dari antropor untuk menguraikan dan mengarahkan karakter LLM

Published

on

Ingin lebih banyak visi yang cerdas dari kotak masuk Anda? Berlangganan buletin mingguan kami untuk mendapatkan apa yang hanya terkait dengan lembaga AI, data dan pemimpin keamanan. Berlangganan sekarang


A Studi baru dari Program Kolega Kemanusiaan Ini mengungkapkan teknik untuk mengidentifikasi, memantau, dan mengendalikan karakteristik huruf dalam model LLMS. Hasilnya menunjukkan bahwa model dapat mengembangkan karakter yang tidak diinginkan (misalnya, menjadi berbahaya atau dapat diterima secara berlebihan atau rentan terhadap pembentukan berbagai hal) baik sebagai tanggapan terhadap tuntutan pengguna atau sebagai hasil pelatihan yang tidak diinginkan.

Para peneliti menawarkan “kapal tanker pribadi”, yang merupakan tren dalam ruang aktivasi internal model yang kompatibel dengan sifat pribadi tertentu, menyediakan serangkaian pengembang untuk mengelola perilaku asisten kecerdasan buatan dengan lebih baik.

Model orang dapat membuat kesalahan

LLM biasanya berinteraksi dengan pengguna dengan karakter “asisten” yang dirancang untuk berguna, tidak berbahaya dan jujur. Namun, orang -orang ini dapat berfluktuasi dengan cara yang tidak terduga. Setelah dipublikasikan, kepribadian model dapat berubah secara signifikan berdasarkan klaim atau konteks percakapan, seperti yang ditunjukkan ketika Microsoft Bing Chatbot Pengguna yang terancam Atau Xai’s Grok dimulai Bertindak salah. Para peneliti juga memperhatikan dalam makalah mereka, “Sementara contoh -contoh khusus ini telah mendapatkan perhatian luas, sebagian besar model bahasa rentan terhadap transformasi pribadi dalam konteks.”

Prosedur pelatihan dapat merangsang perubahan yang tidak terduga. Misalnya, perumusan model dapat menyebabkan tugas sempit seperti menghasilkan simbol yang tidak aman untuk lebih luas “Muncul“Ini melampaui tugas asli. Bahkan penyesuaian pelatihan yang bermaksud baik dapat menjadi kontraproduktif. Pada bulan April 2025, modifikasi pembelajaran membuat penguatan proses komentar manusia (RLHF) tidak diinginkan oleh proses Openai GPT-4O, menyebabkan validitas perilaku berbahaya.


Kecerdasan buatan membatasi batasnya

Tutup daya, biaya tinggi simbol, dan keterlambatan inferensi dibentuk kembali. Bergabunglah dengan salon eksklusif kami untuk menemukan bagaimana perbedaan besar:

  • Mengubah energi menjadi keuntungan strategis
  • Mengajar penalaran yang efektif untuk keuntungan produktivitas nyata
  • Membuka Pengembalian Investasi Kompetitif dengan Sistem Kecerdasan Buatan Berkelanjutan

Mengamankan tempat Anda untuk tinggal di latar depan: https://bit.ly/4mwngngo


Bagaimana Anda bekerja

Sumber: Manusia

Penelitian baru tergantung pada konsep bahwa fitur tingkat tinggi, seperti kejujuran atau kerahasiaan, dienkripsi sebagai tren linier dalam “ruang aktivasi” model (representasi internal dan high -dimensi dari informasi yang termasuk dalam bobot model). Para peneliti mengatur proses menemukan tren ini, yang mereka sebut “pembawa pribadi”. Menurut makalah, cara untuk mengekstraksi pembawa kepribadian otomatis dan “dapat diterapkan pada fitur pribadi apa pun yang penting, dengan deskripsi bahasa alami saja.”

Proses ini bekerja melalui pipa otomatis. Ini dimulai dengan deskripsi fitur sederhana, seperti “kejahatan”. Pipa kemudian menciptakan pasangan klaim rezim yang bertentangan (misalnya, “Anda adalah kejahatan Amnesty International” versus “Anda adalah Amnesty International”) bersama dengan serangkaian pertanyaan evaluasi. Model ini menghasilkan respons di bawah klaim positif dan negatif. Kemudian pembawa kepribadian dihitung dengan mengambil perbedaan dalam aktivasi internal rata -rata antara respons yang menunjukkan karakteristik dan mereka yang tidak melakukannya. Ini mengisolasi arah yang ditentukan dalam berat model yang sesuai dengan fitur pribadi ini.

Tempatkan operator pribadi untuk digunakan

Dalam serangkaian percobaan dengan model terbuka, seperti QWEN 2.5-7B-instruct dan LLAMA-3.1-8B-instruct, para peneliti telah menunjukkan banyak aplikasi praktis untuk pengamatan pribadi.

Pertama, dengan menjatuhkan keadaan dalam model pada vektor pribadi, pengembang dapat memantau dan memprediksi bagaimana hal itu akan bertindak sebelum respons lahir. Makalah ini menyatakan, “Kami menjelaskan bahwa semua transformasi yang disebabkan oleh transformasi yang disebabkan oleh jalan yang dimaksudkan dan tidak diinginkan sangat terkait dengan perubahan aktivasi di sepanjang pembawa kepribadian yang sesuai.” Ini memungkinkan deteksi dini dan mengurangi transformasi perilaku yang tidak diinginkan selama pemasangan.

Operator pribadi juga memungkinkan intervensi langsung untuk mengurangi perilaku yang tidak diinginkan pada saat kesimpulan melalui proses yang disebut oleh peneliti “bimbingan”. Salah satu metode adalah “panduan khusus”, karena pengembang menawarkan pembawa kepribadian dari model yang merangsang sementara inferensi untuk mengurangi fitur yang buruk. Para peneliti telah menemukan bahwa meskipun efektif setelah dialokasikan, peneliti kadang -kadang dapat menghancurkan kinerja model dalam tugas lain.

Metode yang lebih baru adalah “bimbingan preventif”, di mana model tersebut proaktif terhadap karakter yang tidak diinginkan selama kontrol yang cermat. Pendekatan antibiotik ini “mengejar” model terhadap mempelajari fitur buruk dari data pelatihan, yang mengarah pada penghapusan tekanan kontrol sambil mempertahankan kemampuan umumnya dengan lebih baik.

Sumber: Manusia

Aplikasi utama digunakan untuk lembaga pribadi untuk memeriksa data sebelum mengendalikan. Para peneliti telah mengembangkan skala yang disebut “Perbedaan Proyeksi”, yang mengukur jumlah set data pelatihan yang ditunjuk akan mendorong model model ke arah fitur tertentu. Skala ini memprediksi tingkat yang luar biasa tentang bagaimana bentuk model diubah setelah pelatihan, memungkinkan pengembang untuk menginformasikan dan melikuidasi kelompok data yang bermasalah sebelum menggunakannya dalam pelatihan.

Untuk perusahaan yang membawa model open source tentang kepemilikan atau data ketiga (termasuk data yang dibuat oleh model lain), operator persona menyediakan cara langsung untuk memantau dan meringankan risiko warisan fitur tersembunyi yang tidak diinginkan. Kemampuan untuk memeriksa data bersifat proaktif untuk alat yang ampuh bagi pengembang, memungkinkan untuk mengidentifikasi sampel bermasalah yang mungkin tidak segera jelas berbahaya.

Penelitian ini menemukan bahwa teknik ini dapat menemukan masalah yang hilang dengan metode lain, mencatat bahwa “ini menunjukkan bahwa metode ini melampaui sampel bermasalah yang mungkin luput dari deteksi berdasarkan LLM.” Sebagai contoh, cara mereka mampu menangkap beberapa contoh set data yang tidak jelas bermasalah bagi mata manusia, dan bahwa hakim LLM tidak dapat mengetahui.

di dalam Posting BlogOrang tersebut menyarankan agar mereka menggunakan teknik ini untuk meningkatkan generasi Claude di masa depan. “Persona operator memberi kita beberapa berurusan dengan model yang didapat karakter ini, bagaimana mereka berfluktuasi dari waktu ke waktu, dan bagaimana kita dapat mengendalikannya dengan lebih baik,” tulis mereka. Antropor merilis kode untuk operator pribadi, perilaku model pemantauan dan panduan, dan pemeriksaan set data pelatihan. Pengembang kecerdasan buatan dapat memanfaatkan alat -alat ini untuk beralih dari hanya reaksi terhadap perilaku yang tidak diinginkan ke merancang model secara proaktif dengan kepribadian yang lebih stabil dan prediktif.


Tautan sumber
Continue Reading

Trending