Connect with us

Berita

Embam: 5 Metode bahwa lembaga dapat mengurangi biaya kecerdasan buatan tanpa mengorbankan kinerja

Published

on

Ingin lebih banyak visi yang cerdas dari kotak masuk Anda? Berlangganan buletin mingguan kami untuk mendapatkan apa yang hanya terkait dengan lembaga AI, data dan pemimpin keamanan. Berlangganan sekarang


Lembaga tampaknya menerimanya sebagai fakta penting: model kecerdasan buatan membutuhkan banyak akun; Mereka hanya menemukan cara untuk mendapatkan lebih banyak dari mereka.

Tapi seharusnya tidak seperti ini, menurut Sasha Lakkoni, Amnesty International dan iklim di Sulaman. Bagaimana jika ada cara yang lebih cerdas untuk menggunakan kecerdasan buatan? Bagaimana jika, alih -alih berusaha mencapai lebih banyak (sering tidak perlu) dan cara untuk menjalankannya, dapat fokus pada peningkatan kinerja model dan akurasi?

Pada akhirnya, pembuat model dan lembaga fokus pada masalah yang salah: mereka harus komputasi TergenangTidak lebih sulit atau lebih usaha, kata Lukoni.

“Ada cara yang lebih cerdas untuk melakukan hal -hal yang saat ini kita lakukan, karena kita sangat buta: kita membutuhkan lebih banyak fluktuasi, dan kita membutuhkan lebih banyak unit pemrosesan grafis, dan kita membutuhkan lebih banyak waktu.”


Kecerdasan buatan membatasi batasnya

Tutup daya, biaya tinggi simbol, dan penundaan dibentuk kembali. Bergabunglah dengan salon eksklusif kami untuk menemukan bagaimana perbedaan besar:

  • Mengubah energi menjadi keuntungan strategis
  • Mengajar penalaran yang efektif untuk keuntungan produktivitas nyata
  • Membuka Pengembalian Investasi Kompetitif dengan Sistem Kecerdasan Buatan Berkelanjutan

Mengamankan tempat Anda untuk tinggal di latar depan: https://bit.ly/4mwngngo


Di bawah ini adalah lima pembelajaran utama dari pelukan yang dapat membantu institusi dari semua ukuran menggunakan kecerdasan buatan lebih efisien.

1: Ukuran yang tepat dari model misi

Hindari merusak model raksasa dan tujuan umum untuk setiap penggunaan. Model misi atau pemotongan dapat cocok, atau bahkan Lebih banyak model, secara akurat untuk beban kerja target – dengan biaya lebih rendah dan dengan konsumsi energi yang rendah.

Bahkan, Luccioni ditemukan dalam tes bahwa model tugas menggunakan energi kurang dari 20 hingga 30 kali energi tujuan umum. Dia berkata: “Karena ini adalah model yang dapat melakukan tugas ini, tidak seperti tugas apa pun yang Anda lempar, yang seringkali ini merupakan model linguistik yang besar,” katanya.

Distilasi adalah kuncinya di sini; Bentuk lengkap dapat dilatih pada awalnya dari awal dan kemudian memolesnya untuk tugas tertentu. “Deepseek R1, misalnya,” sangat besar sehingga sebagian besar organisasi tidak dapat menggunakannya “karena Anda membutuhkan setidaknya 8 unit pemrosesan resmi. Sebaliknya, versi suling dapat 10, 20, atau bahkan 30x lebih kecil dan dijalankan pada satu unit pemrosesan grafik tunggal.

Dia menunjukkan bahwa model open source membantu dalam efisiensi, karena mereka tidak membutuhkan pelatihan dari awal. Ini dibandingkan dengan hanya beberapa tahun, ketika perusahaan adalah sumber daya limbah karena mereka tidak dapat menemukan model yang mereka butuhkan; Saat ini, mereka dapat mulai dengan model dasar, menyesuaikan dan menyesuaikannya.

“Ini memberikan inovasi bersama bertahap, tidak seperti semua orang dilatih dalam model mereka pada koleksi data mereka dan terutama membuang -buang akun dalam proses ini,” kata Luxyoni.

Menjadi jelas bahwa perusahaan dengan cepat kecewa dengan Jenderal AI, karena biayanya belum sebanding dengan manfaatnya. Kasus penggunaan publik, seperti menulis email atau menyalin catatan rapat, sangat berguna. Namun, model tugas masih membutuhkan “banyak pekerjaan” karena model di luar kotak tidak memotongnya dan juga lebih mahal, seperti kata Luccioni.

Ini adalah batasan nilai tambah berikut. “Banyak perusahaan ingin melakukan tugas tertentu.” “Mereka tidak menginginkan Agi, mereka menginginkan kecerdasan tertentu. Ini adalah celah yang harus diberi makan.”

2. Buat efisiensi default

Adopsi “teori pembayaran” dalam desain sistem, anggaran pemikiran konservatif, selalu mengurangi fitur obstetri dan membutuhkan kepatuhan terhadap pola perhitungan berbakti tinggi.

Dalam ilmu kognitif, “teori pertahanan” adalah pendekatan untuk mengelola perubahan perilaku yang dirancang untuk mempengaruhi perilaku manusia dengan keterampilan. Lucioni menunjukkan bahwa “contoh gerejawi” menambahkan alat meja untuk makan di luar negeri: membuat orang memutuskan apakah mereka menginginkan peralatan plastik, alih -alih secara otomatis memasukkannya dengan setiap permintaan, dapat secara signifikan mengurangi limbah.

“Hanya untuk membuat orang memilih sesuatu untuk pembatalan sesuatu sebenarnya, itu sebenarnya mekanisme yang sangat kuat untuk mengubah perilaku orang,” kata Luxyoni.

Mekanisme virtual juga tidak perlu, karena mereka meningkatkan penggunaan, dan oleh karena itu, biaya karena model melakukan lebih dari yang mereka butuhkan. Misalnya, dengan mesin pencari umum seperti Google, ringkasan Gen AI secara otomatis diisi di bagian atas. Lucioni juga memperhatikan bahwa ketika saya baru-baru ini menggunakan GPT-5 dari Openai, model secara otomatis berfungsi dalam mode berpikir penuh pada “pertanyaan yang sangat sederhana”.

“Bagi saya, pengecualian seharusnya,” katanya. Seperti, “Apa arti hidup, lalu, saya ingin ringkasan Gen Ai. Tetapi dengan” Apa cuaca di Montreal “atau” jam kerja apa di apotek lokal? “Saya tidak memerlukan ringkasan kecerdasan buatan, namun default.

3. Meningkatkan penggunaan perangkat

Gunakan silinder. Sesuaikan ukuran pembayaran yang tepat dan pastikan mereka menghasilkan perangkat spesifik untuk mengurangi memori yang terbuang dan menarik energi.

Misalnya, perusahaan itu sendiri harus bertanya: haruskah modelnya selalu? Akankah orang mengumpulkannya dalam waktu yang sebenarnya, 100 permintaan sekaligus? Dalam hal ini, peningkatan selalu diperlukan, seperti yang ditunjukkan Lucioni. Namun, di banyak orang lain, bukan; Model ini dapat dioperasikan secara berkala untuk meningkatkan penggunaan memori, dan informasi yang salah dapat memastikan penggunaan memori yang optimal.

“Ini agak mirip dengan tantangan teknik, tetapi ini adalah tantangan yang sangat spesifik, jadi sulit untuk mengatakan,” hanya distilasi semua model, “atau” mengubah akurasi di semua model. ”

Dalam salah satu studi terbarunya, saya menemukan bahwa ukuran pembayaran tergantung pada perangkat, bahkan untuk jenis atau versi yang ditentukan. Transisi dari satu ukuran batch ke satu plus dapat meningkatkan penggunaan energi karena model membutuhkan lebih banyak bilah memori.

“Ini adalah sesuatu yang tidak terlihat orang, mereka seperti,” Oh, saya akan meningkatkan ukuran batch, “tetapi itu benar -benar datang untuk beralih semua hal yang berbeda ini, dan tiba -tiba itu sangat efektif, tetapi hanya berfungsi dalam konteks yang Anda tentukan.”

4. Memotivasi transparansi energi

Itu selalu membantu ketika orang termotivasi; Untuk tujuan ini, pelukan diluncurkan awal tahun ini Titik kekuatan kecerdasan buatan. Ini adalah cara baru untuk meningkatkan lebih banyak efisiensi energi, menggunakan sistem peringkat 1 hingga 5, dengan model paling efisien yang mendapatkan kondisi “lima bintang”.

Ini dapat dianggap “Bintang Energi untuk Kecerdasan Buatan”, dan terinspirasi oleh Program Federal yang kemungkinan akan berakhir, yang menetapkan spesifikasi efisiensi energi dan merek yang memenuhi syarat dengan logo Energy Star.

“Dua dekade yang lalu, ini adalah motivasi yang sangat positif. Orang -orang ingin mengklasifikasikan bintang -bintang, kan?” Kata Luxiouni. “Sesuatu yang mirip dengan gelar kekuatan akan menjadi hebat.”

Wajahnya yang tertanam Para pemimpin sekarang,, yang Anda rencanakan untuk memperbarui dengan model baru (Deepseek, GPT -SS) pada bulan September, dan melakukannya terus -menerus setiap 6 bulan atau lebih cepat dengan ketersediaan model baru. Lukoni mengatakan bahwa tujuannya adalah agar para pembangun model akan mempertimbangkan klasifikasi “lencana kehormatan.”

5. Refleksi tentang mentalitas “lebih banyak akun lebih baik”

Alih -alih mengejar GPU terbesar, mulailah dengan bertanya: “Apa cara paling cerdas untuk mencapai hasilnya?” Untuk banyak beban kerja, struktur yang paling cerdas dan data yang terkoordinasi mengungguli brute force.

“Saya pikir orang mungkin tidak memerlukan banyak unit pemrosesan grafis seperti yang mereka pikirkan,” kata Luxyoni. Alih -alih hanya pergi ke grup terbesar, perusahaan mendesak untuk memikirkan kembali tugas -tugas bahwa unit pemrosesan grafis akan menyelesaikan unit grafis dan mengapa mereka membutuhkannya, bagaimana mereka telah membuat jenis tugas ini sebelumnya, dan apa penambahan unit pemrosesan grafis tambahan pada akhirnya.

Dia berkata: “Ini adalah semacam perlombaan ini ke bawah di mana kita membutuhkan kelompok yang lebih besar.” “Dia berpikir tentang apa yang dia gunakan untuk kecerdasan buatan, dan teknologi apa yang Anda butuhkan, apa yang membutuhkannya?”


Tautan sumber
Continue Reading
Click to comment

Leave a Reply

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Berita

Tensorzero Nabs Seed sebesar $ 7,3 juta untuk menyelesaikan dunia kekacauan untuk mengembangkan perusahaan LLM

Published

on

Ingin lebih banyak visi yang cerdas dari kotak masuk Anda? Berlangganan buletin mingguan kami untuk mendapatkan apa yang hanya terkait dengan lembaga AI, data dan pemimpin keamanan. Berlangganan sekarang


TensorzeroMembangun infrastruktur open source untuk aplikasi model bahasa besar, diumumkan pada hari Senin bahwa mereka mengumpulkan $ 7,3 juta pembiayaan benih yang dipimpin oleh FirstmarkDengan partisipasi dari Bessmer Venture PartnersDan batuDan selamaDan KoalisiDan lusinan investor dari pemilik strategis.

Pembiayaan ini datang pada saat perusahaan yang berusia 18 bulan menghadapi pertumbuhan eksplosif di komunitas pengembang. Tensorzero Gudang Open Source Baru-baru ini “”Gudang #1 untuk minggu ini“Sebuah situs di seluruh dunia di GitHub, karena melonjak dari sekitar 3000 menjadi lebih dari 9700 bintang dalam beberapa bulan terakhir dengan institusi berjuang dengan kompleksitas aplikasi AI untuk produksi.

“Terlepas dari semua kebisingan di industri ini, perusahaan yang membangun aplikasi LLM masih kekurangan alat untuk memenuhi kebutuhan infrastruktur kognitif dan kompleks, dan menggunakan solusi awal yang tersedia di pasar,” kata Matt Turk, Mitra Umum VERSAR, yang memimpin investasi. “Tensorzero menyediakan komponen produksi, siap untuk lembaga untuk membangun aplikasi LLM yang awalnya bekerja bersama dalam loop peningkatan diri, di luar kotak.”

Perusahaan yang berbasis di Brooklyn memiliki titik rasa sakit yang berkembang untuk lembaga -lembaga yang menerbitkan aplikasi kecerdasan buatan dalam skala besar. Sedangkan seperti model bahasa besar GPT-5 Dan Claude Ini telah menunjukkan kemampuan yang nyata, karena membutuhkan terjemahan ke dalam aplikasi bisnis yang andal yang mengoordinasikan beberapa sistem kompleks untuk mencapai model, pemantauan, peningkatan, dan eksperimen.


Kecerdasan buatan membatasi batasnya

Tutup daya, biaya tinggi simbol, dan penundaan dibentuk kembali. Bergabunglah dengan salon eksklusif kami untuk menemukan bagaimana perbedaan besar:

  • Mengubah energi menjadi keuntungan strategis
  • Mengajar penalaran yang efektif untuk keuntungan produktivitas nyata
  • Membuka Pengembalian Investasi Kompetitif dengan Sistem Kecerdasan Buatan Berkelanjutan

Mengamankan tempat Anda untuk tinggal di latar depan: https://bit.ly/4mwngngo


Bagaimana Penelitian Fusi Nuklir membentuk platform untuk meningkatkan kecerdasan buatan

Pendekatan Tensorzero dari co -founder dan latar belakang CTO Viraj Mehta yang tidak konvensional dalam belajar untuk memperkuat reaktor fusi nuklir. Selama doktor di Carnegie MellonDia menjelaskan dalam sebuah wawancara baru -baru ini dengan VentureBeat: “Pekerjaan Machata dalam proyek penelitian manajemen energi di mana biaya pengumpulan data” seperti mobil untuk setiap titik data – 30.000 dolar untuk jangka waktu 5 detik data, “jelasnya dalam wawancara baru -baru ini dengan VentureBeat.

“Masalah ini menyebabkan banyak kecemasan tentang tempat konsentrasi sumber daya kita yang terbatas,” kata Mihata. “Kami hanya akan mencapai total beberapa percobaan, jadi pertanyaannya menjadi: apa tempat paling berharga yang dapat kami kumpulkan data?” Eksperimen ini adalah filosofi Tensorzero dasar: meningkatkan nilai semua data untuk terus meningkatkan sistem kecerdasan buatan.

Insight Mihata dan co -founder Gabriel Bianconi, mantan pejabat kepala produk di Pembiayaan Oondo (Proyek pembiayaan invoastal dengan lebih dari satu miliar dolar aset yang dikelola), untuk mengulangi aplikasi LLM sebagai masalah pembelajaran penguatan di mana sistem belajar dari reaksi di dunia nyata.

“Aplikasi LLM dalam konteksnya yang lebih luas tampaknya menjadi masalah dengan pembelajaran penguatan,” jelas Mihata. “Anda dapat melakukan banyak panggilan ke formulir pembelajaran otomatis dengan input terorganisir, mendapatkan output terorganisir, dan akhirnya menerima bentuk hadiah atau komentar. Ini bagi saya seperti keputusan Marcov yang diperhatikan sebagian.”

Mengapa Institusi Meninggalkan Integrasi Penjual Kompleks Intelijen Buatan Infrastruktur Terpadu

Metode tradisional untuk membangun aplikasi LLM mengharuskan perusahaan untuk mengintegrasikan banyak alat khusus dari gerbang model penjual yang berbeda, platform catatan, kerangka kerja evaluasi, dan layanan penyempurnaan. Tensorzero Kemampuan ini disatukan dalam satu tumpukan open source yang dirancang untuk bekerja bersama dengan lancar.

“Sebagian besar perusahaan tidak melewati masalah menggabungkan semua alat yang berbeda ini, dan bahkan mereka yang berakhir dengan solusi terfragmentasi, karena alat -alat ini tidak dirancang untuk bekerja dengan baik satu sama lain,” kata Bianconi. “Jadi kami menyadari bahwa ada peluang untuk membangun produk yang memungkinkan episode ulasan ini untuk diproduksi.”

Inovasi dasar dari sistem dasar adalah menciptakan apa yang oleh para pendiri disebut “data dan pembelajaran anggaran” – cincin reaksi yang mengubah skala produksi dan komentar manusia menjadi model yang lebih cerdas, lebih cepat dan termurah. Dibangun dengan karat untuk kinerja, Tensorzero mencapai biaya umum sub -kumin dengan semua penyedia LLM utama melalui antarmuka aplikasi yang seragam.

Bank -bank besar dan perusahaan -perusahaan yang muncul dari kecerdasan buatan sudah membangun sistem produksi di Tensorzero

Pendekatan ini telah menarik adopsi lembaga -lembaga penting. Salah satu bank terbesar di Eropa adalah penggunaan Tensorzero untuk mengotomatisasi generasi changelog, sementara banyak startup pertama AI dari seri AI ke Seri B telah menggabungkan platform melalui berbagai industri termasuk perawatan kesehatan, pembiayaan, dan aplikasi konsumen.

“Peningkatan adopsi komunitas open source dan lembaga -lembaga itu luar biasa,” kata Boitkoni. “Kami beruntung menerima kontribusi dari lusinan pengembang di seluruh dunia, dan sangat menyenangkan melihat Tensorzero yang sudah menjalankan aplikasi LLM canggih di startup AI perbatasan dan organisasi besar.”

Basis pelanggan perusahaan dari lembaga -lembaga dari startup meluas ke lembaga keuangan utama, yang ditarik oleh kemampuan teknis dan sifat terbuka dari sumbernya. Untuk lembaga dengan persyaratan kepatuhan yang ketat, ini memberikan kemampuan untuk mengoperasikan Tensorzero dalam infrastruktur mereka, kontrol yang menentukan data sensitif.

Bagaimana Tensorzero melampaui Langchain dan kerangka kerja internasional amnesti lainnya di yayasan

Tensorzero Membedakan dirinya dari solusi yang ada seperti LINJSHEN Dan Litellm Melalui pendekatannya yang komprehensif dan fokus pada proses penerbitan kategori produksi. Sementara banyak kerangka kerja unggul dalam model primer yang cepat, mereka sering mencapai langit -langit ekspansi yang memaksa perusahaan untuk membangun kembali infrastruktur mereka.

“Ada dua dimensi untuk berpikir,” Bianconi menjelaskan. “Pertama, ada sejumlah proyek yang sangat baik untuk memulai dengan cepat, dan Anda dapat menempatkan model pendahuluan dengan sangat cepat. Tetapi seringkali perusahaan akan menyerang atap dengan banyak produk ini dan perlu bergabung dan pergi ke sesuatu yang lain.”

Pendekatan terorganisir sistem untuk pengumpulan data juga menyediakan teknik peningkatan paling canggih. Berbeda dengan alat pengamatan tradisional yang menyimpan input dan output dari teks mentah, Tensorzero memelihara data yang terorganisir tentang variabel yang termasuk dalam setiap penalaran, yang membuatnya mudah untuk melatih model dan mengalami jalan yang berbeda.

Waktu kinerja yang berkuasa karat menyediakan milidison dalam lebih dari 10.000 pertanyaan per detik

Kinerja adalah desain utama. Dalam standar, gerbang Tensorzero berbasis karat menambah kurang dari 1 mm jintan 99 persen sambil berurusan dengan lebih dari 10.000 pertanyaan per detik. Ini dibandingkan secara positif dengan alternatif berbasis ular seperti LitellM, yang dapat menambah 25-100x lebih banyak jintan pada tingkat produktivitas yang jauh lebih rendah.

“Litellm (Python) dalam 100 QPS menambahkan 25-100x+ lebih banyak waktu transisi dari portal kami di 10.000 QPS”, para pendiri memperhatikan pengumuman mereka, dengan menyoroti keunggulan kinerja untuk mengimplementasikan Rust.

Strategi open source bertujuan untuk menghilangkan kekhawatiran penjual penjual intelijen buatan

Tensorzero Dia berkomitmen untuk mempertahankan sistem utamanya sepenuhnya open source, tanpa fitur berbayar-strategi yang dirancang untuk membangun kepercayaan diri dengan pelanggan dengan lembaga yang hati-hati dari mengunci penjual. Perusahaan berencana untuk mencapai pendapatan melalui layanan manajemen yang diotomatisasi oleh aspek LLM yang paling canggih, seperti manajemen GPU untuk model dan rekomendasi peningkatan proaktif.

“Kami telah menyadari sangat awal bahwa kami perlu membuat sumber ini terbuka, untuk memberikan kepercayaan diri (perusahaan) untuk melakukannya,” kata Bianconi. “Di masa depan, setidaknya satu tahun dari sekarang dari sudut pandang yang realistis, kami akan kembali dengan layanan pelengkap.”

Layanan terkelola akan fokus pada mengotomatisasi aspek -aspek intens dari sudut pandang matematika untuk meningkatkan LLM sambil mempertahankan esensi dari open source. Ini termasuk berurusan dengan infrastruktur GPU untuk kontrol, mengoperasikan eksperimen otomatis, dan memberikan saran proaktif untuk meningkatkan kinerja model.

Apa infrastruktur berikutnya yang membentuk kembali perusahaan

Fungsi iklan Tensorzero Di garis depan gerakan yang berkembang untuk menyelesaikan tantangan “llmops” – kompleksitas operasional untuk menjalankan aplikasi kecerdasan buatan dalam produksi. Sementara institusi semakin mempertimbangkan Amnesty International dengan infrastruktur bisnis yang kritis daripada teknologi eksperimental, permintaan untuk alat prefabrikasi terus menghasilkan.

Melalui pembiayaan baru, Tensorzero berencana untuk mempercepat pengembangan infrastruktur open source saat membangun timnya. Perusahaan saat ini mempekerjakan di New York dan menyambut kontribusi open source dari komunitas pengembang. Para pendiri sangat bersemangat untuk mengembangkan alat penelitian yang akan memungkinkan pengalaman lebih cepat melalui berbagai aplikasi kecerdasan buatan.

“Visi akhir kami adalah untuk memungkinkan data dan mempelajari roda anggaran untuk meningkatkan aplikasi LLM – reaksi yang mengubah standar produksi dan komentar manusia menjadi model dan agen yang lebih pintar, lebih cepat dan termurah.” “Dengan pertumbuhan model kecerdasan buatan lebih cerdas dan aliran kerja yang lebih rumit diambil, Anda tidak dapat memikirkannya dalam ruang hampa; Anda harus melakukan ini dalam konteks konsekuensi sebenarnya.”

Tensorzero Pertumbuhan cepat Gyper Lembaga -lembaga awal menunjukkan bahwa pasar produk yang kuat sepadan dengan perlakuan salah satu tantangan paling mendesak dalam mengembangkan kecerdasan buatan modern. Pendekatan open source perusahaan dan fokus pada kinerja di tingkat lembaga dapat membuktikan keuntungan yang menentukan di pasar, karena pengembang mengadopsi penjualan lembaga.

Untuk institusi yang masih berjuang untuk mentransfer aplikasi kecerdasan buatan dari model awal ke produksi, pendekatan Tensorzero Unified memberikan alternatif yang meyakinkan untuk tambalan alat khusus saat ini. Seperti yang ditunjukkan oleh salah satu pengamat dalam industri ini, perbedaan antara membangun eksperimental menawarkan Amnesty International dan membangun bisnis Amnesty International sering kali disebabkan oleh infrastruktur Tensorzero bahwa infrastruktur terpadu yang diarahkan pada kinerja akan menjadi dasar bahwa generasi berikutnya dari perusahaan intelijen buatan telah dibangun.


Tautan sumber
Continue Reading

Berita

Trump mengubah posisi Ukraina setelah pertemuan Putin, kesepakatan damai yang lama

Published

on

baruAnda sekarang dapat mendengarkan Fox News!

Saya bersama Presiden Trump: “Tidak ada kesepakatan sampai ada kesepakatan.”

Sekarang dia mengubah posisinya dan berpisah di depan umum dengan Vladimir Putin, terlepas dari keberatan yang parah dari Volodimir Zellinsky, yang mengunjungi Gedung Putih kemarin, tampaknya kesepakatan itu agak jauh.

Minat Putin ditekankan oleh perdamaian melalui pembomannya yang terus -menerus ke Ukraina, dan negara yang ia invasi secara ilegal, dengan putaran terakhir membunuh 10 orang. Ini berarti bahwa diktator Kremlin tidak memiliki minat dalam perdamaian, kecuali untuk kondisi maksimumnya.

Dengar, saya meraung untuk Trump. Jika dia dapat menutupi lingkaran perang brutal dan berdarah ini dalam beberapa hal, segalanya berakhir, itu akan pantas mendapatkan hadiah Nobel Perdamaian. Hillary mengatakan dia mencalonkannya.

Inilah “perbedaan terbesar” antara dua kunjungan ke Gedung Putih Zelenskyy

Tetapi ulasan negatif dari Alaska Sitdown telah mengatur Trump dan mendorongnya untuk keluar dalam berita palsu tentang kebenaran sosial:

“Jika kita memiliki KTT di tempat lain, Demokrat akan menjalankan subjek media untuk dikendalikan, dia mengatakan apa hal yang mengerikan. Orang -orang ini sakit!”

Yah, dia tidak suka pers. Namun, kita sekarang tahu, berkat komentarnya di pesawat di Brett Bayer dari Fox, yang dia nikmati berputar dan menyerupainya dengan permainan golf. Semua koresponden mencoba membuatnya membuat kesalahan. Jika dia tidak membuat berita mendesak, menang. Jika dia mengatakan sesuatu adalah berita yang mendesak, dia tidak memasukkan bola ke dalam lubang dan mereka mendapatkannya.

Presiden Ukraina Foludmir Zelinski berbicara dengan penyiar Fox News Brett Bayer di sebuah rumah sakit di Kharkiv setelah kunjungannya ke tentara yang terluka dan memberi mereka medali untuk melayani mereka. (Laporan Khusus dengan Brett Bayer)

Pada hari Minggu pagi, saya menyaksikan, sementara Zelinski dan pejabat senior Eropa mengatakan bahwa Rusia hanya yang bisa mengakhiri perang dan bahwa Ukraina tidak akan menyerah pada wilayah Donbas, rumah bagi lebih dari 200.000 orang.

Jenderal Wesley Clark juga memberi tahu saya tentang “Buzz Media”, begitu wilayah Donbas berakhir, itu adalah “tembakan lurus” bagi Kev, dan oleh karena itu Ukraina yang berani, yang dihentikan di mesin perang Rusia terbesar, tidak akan dieksploitasi.

Ini adalah penggemar moderat bahwa media melaporkan bahwa Putin menerima perlunya pasukan keamanan untuk melindungi Ukraina, yang berarti bahwa orang Eropa – dan Amerika Serikat – akan mengirim pasukan ke unit penjaga perdamaian.

Ketika utusan Steve Witkeov, yang berada di ruangan itu selama sesi Putin, ditanya tentang perubahan Trump dalam posisinya, saya pikir dia akan menyangkalnya, tetapi dia tidak melakukannya. Ini menegaskan bahwa ceritanya benar, dan tentu saja kompleksitas masalah.

Trump hancur dengan pemimpin Eropa selama Ukraina berbicara tentang langkah besar untuk perdamaian

Kanselir Jerman Friedrich Mirz mengatakan selama akhir pekan bahwa Trump mengatakan bahwa gencatan senjata adalah prioritas terpenting dan prioritas tertinggi. Karena itu, ada permintaan umum, yang tidak terjadi sekarang. Kami sudah berharap akan ada gencatan senjata terlebih dahulu. Jelas bahwa pihak Rusia tidak siap untuk melakukannya. “

Jadi apa sebenarnya yang diserahkan Putin? Tidak ada, sebanyak yang saya bisa lihat. Setiap hari tanpa gencatan senjata adalah hari lain ketika penjahat perang itu mendapatkan keuntungan medan perangnya.

Dalam keadaan ini, Trump mengharapkan presiden Ukraina untuk bergabung dengan rapat tiga dengannya dan Putin?

Menanggapi Peter Duusi dari Fox, Trump mengatakan: “Saya pikir jika semuanya bekerja dengan baik hari ini, kita akan mendapatkan trilogi dan saya pikir akan ada kesempatan yang masuk akal untuk mengakhiri perang ketika kita melakukannya.”

Trump bertemu dengan Zelinski dan para pemimpin Eropa lainnya

Presiden AS Donald Trump bertemu dengan Presiden Ukraina Voludmir Zelinski, Kanselir Jerman Friedrich Mirz, Presiden Prancis Emmanuel Macron, dan Perdana Menteri Italia Georgia meloni di tengah negosiasi untuk mengakhiri Perang Rusia di Ukraina, di Gedung Putih di Washington, Amerika Serikat, 18 Agustus 2025. (Reuters/Alexander Drago)

Zelenskyy, yang memuji Trump berulang kali – dia tidak melakukan kesalahan yang sama dua kali setelah dikeluarkan dari Gedung Putih setelah keruntuhannya pada bulan Februari – wartawan “kita hidup, setiap hari, serangan. Seperti yang Anda tahu, hari ini banyak serangan dan banyak orang yang terluka. Anak itu mati, satu kecil, dan setengah setengah.

“Jadi kita perlu menghentikan perang ini, untuk menghentikan Rusia. Kita perlu mendukung mitra Amerika dan Eropa yang akan melakukan yang terbaik, jadi, dan saya pikir kita melihat bahwa kita adalah orang -orang yang kuat dan mendukung kita gagasan rezim karyawan United, Presiden Trump untuk menghentikan perang ini, untuk melakukan metode diplomatik untuk mengakhiri perang ini. Kami siap untuk ketiganya sebagai siswa.” “” “” “”

Kembali dari Alaska, Trump memulai minggu ini dengan percakapan yang menentukan kebijakan luar negeri tentang Perang Ukraina

Sekarang kejutan saya. Dia siap duduk dengan Putin dan Trump setelah bersikeras gencatan senjata pertama-ketika juga posisi presiden sampai dia mengubahnya dan meninggalkannya setelah kejahatan dengan perang yang dituduh perang?

Jadi apa suasana hati setelah itu?

Trump mengatakan: “Saya optimis bahwa kita dapat mencapai kesepakatan yang akan menghalangi agresi masa depan terhadap Ukraina,” kata Trump. Dia menambahkan: “Saya merasa Anda dan Presiden Putin akan mengerjakan sesuatu.”

Donald Trump bertemu dengan para pemimpin Eropa di Gedung Putih

Presiden Donald Trump, Presiden Ukraina Folodimir Zellinski, Kanselir Jerman Friedrich Mirz, Presiden Prancis Emmanuel Macron, Perdana Menteri Inggris Kerr Star, Perdana Menteri Italia Georgia Meloni, Presiden Finlandia Alexander Stop, dan Sekretaris Jenderal Baru Mark Rotola Ursula von Deir Deir Biz. Sebuah rumah di Washington, 18 Agustus 2025. (Alexander Drago/Reuters)

Zelenskyy “memuji pertemuan konstruksi yang ditentukan,” menambahkan: “Ada banyak orang di penjara. Jadi kita perlu kembali dan menjamin itu akan bekerja selama bertahun -tahun. Kami membicarakannya dan presiden menunjukkan banyak rincian di medan perang, di peta.”

Tetapi akankah Putin, yang memandang Zelinski sebagai pemimpin ilegal?

Semua bergosip di sekitar karpet merah dan suasana bermakna lainnya. Ya, Zelinski mengenakan jas, meskipun dalam gaya militer.

Kita semua harus menjadi rooting Trump. Bahkan jika itu singkat, perang berlanjut, ia hanya bisa berakhir dengan penyelesaian negosiasi.

Klik di sini untuk mendapatkan aplikasi Fox News

Pada titik tertentu, Trump berpisah dari sesi dan memanggil Putin, bukannya menunggu bahkan setelah itu.

Trump telah menerbitkan bahwa ini adalah “langkah yang sangat baik”, dan kata logis mungkin lebih awal. Perang pasti bisa berlanjut. Tapi itu tidak bisa berakhir di medan perang. Kami belum mencapai titik ini tanpa preferensi unik Trump untuk percakapan pemimpin kepada pemimpin, meskipun sekarang secara publik dipisahkan dengan Vladimir Putin. Terkadang hasilnya hasil dan terkadang tidak terjadi, seperti halnya dengan Kim Jong Un. Tapi dia memberinya – dan kami memiliki tembakan.

Tautan sumber

Continue Reading

Berita

GEPA meningkatkan LLM tanpa belajar yang ditugaskan untuk meningkatkan

Published

on

Ingin lebih banyak visi yang cerdas dari kotak masuk Anda? Berlangganan buletin mingguan kami untuk mendapatkan apa yang hanya terkait dengan lembaga AI, data dan pemimpin keamanan. Berlangganan sekarang


Peneliti dari University of California, BerkeleyDan Universitas Stanford Dan Databricks Saya telah menyajikan cara baru untuk meningkatkan kecerdasan buatan yang disebut terobosan Ini sangat mengungguli teknik pembelajaran penguatan tradisional (RL) untuk mengadaptasi model bahasa besar (LLM) untuk tugas -tugas khusus.

GEPA menghilangkan model populer untuk belajar melalui ribuan upaya untuk bereksperimen dan kesalahan yang dipandu oleh nilai numerik sederhana. Sebaliknya, pemahaman bahasa LLM digunakan untuk memikirkan kinerjanya, mendiagnosis kesalahan dan mengembangkan instruksinya. Selain lebih akurat daripada di tempat, GEPA secara signifikan lebih efisien, mencapai hasil super dengan kurang dari 35 kali.

Untuk perusahaan yang membangun agen dan biografi kerja yang kompleks, ini diterjemahkan langsung ke dalam kursus pengembangan yang lebih cepat, biaya matematika yang jauh lebih rendah, dan aplikasi yang lebih andal.

Biaya tinggi untuk meningkatkan sistem kecerdasan buatan modern

Aplikasi AI untuk lembaga modern jarang satu panggilan ke LLM. Seringkali “Sistem AI Kendaraan”, alur kerja kompleks yang melakukan beberapa seri LLM, alat eksternal seperti basis data atau penerjemah yang diterjemahkan dalam instruksi perangkat lunak, dan logika untuk melakukan tugas -tugas lanjutan, termasuk penelitian multi -step dan analisis data.


Kecerdasan buatan membatasi batasnya

Tutup daya, biaya tinggi simbol, dan penundaan dibentuk kembali. Bergabunglah dengan salon eksklusif kami untuk menemukan bagaimana perbedaan besar:

  • Mengubah energi menjadi keuntungan strategis
  • Mengajar penalaran yang efektif untuk keuntungan produktivitas nyata
  • Membuka Pengembalian Investasi Kompetitif dengan Sistem Kecerdasan Buatan Berkelanjutan

Mengamankan tempat Anda untuk tinggal di latar depan: https://bit.ly/4mwngngo


Ada cara umum untuk meningkatkan sistem ini adalah melalui metode pembelajaran penguatanSeperti kebijakan relatif grup (GRPO), teknik yang digunakan dalam model pemikiran umum, termasuk Deepsek-R1. Metode ini diperlakukan sebagai kotak hitam; Ini menjalankan tugas, mendapatkan skala sukses sederhana (“hadiah standar”, seperti 7/10 derajat), dan menggunakan komentar ini untuk secara perlahan mendorong parameter model ke arah yang benar.

Kerugian utama RL adalah inefisiensi sampel. Untuk belajar secara efektif dari gelar numerik yang terpisah ini, metode RL sering membutuhkan puluhan ribu, atau bahkan ratusan ribu, dari percobaan, yang dikenal sebagai “pengguliran”. Untuk aplikasi lembaga apa pun di dunia nyata yang mencakup panggilan alat mahal (misalnya, informasi API, perakitan kode) atau menggunakan model kepemilikan yang kuat, proses ini lambat dan mahal.

Seperti yang diceritakan kepada Lakshya A Agrawal, rekan penulis kertas dan mahasiswa PhD di University of California, Berkeley, VentureBeat, kompleksitas ini merupakan hambatan besar bagi banyak perusahaan. Agrouwal mengatakan: “Untuk banyak perbedaan, RL tidak praktis karena pendekatan biaya dan kompleksitasnya sejauh ini adalah rekayasa tangan yang cepat.” Dia menunjukkan bahwa GEPA dirancang untuk tim yang perlu meningkatkan sistem yang dibangun pada model atas yang tidak dapat sering dikendalikan, memungkinkan mereka untuk meningkatkan kinerja tanpa mengelola grup GPU khusus.

Para peneliti membingkai tantangan ini sebagai berikut: “Bagaimana kita dapat mengekstraksi sinyal pembelajaran maksimum dari setiap penawaran mahal untuk memungkinkan adaptasi efektif sistem kecerdasan buatan yang canggih dalam pengaturan yang rendah atau anggaran?”

Belajar dengan baik dalam bahasa

Gepa: Arxiv

GEPA (Genetic-Pareto) adalah peningkatan cepat yang menangani tantangan ini dengan mengganti imbalan sporadis dengan komentar bahasa yang kaya dan alami. Ini meningkatkan fakta bahwa implementasi penuh dari sistem kecerdasan buatan (termasuk langkah -langkah pemikiran, panggilan alat, dan bahkan pesan kesalahan) dapat diurutkan dalam teks yang dapat dibaca dan dipahami oleh LLM. Metodologi GEPA didasarkan pada tiga kolom dasar.

Yang pertama adalah “pengembangan terarah genetik”, di mana GEPA memperlakukan serangkaian klaim seperti gen. Ini “berbalik” berulang kali untuk membuat versi baru yang lebih baik. Mutasi ini adalah proses pintar yang didorong oleh kolom kedua: “Refleksi dengan reaksi linguistik alami.” Setelah beberapa operan, GEPA LLM memberikan implementasi penuh (apa yang coba dilakukan oleh sistem) dan hasilnya (apa yang terjadi dengan benar atau salah). Kemudian “LLM” mencerminkan komentar ini dalam bahasa alami untuk mendiagnosis masalah dan menulis gelombang yang lebih baik dan lebih rinci. Misalnya, alih -alih hanya melihat tingkat rendah dalam misi pembuatan kode, itu dapat menganalisis kesalahan dalam kode dan menyimpulkan klaim untuk menentukan penerbitan perpustakaan tertentu.

Kolom ketiga adalah “Pilihan Berbasis Parito”, yang menjamin eksplorasi cerdas. Alih -alih hanya berfokus pada router yang berkinerja terbaik, yang dapat menyebabkan tersandung dalam solusi optimal (optimal lokal “, GEPA mempertahankan berbagai klaim” khusus “. Ini melacak apa yang menuntut kinerja yang lebih baik pada berbagai contoh individu, dan membuat daftar yang lebih baik. Dengan mengambil solusi yang lebih baik. Dengan mengambil sampel dari berbagai koleksi strategi kemenangan ini, Gepa jaminan yang membuat ini menjamin bahwa GEPA itu menjamin hal itu. input.

Pilihan kandidat terbaik (kiri) dapat menyebabkan model tersandung minimum lokal sambil memilih Paareo (kanan) dapat mengeksplorasi lebih banyak opsi dan menemukan solusi optimal. Sumber: Arxiv

Efektivitas seluruh proses ini tergantung pada apa yang oleh peneliti disebut “rekayasa pengaliran counter”. Agrawal menjelaskan bahwa kuncinya adalah permukaan rincian teks yang kaya yang sudah diproduksi oleh sistem tetapi sering diabaikan. Dia mengatakan: “Jalur saluran tradisional sering mengurangi detail ini menjadi satu hadiah numerik, yang menghalangi penyebab hasil tertentu.” “Arah penting GEPA adalah untuk mengatur reaksi yang hanya memperluas hasil tetapi juga jalur dan kesalahan medium dalam teks normal – bukti yang sama yang digunakan seseorang untuk mendiagnosis perilaku sistem.”

Misalnya, untuk sistem pengambilan dokumen, ini berarti memasukkan dalam dokumen daftar yang dipulihkan dan dilewatkan dengan benar, alih -alih menghitung hasil akhir.

Gepa di tempat kerja

Para peneliti mengevaluasi GEPA di empat tugas yang beragam, termasuk jawaban atas hotpotqa dan informasi yang mempertahankan privasi (pupa). Mereka menggunakan kedua model open source (QWEN3 8B), kepemilikan (GPT-4.1 Mini), dan perbandingan GEPA dengan GRPO berbasis RL dan peningkatan klaim MIPROV2 modern.

Di semua tugas, GEPA telah sangat mengungguli GRPO, mencapai tingkat tinggi hingga 19 % dengan penggunaan hingga 35 kali. Dia menjelaskan bahwa Agrawal memberikan contoh nyata dari gain efisiensi ini: “Kami menggunakan GEPA untuk meningkatkan sistem QA dalam waktu sekitar 3 jam melawan 24 jam GRPO – penurunan 8x pada saat pengembangan, dengan kinerja 20 % lebih tinggi juga.” “Biaya peningkatan berbasis RL untuk skenario yang sama dalam tes kami adalah sekitar $ 300 pada saat GPU, sementara GEPA harganya kurang dari $ 20 untuk hasil yang lebih baik-15x penghematan dalam pengalaman kami.”

GEPA melampaui garis dasar lainnya pada standar utama Sumber: Arxiv

Selain kinerja mentah, para peneliti menemukan bahwa sistem GEPA yang lebih baik lebih dapat diandalkan ketika menghadapi data yang tidak terlihat baru. Ini diukur dengan “celah melingkar” (perbedaan antara kinerja dalam data pelatihan dan data uji akhir). Agrawal mengasumsikan bahwa ini karena GEPA belajar dari reaksi terkaya. Dia mengatakan: “Kesenjangan generalisasi yang lebih kecil di GEPA mungkin berasal dari penggunaan reaksi yang kaya dalam bahasa alami di setiap hasil yang telah berhasil, dan apa yang gagal, dan mengapa-dari hanya mengandalkan bonus numerik.” “Sistem ini dapat mendorong pengembangan instruksi dan strategi berdasarkan pemahaman yang lebih luas tentang keberhasilan, bukan hanya pola belajar untuk data pelatihan.” Untuk institusi, keandalan yang ditingkatkan ini berarti aplikasi kecerdasan buatan yang kurang rapuh dan lebih mudah beradaptasi dengan peran yang dihadapi pelanggan.

Salah satu manfaat praktis utama adalah bahwa klaim GEPA berdasarkan instruksi hingga 9,2 kali klaim optimal seperti MIPROV2, yang mencakup banyak contoh yang lebih sedikit. Klaim Luxor mengurangi waktu kedatangan dan mengurangi biaya model API. Ini membuat aplikasi akhir lebih cepat dan lebih murah untuk dijalankan dalam produksi.

Makalah ini juga memberikan hasil yang menjanjikan untuk penggunaan GEPA sebagai strategi penelitian “waktu penalaran”, yang mengubah kecerdasan buatan dari satu generator yang menjawab untuk memecahkan masalah berulang. Agrawal adalah skenario di mana GEPA dapat digabungkan ke dalam pipa CI/CD perusahaan. Ketika kode baru dilakukan, GEPA dapat membuat beberapa versi yang ditingkatkan dan secara otomatis memperbaikinya, mengujinya untuk kinerja, buka permintaan penarikan dengan variabel kinerja terbaik untuk insinyur untuk ditinjau. “Ini mengubah peningkatan menjadi proses yang berkelanjutan dan mekanis-generasi solusi yang sering bertepatan atau melebihi penyempurnaan ahli manual,” kata Agrawal. Dalam pengalaman mereka untuk menghasilkan CUDA, pendekatan ini telah memperkuat 20 % dari tugas ke tingkat ahli, dibandingkan dengan 0 % untuk mencoba satu bidikan GPT-4O.

Para penulis makalah percaya bahwa GEPA adalah langkah penting menuju model baru untuk mengembangkan kecerdasan buatan. Tetapi selain menciptakan lebih banyak kecerdasan buatan, efeknya yang paling mendesak pada mereka yang mendapatkan sistem kinerja tinggi mungkin.

“Kami berharap GEPA memungkinkan transformasi positif dalam membangun sistem kecerdasan buatan-yang membuat peningkatan sistem yang dapat dilakukan oleh pengguna akhir, yang sering memiliki pengalaman lapangan terkait tugas, tetapi tidak harus waktu dan kemauan untuk mempelajari rincian RL yang kompleks,” kata Agrawal. “Ini memberi energi langsung kepada para pemangku kepentingan dengan pengetahuan bidang tugas tertentu.”


Tautan sumber
Continue Reading

Trending