Berita
Salesforce bertaruh pada “agen” kecerdasan buatan untuk memperbaiki apa yang disebutnya masalah senilai $7 miliar dalam perangkat lunak perusahaan

Dengan 50.000 peserta datang ke Salesforce Konferensi Kekuatan Mimpi Minggu ini, raksasa perangkat lunak enterprise ini mengambil langkah paling berani terhadap pelanggan AI, memposisikan dirinya sebagai penangkal terhadap apa yang mereka sebut sebagai AI di seluruh industri. "Disinfektan percontohan" Di mana 95% proyek AI perusahaan tidak pernah mencapai produksi.
Perusahaan diluncurkan pada hari Senin Agen Angkatan 360sebuah konsep ulang komprehensif atas seluruh rangkaian produk yang dirancang untuk mengubah bisnis menjadi apa yang mereka sebut sebagai bisnis "Perusahaan agen" — Organisasi tempat agen AI bekerja bersama manusia untuk menangani hingga 40% pekerjaan di bidang penjualan, layanan, pemasaran, dan operasi.
"Kita benar-benar berada di era AI agen, dan menurut saya ini mungkin revolusi terbesar, perubahan teknologi terbesar yang pernah saya lihat dalam karier saya." Parker Harris, salah satu pendiri Salesforce dan chief technology officer, mengatakan dalam konferensi pers baru-baru ini. "Di masa depan, 40% pekerjaan di Fortune 1000 kemungkinan besar akan dilakukan oleh AI, dan manusia serta AI sudah akan bekerja sama."
Pengumuman ini datang pada momen penting bagi Salesforce, yang telah menerapkan lebih dari 12.000 aplikasi agen AI selama setahun terakhir sambil membangun apa yang disebut Harris… "bisnis senilai $7 miliar" Tentang platform AI-nya. Namun, peluncuran tersebut juga terjadi di tengah gejolak luar biasa yang dihadapi CEO Marc Benioff reaksi Untuk komentar terbaru Mendukung Presiden Trump Mengusulkan agar pasukan Garda Nasional berpatroli di jalan-jalan San Francisco.
Mengapa 95% proyek AI perusahaan tidak pernah diluncurkan?
Risikonya sangat besar. Meskipun perusahaan dengan cepat bereksperimen dengan AI setelah ChatGPT muncul dua tahun lalu, sebagian besar penerapan di perusahaan dihentikan sebelum mencapai produksi, menurut Penelitian MIT terbaru Yang banyak dikutip oleh para eksekutif Salesforce.
"Pelanggan telah banyak berinvestasi pada AI, namun mereka tidak mendapatkan manfaat;" kata Srini Tallapragada, presiden Salesforce dan kepala teknik dan petugas kesuksesan pelanggan. "95% uji coba AI perusahaan gagal sebelum produksi. Bukan karena kurangnya niat. Orang ingin melakukan ini. Semua orang memahami kekuatan teknologi. Tapi kenapa begitu sulit?"
Jawabannya, menurut Tallabragada, adalah alat AI tetap terpisah dari alur kerja, data, dan sistem manajemen organisasi. "Anda menulis petunjuk, petunjuk, dan Anda frustrasi karena konteksnya tidak ada," Katanya sambil menggambarkan apa yang disebutnya A "Cincin kematian yang cepat."
Solusi Salesforce adalah platform yang sangat terintegrasi yang menghubungkan apa yang disebutnya empat komponen: platform agen Agentforce 360, Data 360 untuk akses terpadu ke data, aplikasi Pelanggan 360 yang berisi logika bisnis, dan Slack sebagai solusinya "Antarmuka percakapan" Dimana manusia dan agen berkolaborasi.
Slack menjadi pintu depan Salesforce
Mungkin perubahan strategis yang paling penting adalah sisi positifnya Kendur – Diakuisisi oleh Salesforce pada tahun 2019 untuk $27,7 miliar – Sebagai antarmuka utama untuk Salesforce itu sendiri. Perusahaan ini secara aktif menata ulang antarmuka Lightning tradisionalnya di sekitar saluran Slack, di mana kesepakatan penjualan, kasus layanan, dan wawasan data akan muncul secara percakapan, bukan melalui formulir dan dasbor.
"Bayangkan mungkin Anda tidak masuk ke Salesforce, Anda tidak melihat Salesforce, tetapi Salesforce ada di sana. Itu datang kepada Anda di Slack, karena di sanalah Anda menyelesaikan pekerjaan," Haris menjelaskan.
Strateginya mencakup pengintegrasian agen Agentforce Salesforce untuk penjualan, layanan TI, layanan SDM, dan analitik langsung ke Slack, bersama dengan Slackbot yang sepenuhnya dibangun kembali yang berfungsi sebagai pendamping AI pribadi. Perusahaan juga meluncurkan "Pakar saluran," Agen yang selalu aktif memberikan jawaban instan dari percakapan saluran.
Untuk mengaktifkan alat AI pihak ketiga mengakses data percakapan Slack, Salesforce merilis a API pencarian waktu nyata Dan Server protokol konteks model. Mitra termasuk OpenAI, Anthropic, Google, Perplexity, Writer, Dropbox, Notion, dan Cursor adalah agen pembangun yang akan hidup secara native di Slack.
"Cara terbaik untuk melihat kekuatan platform adalah melalui aplikasi AI dan agen yang telah dibuat," CEO Salesforce Rob Seaman mengatakan saat konferensi pers, mengutip contoh startup "Mencapai puluhan ribu pelanggan yang menginstalnya dalam 120 hari atau kurang."
Layanan suara dan TI menargetkan pasar baru
Selain integrasi Slack, Salesforce mengumumkan perluasan besar-besaran pada interaksi suara dan layanan karyawan. Suara agenyang kini tersedia secara umum, mengubah sistem respons suara interaktif (IVR) tradisional menjadi percakapan alami yang dapat memperbarui data CRM, memicu alur kerja, dan dengan mudah diserahkan ke agen manusia.
Penawaran layanan TI adalah tantangan paling langsung yang dihadapi Salesforce Layanan sekarangpemimpin pasar. Mudhu Sudhakar, yang bergabung dengan Salesforce dua bulan lalu sebagai wakil presiden senior Layanan TI dan SDM, memposisikan produk ini sebagai konsep ulang mendasar atas dukungan karyawan.
"Manajemen layanan TI lama sebagian besar berfokus pada portal, formulir, tiket, dan proses manual." ujar Sudhakar. "Kami memiliki beberapa prinsip inti: percakapan terlebih dahulu dan agen terlebih dahulu, benar-benar fokus pada pengalaman percakapan bagi orang yang meminta dukungan dan bagi orang yang memberikan dukungan."
Platform Layanan TI mencakup apa yang digambarkan oleh Salesforce sebagai lebih dari 25 agen khusus dan lebih dari 100 alur kerja dan konektor siap pakai yang dapat menangani segala hal mulai dari pengaturan ulang kata sandi hingga manajemen insiden yang kompleks.
Pelanggan awal melaporkan peningkatan efisiensi yang besar
Hasil dari pelanggan menunjukkan bahwa pendekatan ini mendapatkan daya tarik. reddit Waktu penyelesaian dukungan rata-rata berkurang dari 8,9 menit menjadi 1,4 menit – peningkatan sebesar 84% – dengan 46% kasus sepenuhnya dikonversi ke agen AI. "Efisiensi ini memungkinkan kami memberikan bantuan sesuai permintaan untuk tugas-tugas kompleks dan meningkatkan skor kepuasan pengiklan sebesar 20%." John Thompson, wakil presiden strategi penjualan dan operasi di Reddit, mengatakan dalam sebuah pernyataan.
mesinsebuah perusahaan manajemen perjalanan, mengurangi waktu pemrosesan rata-rata sebesar 15%, menghemat lebih dari $2 juta per tahun. Buka meja Menyelesaikan 70% pertanyaan tentang restoran dan tempat makan secara mandiri. 1-800Akuntan mencapai tingkat deviasi kasus sebesar 90% selama periode minggu pajak kritis.
Penerapan internal Salesforce mungkin yang paling jitu. Organisasi kesuksesan pelanggan Tallapragada kini menangani 1,8 juta percakapan yang didukung AI setiap minggunya, dengan metrik yang dipublikasikan di bantuan.salesforce.com Menunjukkan berapa banyak pelanggan yang merespons versus meneruskannya ke manusia.
Yang terpenting, Salesforce mengerahkan perwakilan pengembangan penjualan yang didukung AI untuk menindaklanjuti prospek yang sebelumnya belum pernah dihubungi karena kendala biaya. "Kini, Agentforce memiliki SDR yang melacak ribuan prospek," Tallaragada menjelaskan. Perusahaan juga meningkatkan jangkauan pelanggan proaktif sebesar 40% dengan mengalihkan karyawan dari dukungan reaktif.
Perusahaan tidak bisa mengabaikan masalah lapisan kepercayaan
Mengingat kekhawatiran perusahaan mengenai keandalan AI, Salesforce telah banyak berinvestasi pada apa yang disebutnya “kecerdasan buatan”. "Lapisan kepercayaan" — Jalur audit, pemeriksaan kepatuhan, dan alat pemantauan yang memungkinkan organisasi memantau perilaku agen dalam skala besar.
"Anda harus menganggap agen sebagai manusia. Tenaga kerja digital. Anda perlu mengelola kinerja seperti manusia. Dan Anda memerlukan jejak audit ini," Tallaragada menjelaskan.
Perusahaan menghadapi tantangan ini dengan memperluas jangkauan dealernya. "Saat kami memulai Agentforce di Salesforce, kami melacak setiap pesan, yang jumlahnya mencapai 1.000, 3.000," kata Tallabragada. "Sekali Anda melakukan sejuta percakapan, tidak ada lagi manusia, dan kita tidak dapat melakukannya."
Platform ini sekarang mencakup "Jaringan Agentforce" Untuk menelusuri jutaan percakapan guna mengidentifikasi dan memperbaiki pola masalah. Perusahaan juga memperkenalkan Agent Script, bahasa skrip baru yang memungkinkan pengembang menentukan batasan yang lebih jelas dan kontrol deterministik pada perilaku agen.
Infrastruktur data mengalami peningkatan besar
Kemampuan agen yang mendasarinya adalah investasi yang signifikan dalam infrastruktur. tenaga penjualan Data 360 Termasuk "konteks cerdas," Yang secara otomatis mengekstrak informasi terstruktur dari konten tidak terstruktur seperti file PDF, grafik, dan diagram alur menggunakan apa yang digambarkan perusahaan sebagai… "Saluran data tidak terstruktur yang didukung AI."
Perusahaan juga bekerja sama dengan Batu bata data, Laboratorium DBTDan Kepingan salju pada "pertukaran semantik global," Upaya untuk menstandardisasi cara berbagai platform mendefinisikan metrik bisnis. Akuisisi Informatica senilai $8 miliar yang tertunda diperkirakan akan segera selesai, memperluas kemampuan manajemen metadata di seluruh perusahaan.
Lanskap persaingan terus meningkat
Dorongan AI yang kuat dari Salesforce datang pada saat hampir setiap vendor perangkat lunak perusahaan besar menerapkan strategi serupa. Microsoft telah menyertakan Copilot di seluruh lini produknya, Google menawarkan kemampuan proxy melalui Vertex AI dan Gemini, dan ServiceNow telah meluncurkan penawaran proxy-nya sendiri.
Saat ditanya bagaimana perbandingan iklan Salesforce OpenAI versi terbaruTallabragada menekankan bahwa pelanggan akan menggunakan beberapa alat AI secara bersamaan. "Paling sering saya lihat mereka menggunakan OpenAI, mereka menggunakan Gemini, mereka menggunakan Anthropic, sama seperti Salesforce, kami menggunakan ketiganya," Dia berkata.
Para eksekutif mengatakan perbedaan nyata bukan pada model AI, tetapi pada integrasi dengan proses bisnis dan data. Harris menyusun kompetisi ini dalam istilah yang familiar dari pendirian Salesforce: "26 tahun yang lalu, kami baru saja mengatakan, mari jadikan otomatisasi Salesforce semudah membeli buku di Amazon.com. Kami melakukan hal yang sama. Kami ingin membuat AI agen semudah membeli buku di Amazon."
Kisah sukses pelanggan perusahaan ini sangat mengesankan, namun hanya sebagian kecil dari basis pelanggannya. Dengan 150.000 pelanggan Salesforce dan 1 juta pelanggan Slack, 12.000 penerapan Agentforce mewakili sekitar 8% penetrasi — cukup solid untuk lini produk berusia satu tahun, namun jarang ditemukan di mana-mana.
Saham perusahaan menurun Sekitar 28% sejak awal tahun bersama Peringkat kekuatan relatif hanya 15menunjukkan bahwa investor masih skeptis. Demo Dreamforce minggu ini — dan bulan-bulan penerapan pelanggan berikutnya — akan mulai memberikan jawaban tentang apakah Salesforce pada akhirnya dapat memindahkan AI perusahaan dari tahap uji coba ke produksi skala penuh, atau apakah "bisnis senilai $7 miliar" Ini masih lebih merupakan ambisi daripada kenyataan.
Berita
Menyederhanakan tumpukan AI: Kunci kecerdasan seluler yang dapat diskalakan dari cloud hingga edge

Dikirim oleh Arm
Tumpukan perangkat lunak yang lebih sederhana adalah kunci AI yang portabel dan dapat diskalakan di seluruh cloud dan edge.
AI kini mendukung aplikasi dunia nyata, namun terhambat oleh tumpukan perangkat lunak yang terfragmentasi. Pengembang secara rutin memfaktorkan ulang model yang sama untuk target perangkat keras yang berbeda, sehingga membuang-buang waktu untuk menempelkan kode alih-alih mengirimkan fitur. Kabar baiknya adalah peralihan ini sedang berlangsung. Toolchain terpadu dan pustaka yang dioptimalkan memungkinkan model diterapkan di seluruh platform tanpa mengurangi performa.
Namun, masih ada satu kendala penting: kompleksitas perangkat lunak. Alat yang berbeda, peningkatan perangkat keras, dan tumpukan teknologi yang berlapis terus menghambat kemajuan. Untuk meluncurkan gelombang inovasi AI berikutnya, industri harus secara tegas beralih dari pengembangan yang tertutup ke arah platform yang lebih sederhana dan komprehensif.
Transformasi ini sudah mulai terbentuk. Penyedia cloud terkemuka, vendor platform edge, dan komunitas open source berkumpul dalam toolchain terpadu yang menyederhanakan pengembangan dan mempercepat penerapan, dari cloud hingga edge. Dalam artikel ini, kita akan mengeksplorasi mengapa penyederhanaan adalah kunci AI yang terukur, apa yang mendorong momentum ini, dan bagaimana platform generasi berikutnya mengubah visi ini menjadi hasil nyata.
Hambatannya: fragmentasi, kompleksitas, dan inefisiensi
Masalahnya tidak hanya terbatas pada variasi perangkat; Ini adalah upaya duplikat di seluruh kerangka kerja dan tujuan yang memperlambat waktu untuk menilai.
Sasaran perangkat lain-lain: GPU, NPU, perangkat khusus CPU, SoC seluler, dan akselerator khusus.
Segmentasi alat dan bingkai: TensorFlow, PyTorch, ONNX, MediaPipe, dan lainnya.
Pembatasan tepi: Perangkat memerlukan kinerja hemat energi secara real-time dan dengan beban minimal.
menurut Penelitian GartnerNamun, ketidaksesuaian ini menimbulkan rintangan besar: lebih dari 60% inisiatif AI terhenti sebelum produksi, didorong oleh kompleksitas integrasi dan variabilitas kinerja.
Seperti apa penyederhanaan perangkat lunak?
Penyederhanaan mengelompokkan sekitar lima langkah yang mengurangi biaya dan risiko rekayasa ulang:
Lapisan abstraksi lintas platform Yang mengurangi rekayasa ulang saat mentransfer model.
Pustaka penyetelan kinerja Ini diintegrasikan ke dalam kerangka pembelajaran mesin utama.
Desain arsitektur terpadu Mulai dari pusat data hingga seluler.
Standar terbuka dan runtime (misalnya ONNX, MLIR) yang mengurangi penguncian dan meningkatkan kompatibilitas.
Ekosistem pengembang terlebih dahulu Dengan penekanan pada kecepatan, reproduktifitas, dan skalabilitas.
Pergeseran ini membuat AI lebih mudah diakses, terutama bagi startup dan tim akademis yang sebelumnya tidak memiliki sumber daya untuk optimasi kustom. Proyek seperti standar Optimum dan MLPerf Hugging Face juga membantu menstandardisasi dan memvalidasi kinerja di seluruh perangkat.
Momentum ekosistem dan sinyal dunia nyata Penyederhanaan bukan lagi sebuah aspirasi; Itu sedang terjadi sekarang. Di seluruh industri, pertimbangan perangkat lunak memengaruhi keputusan pada tingkat IP dan desain silikon, sehingga menghasilkan solusi siap produksi sejak hari pertama. Para pemain kunci dalam ekosistem mendorong transformasi ini dengan menyelaraskan upaya pengembangan perangkat keras dan perangkat lunak, sehingga memberikan integrasi yang lebih erat di seluruh grup.
Katalis utamanya adalah peningkatan pesat dalam inferensi di edge, di mana model AI diterapkan langsung di perangkat, bukan di cloud. Hal ini telah meningkatkan permintaan akan paket perangkat lunak sederhana yang mendukung optimalisasi end-to-end, mulai dari silikon, sistem, hingga aplikasi. Perusahaan seperti Arm meresponsnya dengan memungkinkan penggabungan yang lebih erat antara platform komputasi dan rangkaian alat perangkat lunak mereka, sehingga membantu pengembang mempercepat waktu penerapan tanpa mengorbankan kinerja atau portabilitas. Munculnya model yayasan multimodal dan tujuan umum (seperti LLaMA, Gemini, Claude) juga meningkatkan urgensinya. Model-model ini memerlukan runtime fleksibel yang dapat diskalakan di lingkungan cloud dan edge. Agen AI, yang berinteraksi, beradaptasi, dan melakukan tugas secara mandiri, meningkatkan kebutuhan akan perangkat lunak lintas platform yang sangat efisien.
MLPerf Inference versi 3.1 mencakup lebih dari 13.500 hasil kinerja dari 26 penyedia, memvalidasi benchmarking lintas platform untuk beban kerja AI. Hasilnya mencakup pusat data dan perangkat edge, menunjukkan keragaman penerapan optimal yang kini sedang diuji dan dibagikan.
Secara keseluruhan, sinyal-sinyal ini menunjukkan bahwa permintaan dan insentif pasar berkisar pada serangkaian prioritas yang sama, termasuk memaksimalkan kinerja per watt, memastikan portabilitas, meminimalkan latensi, dan memberikan keamanan dan konsistensi dalam skala besar.
Apa yang perlu dilakukan agar penyederhanaan berhasil
Untuk mewujudkan potensi platform AI yang disederhanakan, beberapa hal harus dilakukan:
Desain bersama perangkat keras/perangkat lunak yang kuat: Fitur perangkat keras yang diekspos dalam kerangka perangkat lunak (misalnya, pengali matriks dan instruksi akselerator) dan, sebaliknya, perangkat lunak yang dirancang untuk memanfaatkan perangkat keras yang mendasarinya.
Toolchain dan perpustakaan yang konsisten dan kuat: Pengembang memerlukan perpustakaan yang andal dan terdokumentasi dengan baik yang berfungsi di seluruh perangkat. Portabilitas kinerja hanya berguna jika alatnya stabil dan didukung dengan baik.
Ekosistem terbuka: Vendor perangkat keras, pengelola kerangka perangkat lunak, dan pengembang model harus berkolaborasi. Standar dan proyek umum membantu menghindari penemuan kembali roda untuk setiap perangkat atau kasus penggunaan baru.
Abstraksi yang tidak mengaburkan kinerja: Meskipun abstraksi tingkat tinggi membantu pengembang, mereka tetap harus memungkinkan penyesuaian atau visibilitas bila diperlukan. Keseimbangan yang tepat antara abstraksi dan kontrol adalah kuncinya.
Keamanan, privasi, dan kepercayaan tertanam di dalamnya: Terutama karena semakin banyak komputasi yang beralih ke perangkat (edge/mobile), isu-isu seperti perlindungan data, eksekusi yang aman, keamanan model, dan privasi menjadi penting.
ARM sebagai contoh penyederhanaan yang didorong oleh ekosistem
Penyederhanaan AI dalam skala besar kini bergantung pada desain tingkat sistem, di mana silikon, perangkat lunak, dan alat pengembang berkembang secara bersamaan. Pendekatan ini memungkinkan beban kerja AI berjalan secara efisien di berbagai lingkungan, mulai dari kluster inferensi cloud hingga perangkat edge dengan baterai terbatas. Hal ini juga mengurangi biaya pengoptimalan kustom, sehingga lebih mudah menghadirkan produk baru ke pasar dengan lebih cepat. Arm (Nasdaq:Arm) memajukan model ini dengan berfokus pada platform yang mendorong peningkatan perangkat lunak dan perangkat keras melalui tumpukan perangkat lunak. di dalam Komputasi 2025Arm menjelaskan bagaimana CPU Arm9 terbaru, bersama dengan ekstensi AI ISA dan perpustakaan Kleidi, memungkinkan integrasi yang lebih erat dengan kerangka kerja yang banyak digunakan seperti PyTorch, ExecuTorch, ONNX Runtime, dan MediaPipe. Penyelarasan ini mengurangi kebutuhan akan kernel khusus atau driver yang disetel secara manual, sehingga memungkinkan pengembang untuk meningkatkan kinerja perangkat keras tanpa meninggalkan rantai alat yang sudah dikenal.
Implikasinya pada dunia nyata sangatlah signifikan. Di pusat data, platform berbasis Arm memberikan peningkatan kinerja per watt, yang sangat penting untuk menskalakan beban kerja AI secara berkelanjutan. Pada perangkat konsumen, peningkatan ini memungkinkan pengalaman pengguna yang sangat responsif dan kecerdasan latar belakang yang selalu aktif namun hemat daya.
Secara lebih luas, industri ini mengandalkan penyederhanaan sebagai keharusan desain, mengintegrasikan dukungan AI langsung ke dalam peta jalan perangkat keras, meningkatkan portabilitas perangkat lunak, dan menstandardisasi dukungan untuk runtime AI umum. Pendekatan Arm menunjukkan bagaimana integrasi mendalam di seluruh tumpukan komputasi dapat menjadikan AI yang dapat diskalakan menjadi kenyataan praktis.
Validasi pasar dan momentum
Pada tahun 2025, Hampir setengah dari komputasi yang dikirimkan ke hyperscaler teratas akan berjalan pada arsitektur berbasis Armsebuah tonggak sejarah yang menegaskan transformasi besar dalam infrastruktur cloud. Ketika beban kerja AI menjadi lebih intensif sumber daya, penyedia cloud memprioritaskan arsitektur yang memberikan kinerja per watt yang unggul dan mendukung portabilitas perangkat lunak yang lancar. Perkembangan ini mewakili poros strategis menuju infrastruktur hemat energi dan terukur yang dioptimalkan untuk kinerja dan kebutuhan AI modern.
Pada bagian edge, mesin inferensi yang kompatibel dengan Arm memungkinkan pengalaman real-time, seperti terjemahan langsung dan asisten suara yang selalu aktif, pada perangkat bertenaga baterai. Kemajuan ini menghadirkan kemampuan AI yang kuat secara langsung kepada pengguna, tanpa mengorbankan efisiensi energi.
Momentum pengembang juga semakin cepat. Dalam kolaborasi baru-baru ini, GitHub dan Arm menyediakan driver asli untuk Arm Linux dan Windows untuk GitHub Actions, sehingga menyederhanakan alur kerja CI untuk platform berbasis Arm. Alat-alat ini menurunkan hambatan masuk bagi pengembang dan memungkinkan pengembangan lintas platform yang lebih efisien dalam skala besar.
Apa yang terjadi selanjutnya?
Menyederhanakan tidak berarti menghilangkan kompleksitas sepenuhnya; Artinya mengelolanya dengan cara yang memungkinkan inovasi. Saat tumpukan AI menjadi stabil, pemenangnya adalah mereka yang memberikan kinerja mulus di lanskap yang terfragmentasi.
Dari perspektif masa depan, harapkan:
Standar sebagai pagar pembatas: Kombinasi MLPerf + OSS memandu Anda untuk melakukan peningkatan selanjutnya.
Lebih ke hulu, lebih sedikit percabangan: Fitur perangkat keras ada di alat utama, bukan di cabang khusus.
Konvergensi penelitian dan produksi: Pengiriman lebih cepat dari kertas ke produk melalui waktu proses bersama.
kesimpulan
Fase AI selanjutnya bukanlah tentang perangkat eksotik; Ini juga tentang perangkat lunak yang bertransisi dengan baik. Ketika model yang sama menjangkau cloud, klien, dan edge secara efisien, tim melakukan pengiriman lebih cepat dan menghabiskan lebih sedikit waktu untuk membangun kembali tumpukan.
Penyederhanaan ekosistem secara keseluruhan, bukan logo yang dipimpin oleh merek, yang akan memisahkan para pemenang. Aturan praktis permainannya jelas: standarisasi platform, peningkatan hulu, dan pengukuran menggunakan standar terbuka. Pelajari cara kerja platform perangkat lunak Arm AI Kami mewujudkan masa depan ini – secara efisien, aman, dan dalam skala besar.
Artikel bersponsor adalah konten yang diproduksi oleh perusahaan yang membayar postingan tersebut atau memiliki hubungan kerja dengan VentureBeat, dan selalu diberi label dengan jelas. Untuk informasi lebih lanjut, hubungi penjualan@venturebeat.com.
Berita
Analisis tersebut menemukan adanya penurunan tajam dalam jumlah generasi muda yang mengidentifikasi diri sebagai transgender dan non-biner

baruAnda sekarang dapat mendengarkan artikel Fox News!
Semakin banyak data yang mendukung penurunan tajam jumlah orang dewasa muda yang mengidentifikasi diri mereka sebagai transgender atau non-biner.
Pekan lalu, Fox News Digital melaporkan data yang dibagikan oleh Eric Kaufman, seorang profesor politik di Universitas Buckingham, yang menunjukkan bahwa persentase mahasiswa yang mengidentifikasi diri selain laki-laki atau perempuan telah berkurang setengahnya hanya dalam dua tahun.
Kini, Jan Twenge, seorang profesor psikologi di San Diego State University, telah mengidentifikasi data tambahan yang tampaknya mengkonfirmasi temuan tersebut secara lebih luas.
Sebuah analisis baru menemukan bahwa “tren” transgender menurun tajam di kampus-kampus Amerika
Pertama, Twenge menganalisis data dari Survei Nadi Rumah Tangga yang representatif secara nasional, yang menanyakan masyarakat secara langsung tentang identifikasi mereka sebagai transgender, ia melaporkan dalam sebuah artikel untuk majalah tersebut. Teknologi generasi.
“Data Pulsa Rumah Tangga menunjukkan penurunan ID untuk kelompok usia 18 hingga 22 tahun pada tahun 2024, namun saya berhati-hati dalam menarik kesimpulan dari data tersebut, karena penurunan tersebut hanya terjadi dalam jangka waktu terbatas (Juli hingga September 2024) — dan dua dari tiga lembaga survei menambahkan opsi identifikasi non-biner yang belum pernah ada sebelumnya,” tulisnya. “Mungkin inilah alasan mengapa definisi transgender ditolak.”
Semakin banyak data yang mendukung penurunan tajam jumlah orang dewasa muda yang mengidentifikasi diri mereka sebagai transgender atau non-biner. (I stok)
Selanjutnya, profesor tersebut – yang juga penulis Generations: The Real Differences Between Generation Z, Millennials, Generation X, Boomers, and Silents – mengamati survei lain yang representatif secara nasional.
Collaborative Election Study (CES), sebuah survei non-probabilitas yang dikirimkan setiap tahun pada musim gugur oleh YouGov dan dikelola oleh Universitas Tufts, menanyakan tentang identifikasi transgender di antara semua orang dewasa di Amerika Serikat dari tahun 2021 hingga 2024. Survei ini juga mencakup pertanyaan terpisah tentang identifikasi sebagai non-biner.
Studi: Operasi sementara meningkatkan risiko kondisi kesehatan mental dan pikiran untuk bunuh diri
Pada tahun 2021, 2022, dan 2024, CES bertanya: “Apakah Anda mengidentifikasi diri Anda sebagai transgender?” Pilihannya adalah “ya”, “tidak”, dan “Saya memilih untuk tidak mengatakannya”.
Tanggapan “Saya lebih suka tidak mengatakan” dianggap sebagai data yang hilang, Twenge berbagi dengan Fox News Digital.
Mulai tahun 2021, pertanyaan jenis kelamin/gender di CES: “Apa gender Anda?” Dengan pilihan “Pria”, “Wanita”, “Non-biner” dan “Lainnya”.

Mulai tahun 2021, pertanyaan jenis kelamin/gender di CES: “Apa gender Anda?” Dengan pilihan “Pria”, “Wanita”, “Non-biner” dan “Lainnya”. (Koleksi Smith/Gado/Getty Images)
Di antara kelompok usia 18 hingga 22 tahun, identifikasi trans turun hampir setengahnya pada tahun 2022 hingga 2024 — dan identifikasi non-biner turun lebih dari setengahnya antara tahun 2023 dan 2024.
“Ketika saya mengamati orang dewasa dari segala usia dalam survei… Saya menemukan peningkatan yang signifikan dalam identifikasi transgender dari mereka yang lahir sebelum tahun 1980 (Generasi
“Identifikasi transgender kemudian menurun, terutama bagi mereka yang lahir pada tahun 2005 dan 2006 (yang kini berusia antara 18 dan 20 tahun).”
“Saya pikir pertanyaannya sekarang bukanlah apakah jumlah transgender mengalami penurunan, tapi sejauh mana.”
Ada beberapa teori mengapa hal ini terjadi.
“Salah satu kemungkinannya adalah adanya perubahan dalam penerimaan; seiring dengan meningkatnya penerimaan, semakin banyak remaja yang diidentifikasi sebagai transgender dan/atau bersedia untuk mengidentifikasi sebagai transgender dalam survei tersebut,” kata Twenge. “Ketika penerimaan terhadap transgender menurun, identifikasi transgender (atau setidaknya identifikasi transgender dalam survei) menurun.”

Di antara kelompok usia 18 hingga 22 tahun, identifikasi trans turun hampir setengahnya pada tahun 2022 hingga 2024 — dan identifikasi non-biner turun lebih dari setengahnya antara tahun 2023 dan 2024. (I stok)
Dalam analisis sebelumnya yang melihat data dari survei lain, Twenge menemukan bahwa peningkatan identifikasi transgender antara tahun 2014 dan 2023 tidak mencakup orang yang berusia di atas 45 tahun (Generasi X dan Baby Boomers).
“Hal ini membuat kecil kemungkinan bahwa perubahan tersebut disebabkan oleh penerimaan, yang seharusnya mempengaruhi orang-orang dari segala usia,” katanya. “Namun, ada kemungkinan penerimaan meningkat lebih lanjut di kalangan generasi muda antara tahun 2014 dan 2023 dan kemudian semakin menurun pada tahun 2024.”
Twenge menegaskan, mengidentifikasi sebagai transgender dan mengidentifikasi sebagai non-biner adalah dua hal yang berbeda.
KLIK DI SINI UNTUK MENDAPATKAN APLIKASI FOX NEWS
“Salah satu alasan saya melakukan analisis ini adalah karena survei yang digunakan Profesor Kaufman tidak menanyakan tentang identifikasi diri sebagai transgender – survei tersebut menanyakan tentang identifikasi diri sebagai non-biner atau apa pun selain laki-laki atau perempuan,” katanya. “Saya ingin melihat apakah ada penurunan identifikasi transgender.”
“Saya juga berpendapat penting untuk melihat sampel yang mewakili secara nasional dan bukan hanya siswa dari sekolah elit,” tambahnya.

Seorang pakar kesehatan mental mengatakan, ”Setelah seseorang merasa lebih nyaman dengan identitasnya, mereka tidak lagi perlu mendefinisikan diri secara ketat.” (Istock)
Kaufman memuji laporan baru Twenge sebagai “yang terbaik di bidangnya.”
“Senang sekali melihat para peneliti dari generasi akademis mainstream bisa mengejar ketinggalan,” katanya kepada Fox News Digital. “Datanya sangat memperkuat apa yang saya temukan dengan menggunakan data FIRE, Brown, dan Andover Phillips.”
Klik di sini untuk berlangganan buletin kesehatan kami
“Saya pikir pertanyaannya sekarang bukan itu jika Dia menambahkan: “Jumlah transgender mengalami penurunan, namun seberapa jauh jumlah mereka akan menurun – dan apa dampaknya terhadap proyek progresif budaya, serta tren dalam pembedahan dan diagnosis interseks.”
“Mungkin generasi muda akan menyadari bahwa mereka tidak perlu mengumumkan atau melabeli segala sesuatu tentang diri mereka untuk menjadi baik.”
Jonathan Alpert, seorang psikoterapis di New York City, mengatakan perubahan ini kemungkinan besar merupakan “koreksi alami”.
“Untuk sementara waktu, kami mengajari generasi muda untuk menafsirkan secara berlebihan setiap perasaan. Budaya pengobatan mengatakan kepada mereka bahwa setiap ketidaknyamanan memerlukan label atau diagnosis,” Alpert, yang tidak ikut serta dalam survei tersebut, sebelumnya mengatakan kepada Fox News Digital. “Bagi sebagian orang, label ini telah menjadi ‘non-biner’ – tidak mengidentifikasi gender.”
Alih-alih menyangkal identitas mereka, Albert berkata: Anak muda Dia mungkin hanya bosan merasa tertekan untuk mengidentifikasi setiap emosi atau perbedaan dengan identitas baru.
Uji diri Anda dengan kuis gaya hidup terbaru kami
“Jadi, pada dasarnya, kinerjalah yang melambat – setidaknya seperti yang ditunjukkan oleh penelitian ini,” katanya. “Beberapa tahun yang lalu, identitas diperlakukan hampir seperti lencana sosial. Sekarang, mungkin kaum muda menyadari bahwa mereka tidak perlu mengiklankan atau memberi label segala sesuatu tentang diri mereka agar menjadi valid.”
Albert mengatakan dia melihat pola yang sama dalam dirinya Praktek terapi.
Klik di sini untuk cerita kesehatan lainnya
“Saat orang merasa lebih nyaman dengan identitas mereka, mereka tidak lagi perlu mendefinisikan diri mereka secara kaku. Bagi saya, ini adalah tanda tumbuhnya rasa percaya diri, bukan fanatisme.”
Fox News Digital telah menghubungi Universitas Tufts dan Biro Sensus AS untuk meminta komentar.
Berita
Teknologi baru “Pemikiran Markovian” membuka jalan menuju pemikiran AI dengan jutaan simbol

Para peneliti di Mila telah mengusulkan teknik baru yang membuat model linguistik besar (LLM) jauh lebih efisien ketika melakukan inferensi kompleks. Bernama pemikiran Markovian,Pendekatan ini memungkinkan LLM untuk terlibat dalam penalaran yang berkepanjangan tanpa menimbulkan biaya komputasi yang mahal yang saat ini membatasi tugas-tugas tersebut.
Implementasi tim, sebuah lingkungan yang disebut Delethink, membangun rantai inferensi menjadi potongan-potongan berukuran tetap, memecahkan masalah penskalaan yang mengganggu respons LLM yang sangat panjang. Perkiraan awal menunjukkan bahwa untuk model parameter 1,5 miliar, metode ini dapat mengurangi biaya pelatihan lebih dari dua pertiga dibandingkan pendekatan standar.
Kutukan kuadrat dari inferensi string panjang
Agar LLM dapat memecahkan masalah yang kompleks, Anda sering kali perlu membuat rantai panjang token “berpikir” perantara, yang sering disebut sebagai rantai penalaran (CoT). Dalam beberapa tahun terakhir, para peneliti telah menemukan bahwa penggunaan… Pembelajaran penguatan (RL) untuk melatih model guna menghasilkan CoT yang lebih panjang (terkadang disebut sebagai LongCoT) yang sangat meningkatkan kemampuan penalaran mereka.
Namun, cara standar untuk melakukan hal ini memiliki kelemahan serius: kecerdasan buatan "negara" (Vektor ditambah semua kode logika yang dihasilkan sejauh ini dalam pemrosesannya) bertambah seiring dengan setiap kode logika baru. Untuk berbicara Model berbasis transformatorArtinya, biaya komputasi akan melonjak secara kuadrat seiring bertambahnya panjang rantai penalaran, sehingga menjadi sangat mahal untuk melatih model pada tugas-tugas yang sangat kompleks.
Sebagian besar upaya saat ini untuk mengelola biaya ini berfokus pada membatasi jumlah pemikiran yang dilakukan model, yang secara implisit lebih memilih solusi yang lebih singkat atau mengakhiri proses lebih awal. Meskipun metode ini memberikan sedikit bantuan, para peneliti MILAA masih bekerja dalam kerangka LongCoT dan oleh karena itu pada dasarnya berkomitmen pada sifat kuadratnya.
Daripada mencoba mengendalikan pertumbuhan aritmatika, Mila menciptakan lingkungan RL yang menghindari masalah kuadrat sama sekali. Seperti yang dijelaskan oleh rekan penulis Amir Hossein Kazeminejad, tujuannya adalah untuk mengaktifkan kemampuan seperti berpikir multi-minggu dan penemuan ilmiah. "Sistem ini (dan RL yang diperlukan untuk mengaktifkan kemampuan tersebut) tidak didukung oleh model LongCoT saat ini, karena biaya komputasi kuadrat," Dia berkata.
Pikirkan sebagian dengan Delethink
Solusi yang ditemukan para peneliti adalah model yang mereka sebut "pemikir Markovian" Model ini beralasan sambil menjaga ukuran jendela konteks inferensinya tetap konstan. Ide dasarnya adalah mengubah pengaturan RL kelas "Berapa lama model berpikir?" dari "Jumlah konteks yang perlu diproses." Jika dilakukan dengan benar, pemikir Markovian akan mengubah masalah pertumbuhan kuadrat menjadi komputasi linier dan kebutuhan memori konstan untuk inferensi LLM.
Para peneliti mempraktikkan model ini melalui Delethink, yang memaksa model untuk mempertimbangkan serangkaian potongan berukuran tetap, seperti 8,000 token sekaligus. Dalam setiap bagian, model membuat kesimpulan seperti biasanya, menggunakan mekanisme perhatian klasik. Namun ketika mencapai potongan maksimum, lingkungan akan mengatur ulang konteksnya, membuat prompt baru yang menyertakan kueri asli ditambah permintaan singkat "meneruskan" Dari bagian sebelumnya. Misalnya, relai dapat berupa beberapa kode terakhir dari bagian CoT sebelumnya atau ringkasan hasil yang paling penting.
Penataan ulang masalah ini memaksa model untuk belajar bagaimana memasukkan ringkasan kemajuannya, atau "keadaan Markovian tekstual," Pada tahap ini terus memikirkan bagian selanjutnya. Hal ini mengatasi kekhawatiran umum mengenai apakah model dapat mengingat detail penting dari langkah sebelumnya.
Menurut Kazemnejad, model mempelajari apa yang harus diingatnya. "Dengan pelatihan…model dipaksa untuk belajar bagaimana melanjutkan dalam situasi kritis," Dia menjelaskan. Dia menambahkan klarifikasi penting untuk penggunaan praktis: vektor masukan asli, termasuk dokumen atau data kontekstual yang ditambahkan ke dalamnya, tidak diubah. “Pendekatan kami menargetkan fase inferensi dan tidak mengubah vektor." Dia berkata.
Hapus pemikiran tentang pekerjaan
Untuk menguji pendekatan mereka, para peneliti melatih R1-Distill-1.5B dengan Delethink pada kumpulan data soal matematika tingkat kompetisi, kemudian mengevaluasinya berdasarkan beberapa tolok ukur. Model ini dilatih untuk mempertimbangkan hingga 24.000 token tetapi dengan batas tetap sebesar 8.000 token.
Peneliti Bandingkan ini dengan model yang dilatih menggunakan metode LongCoT-RL standar. Temuan mereka menunjukkan bahwa model yang dilatih dengan Delethink dapat menganalisis hingga 24,000 token, menyamai atau melampaui model LongCoT yang dilatih dengan anggaran yang sama yaitu 24,000 token berdasarkan standar matematika. Dalam tugas lain seperti pertanyaan tingkat pemrograman dan PhD, Delethink juga menyamai atau sedikit mengalahkan LongCoT. “Secara keseluruhan, hasil ini menunjukkan bahwa Delethink menggunakan kode penalarannya seefektif LongCoT-RL dengan pengurangan komputasi,” tulis para peneliti.
Manfaatnya menjadi lebih nyata ketika anggaran pelatihan diperluas. Meskipun model yang dilatih dengan LongCoT dengan cepat mencapai batas pelatihannya, model yang dilatih dengan Delethink terus meningkatkan performanya. Misalnya, beberapa masalah matematika tidak dapat diselesaikan hingga model tersebut menguraikan hingga 140.000 simbol, jauh melebihi anggaran pelatihan sebesar 24.000 simbol. Fitur komputasi linier ini sangat bagus untuk aplikasi perusahaan. Para peneliti memperkirakan bahwa melatih model dengan panjang pemikiran rata-rata 96.000 simbol akan memerlukan 27 bulan H100-GPU dengan LongCoT, dibandingkan hanya 7 bulan dengan Delethink.
Efisiensi ini meluas langsung ke inferensi, yang merupakan biaya operasional utama bagi sebagian besar organisasi. "Model yang dilatih dengan penalaran Markovian menggunakan heuristik yang sama (hapus pelacakan) selama waktu pengujian, yang memberikan manfaat yang sama dari aritmatika linier dan memori persisten setelah pelatihan." kata Kazemnejad. Dia memberikan contoh praktis: agen AI bisa melakukan hal itu "Debug basis kode yang besar dan pikirkan untuk waktu yang lama…yang tentu saja mengurangi biaya secara signifikan dibandingkan dengan pendekatan LongCoT tradisional."
Menariknya, para peneliti menemukan bahwa model inferensi yang sudah jadi, bahkan tanpa pelatihan khusus apa pun, memang menunjukkan kemampuan bernalar dengan cara Markovian. Temuan ini mempunyai implikasi praktis langsung bagi pengembang. "Dalam praktiknya, ini berarti – tanpa Delethink-RL – model ini benar-benar dapat menjalankan lingkup pelacakan delethink dan bekerja secara kompetitif dengan LongCoT pada tugas benchmark kami," kata Kazemnejad.
Pengalaman mereka dengan model yang lebih besar seperti GPT-OSS 120B Tunjukkan kinerja yang kuat dengan Delethink di berbagai tugas kompleks. Kemampuan bawaan ini memberikan titik awal yang kuat untuk pelatihan RL, yang membantu menjelaskan mengapa metode ini sangat efektif. “Secara keseluruhan, hasil ini menunjukkan bahwa Delethink kompatibel dan konsisten dengan model tercanggih,” para peneliti menyimpulkan.
Keberhasilan pemikiran Markovian menunjukkan bahwa hal ini mungkin dilakukan "Model berpikir generasi penerus untuk berpikir dalam jutaan simbol," Catatan peneliti. Hal ini membuka pintu bagi kemampuan AI yang secara fundamental baru, melampaui keterbatasan yang ada saat ini.
"Pemikiran Markovian…membuka jalan bagi model-model yang dapat “berpikir” dalam jangka waktu yang sangat panjang, yang kami anggap sebagai langkah penting menuju penemuan ilmiah pada akhirnya," kata Kazemnejad. "Pendekatan kami menghilangkan hambatan besar dan memungkinkan pelatihan untuk misi jangka panjang, sehingga memungkinkan kemampuan generasi berikutnya."
- Berita8 tahun ago
These ’90s fashion trends are making a comeback in 2017
- Berita8 tahun ago
The final 6 ‘Game of Thrones’ episodes might feel like a full season
- Berita8 tahun ago
According to Dior Couture, this taboo fashion accessory is back
- Berita8 tahun ago
Uber and Lyft are finally available in all of New York State
- Berita8 tahun ago
The old and New Edition cast comes together to perform
- Berita8 tahun ago
Phillies’ Aaron Altherr makes mind-boggling barehanded play
- Bisnis8 bulan ago
Meta Sensoren Disensi Internal atas Ban Trump Mark Zuckerberg
- Berita8 tahun ago
New Season 8 Walking Dead trailer flashes forward in time