Connect with us

Berita

LLMS dilahirkan “omong kosong fasih” saat berpikir di luar area pelatihan mereka

Published

on

Ingin lebih banyak visi yang cerdas dari kotak masuk Anda? Berlangganan buletin mingguan kami untuk mendapatkan apa yang hanya terkait dengan lembaga AI, data dan pemimpin keamanan. Berlangganan sekarang


A Studi baru dari Arizona State University Para peneliti menyarankan bahwa logika “COT” yang terkenal dalam model LLMS mungkin lebih dari sekadar “fatamorgana rapuh” dari kecerdasan nyata. Penelitian ini tergantung pada peningkatan serangkaian pekerjaan yang meragukan kedalaman pemikiran tentang LLM, tetapi membutuhkan lensa “distribusi” yang unik untuk menguji di mana dan mengapa sistem COT secara sistematis.

Sangat penting untuk aplikasi, makalah ini melebihi kritik untuk memberikan pedoman praktis yang jelas tentang cara menghitung pembatasan ini ketika mengembangkan aplikasi LLM, dari strategi pengujian hingga peran kontrol.

Janji dan masalah rangkaian ide

COT Preponing, yang menanyakan llm “langkah langkah”, menunjukkan hasil yang bagus dalam tugas -tugas kompleks, yang mengarah ke visi bahwa model terlibat dalam kesimpulan seperti manusia. Namun, inspeksi yang cermat sering mengungkapkan kontradiksi logis yang menantang pandangan ini.

Berbagai penelitian menunjukkan bahwa LLM berulang kali bergantung pada konotasi dan petunjuk di tingkat permukaan alih -alih prosedur logis. Model menghasilkan logika yang masuk akal dengan mengulangi pola simbol khas yang mereka lihat selama pelatihan. Namun, pendekatan ini sering gagal dalam tugas yang menyimpang dari templat yang sudah dikenal atau ketika memberikan informasi yang tidak terkait.


Kecerdasan buatan membatasi batasnya

Tutup daya, biaya tinggi simbol, dan keterlambatan inferensi dibentuk kembali. Bergabunglah dengan salon eksklusif kami untuk menemukan bagaimana perbedaan besar:

  • Mengubah energi menjadi keuntungan strategis
  • Mengajar penalaran yang efektif untuk keuntungan produktivitas nyata
  • Membuka Pengembalian Investasi Kompetitif dengan Sistem Kecerdasan Buatan Berkelanjutan

Mengamankan tempat Anda untuk tinggal di latar depan: https://bit.ly/4mwngngo


Terlepas dari pengamatan ini, para peneliti berpendapat dalam penelitian baru bahwa “pemahaman sistematis tentang penyebab dan ketika COT gagal masih menjadi misteri”, yang studinya bertujuan untuk diatasi. Pekerjaan sebelumnya telah menunjukkan bahwa LLMS berjuang untuk menggeneralisasi kemampuan logisnya. Makalah ini juga mencatat, “Panduan teoretis dan eksperimental menunjukkan bahwa COT hanya bergantung pada ketika input tes berbagi struktur yang mendasarinya dengan data pelatihan; jika tidak, kinerjanya menurun tajam.”

Lensa baru pada logika LLM

Peneliti ASU menyarankan lensa baru untuk menampilkan masalah ini: COT tidak benar -benar berpikir tetapi bentuk canggih dari pola pencocokan, terutama diwajibkan untuk pola statistik dalam data pelatihan mereka. Mereka berasumsi bahwa “keberhasilan COT berasal dari kapasitas berpikir yang melekat dalam model, tetapi dari kemampuannya untuk menggeneralisasi itu bersyarat pada kasus -kasus tes eksternal (OOD) yang menyerupai model standar struktural dalam distribusi.” Dengan kata lain, LLM baik dalam menerapkan gaya lama pada data baru yang terlihat serupa, tetapi tidak untuk memecahkan masalah baru.

Sumber Lensa Distribusi Data: Jaytap

Untuk menguji hipotesis ini, mereka membedah kemampuan COT di tiga dimensi “transformasi distribusi” (perubahan antara data pelatihan dan data uji). Pertama, menguji “generalisasi tugas” untuk melihat apakah model dapat menerapkan proses berpikir yang dipelajari untuk jenis tugas baru. Kedua, mereka memeriksa “generalisasi panjang” untuk menentukan apakah dia bisa berurusan dengan rantai berpikir yang lebih panjang atau lebih pendek dari yang dilatih. Akhirnya, mereka mengevaluasi “sirkular koordinasi” untuk mengukur tingkat sensitivitas model terhadap perubahan sederhana dalam formulasi atau struktur klaim.

Untuk analisis mereka, mereka mengembangkan kerangka kerja yang disebut DataAlchemy Untuk pelatihan LLMS yang lebih kecil dari titik nol di lingkungan yang diatur, memungkinkan mereka untuk secara akurat mengukur bagaimana cara merugikan kinerja saat mengklik data pelatihan.

“Lensa mendistribusikan data dan lingkungan yang dikendalikan oleh semua orang yang kami coba transfer,” Qinjui Zhao, seorang PhD di Arizona State University dan rekan penulis surat kabar itu, mengatakan kepada VentureBeat. “Kami berharap dapat menciptakan ruang sebagai penonton, peneliti, dan pengembang dapat mengeksplorasi dan mencari secara bebas sifat LLM dan kemajuan dalam batas pengetahuan manusia.”

Mirage dikonfirmasi

Berdasarkan hasil yang mereka capai, para peneliti menyimpulkan bahwa berpikir tentang COT adalah “bentuk canggih dari pola pencocokan, terutama dibatasi oleh distribusi data yang terlihat selama pelatihan.” Ketika diuji bahkan di luar distribusi ini sedikit, kinerja runtuh. Apa yang tampaknya lebih terorganisir lebih dari sekadar fatamorgana, “keluar dari pola yang diawetkan atau terdistorsi dalam data pelatihan daripada inferensi logis.”

Runtuhnya konsisten dengan tiga dimensi. Dalam tugas -tugas baru, model gagal beredar dan malah mengulangi pola terdekat yang mereka lihat selama pelatihan. Ketika menghadapi rantai berpikir dengan panjang yang berbeda, mereka berjuang, dan mereka sering mencoba menambah atau menghapus langkah -langkah secara artifisial agar sesuai dengan panjang contoh pelatihan mereka. Akhirnya, kinerja mereka telah terbukti sangat sensitif terhadap perubahan permukaan dalam klaim, terutama perbedaan dalam elemen dan instruksi dasar.

Menariknya, para peneliti menemukan bahwa kegagalan ini dapat diperbaiki dengan cepat. Dengan menyesuaikan model pada sampel yang sangat kecil dari data baru yang tidak terlihat melalui instalasi SFT (SFT), kinerja jenis masalah yang ditentukan ini dengan cepat meningkat. Namun, reformasi yang cepat ini mendukung lebih banyak teori pencocokan pola, menunjukkan bahwa model tidak belajar untuk berpikir lebih abstrak, tetapi sebaliknya ia mempertahankan pola baru untuk mengatasi kelemahan tertentu.

Makanan cepat saji untuk institusi

Para peneliti memberikan peringatan langsung kepada para praktisi, dengan sorotan “risiko mengandalkan COT sebagai solusi koneksi dan pengoperasian tugas pemikiran dan kehati -hatian terhadap kesetaraan output yang mirip dengan COT dengan pemikiran manusia.” Ini memberikan tiga tips utama bagi pengembang untuk membangun aplikasi dengan LLMS.

1)Waspadalah terhadap ketergantungan yang berlebihan dan kepercayaan yang salah. COT tidak boleh ditangani sebagai unit yang dapat diandalkan untuk memikirkan bidang risiko tinggi seperti pembiayaan atau analisis hukum. LLMS dapat menghasilkan “omong kosong fasih” (masuk akal tetapi masuk akal) lebih menipu daripada jawaban yang benar -benar salah. Para penulis menekankan bahwa “pengawasan yang cukup dari para ahli lapangan sangat diperlukan.”

“Kemajuan sains harus tetap menjadi poros manusia-mesin dapat membantu, tetapi penemuan itu masih mengancam kemanusiaan dan keingintahuan,” kata Zhao.

2) pReoard The Output Test (OOD). Verifikasi kesehatan standar tidak cukup, karena data pelatihan mencerminkan data uji, daya tahan nyata. Pengembang harus melakukan tes ketat yang secara sistematis mendapat manfaat dari kegagalan melalui perbedaan dalam tugas, panjang dan koordinasi.

3)Pelajari tentang AC sebagai koreksi, bukan obat. Sementara kontrol SFT dapat “memperbaiki” kinerja model dengan cepat ke distribusi data spesifik baru, itu tidak membuat sirkuler nyata. Ini hanya sedikit memperluas “gelembung distribusi” dari model. Ketergantungan pada SFT untuk mereformasi setiap kegagalan OOS adalah strategi tak terbatas yang gagal mengatasi kurangnya model dasar untuk berpikir abstrak.

Meskipun COT bukanlah bentuk persepsi manusia, pembatasan ini dapat dikelola. Sebagian besar aplikasi lembaga mencakup serangkaian tugas yang relatif sempit dan dapat diprediksi. Hasil makalah ini memberikan rencana untuk memastikan keandalan di dalam area ini. Pengembang dapat membangun suite evaluasi ketat yang secara sistematis menguji kinerja model untuk tugas, panjang dan koordinasi spesifik yang akan dihadapi aplikasi mereka. Ini memungkinkan mereka untuk mengatur batas -batas area kenyamanan “internal” dari model dan menentukan tempat di mana mereka sesuai dengan kebutuhan spesifik mereka.

Tes target ini mengubah proses kontrolnya dari “koreksi” interaktif menjadi strategi proaktif untuk penyelarasan. Ketika penilaian mengungkapkan spesifik dua kali, pengembang dapat membuat set data SFT target kecil untuk memprosesnya. Alih -alih mencoba mencapai pemikiran umum yang meluas, pendekatan SFT ini digunakan secara pembedahan untuk memastikan kompatibilitas kemampuan model secara akurat dengan fitur misi lembaga tertentu. Pada akhirnya, penelitian ini menyediakan lensa praktis untuk mengatasi aplikasi LLM dan rekayasa untuk mencapai kesuksesan yang diharapkan.


Tautan sumber
Continue Reading
Click to comment

Leave a Reply

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Berita

Platform pengkodean getaran, Cursor, meluncurkan komposer LLM internal pertamanya, Komposer, yang menjanjikan peningkatan kecepatan 4X lipat

Published

on

Alat kripto yang menarik, indikatornya, telah ada sejak awal dimana sajadia punya Komposer memperkenalkanModel Bahasa Markup Besar (LLM) pertama yang dibuat sendiri sebagai bagian dari programnya Pembaruan platform indeks 2.0.

Komposer dirancang untuk menjalankan tugas pemrograman dengan cepat dan akurat di lingkungan produksi, mewakili langkah baru dalam pemrograman berbantuan AI. Ini sudah digunakan oleh tim teknik Cursor dalam pengembangan sehari-hari – menunjukkan kematangan dan stabilitas.

Berdasarkan indikatornya, komposer menyelesaikan interaksi terbanyak Kurang dari 30 detik Sambil mempertahankan kemampuan tingkat tinggi untuk bernalar di seluruh basis kode yang besar dan kompleks.

Model ini digambarkan empat kali lebih cepat dibandingkan sistem cerdas serupa, dan dilatih berdasarkan alur kerja “agen” – di mana agen pengkode independen secara kolaboratif merencanakan, menulis, menguji, dan meninjau kode.

Sebelumnya, indikator ini didukung "Pengodean suasana" — Menggunakan AI untuk menulis atau menyelesaikan kode berdasarkan instruksi bahasa alami dari pengguna, meskipun mereka adalah seseorang yang tidak terlatih dalam pengembangan — Di atas LLM berpemilik terkemuka lainnya Dari OpenAI, Anthropic, Google dan xAI. Opsi ini masih tersedia untuk pengguna.

Hasil standar

Kemampuan komposer diukur dengan menggunakan "kursi indikator," Kumpulan evaluasi internal yang berasal dari permintaan agen pengembang nyata. Standar ini tidak hanya mengukur kebenaran, tetapi juga kepatuhan model terhadap abstraksi, konvensi gaya, dan praktik teknik saat ini.

Dengan standar ini, Komposer mencapai kecerdasan pemrograman tingkat batas saat membuat file 250 simbol per detik – Hampir dua kali lebih cepat dibandingkan model inferensi cepat terkemuka dan empat kali lebih cepat dibandingkan sistem frontier sebanding.

Model perbandingan yang dipublikasikan Cursor membagi model ke dalam beberapa kategori: “Terbuka Terbaik” (misalnya, Qwen Coder, GLM 4.6), “Fast Frontier” (Haiku 4.5, Gemini Flash 2.5), “Frontier 7/2025” (model pertengahan tahun terkuat yang tersedia), dan “Best Frontier” (termasuk GPT-5 dan Claude Sonnet 4.5). Komposer mencocokkan kecerdasan sistem kelas menengah sambil memberikan kecepatan generasi tertinggi yang pernah tercatat di antara semua kelas yang diuji.

Sebuah model berdasarkan pembelajaran penguatan dan arsitektur campuran ahli

Ilmuwan riset Sasha Rush dari Cursor memberikan wawasan tentang pengembangan model di Postingan di jejaring sosial Xmenggambarkan komposer sebagai model campuran para ahli terpelajar (RL):

“Kami menggunakan RL untuk melatih model MOE besar agar benar-benar ahli dalam pemrograman dunia nyata, dan juga sangat cepat.”

Rush menjelaskan bahwa tim merancang bersama lingkungan Komposer dan Kursor agar model dapat berjalan secara efisien pada skala produksi:

“Tidak seperti sistem pembelajaran mesin lainnya, Anda tidak dapat mengambil banyak manfaat dari sistem berskala besar. Kami bersama-sama merancang proyek ini dan indikatornya agar agen dapat berjalan pada skala yang diperlukan.”

Komposer dilatih tentang tugas rekayasa perangkat lunak nyata, bukan kumpulan data statis. Selama pelatihan, model dijalankan dalam basis kode lengkap menggunakan berbagai alat produksi—termasuk pengeditan file, pencarian semantik, dan perintah terminal—untuk memecahkan masalah teknik yang kompleks. Setiap iterasi pelatihan melibatkan penyelesaian tantangan konkrit, seperti menghasilkan modifikasi kode, merumuskan rencana, atau membuat penjelasan yang ditargetkan.

Cincin penguatan meningkatkan kesehatan dan efisiensi. Komposer telah belajar bagaimana membuat pilihan instrumen yang efektif, menggunakan paralelisme, dan menghindari tanggapan yang tidak perlu atau spekulatif. Seiring waktu, model tersebut mengembangkan perilaku yang muncul seperti menjalankan pengujian unit, memperbaiki bug Linter, dan melakukan pencarian kode multi-langkah secara mandiri.

Desain ini memungkinkan Composer untuk beroperasi dalam konteks runtime yang sama dengan pengguna akhir, sehingga lebih kompatibel dengan kondisi pemrograman dunia nyata – berhubungan dengan kontrol versi, manajemen ketergantungan, dan pengujian berulang.

Dari prototipe hingga produksi

Perkembangan Komposer mengikuti prototipe internal sebelumnya yang dikenal sebagai Cheetahyang digunakan Index untuk mengeksplorasi heuristik latensi rendah untuk tugas pemrograman.

“Cheetah adalah versi 0 dari model ini terutama untuk pengujian kecepatan,” kata Rush pada X. “Metrik kami menunjukkan bahwa dia (sang komposer) sama cepatnya, tetapi jauh lebih pintar.”

Keberhasilan Cheetah dalam mengurangi latensi telah membantu Cursor mengidentifikasi kecepatan sebagai faktor kunci dalam kepercayaan pengembang dan kemudahan penggunaan.

Komposer mempertahankan daya tanggap tersebut sekaligus meningkatkan inferensi dan generalisasi tugas secara signifikan.

Pengembang yang menggunakan Cheetah selama pengujian awal mencatat bahwa kecepatannya mengubah cara mereka bekerja. “Itu sangat cepat sehingga saya bisa tetap mendapatkan informasi terbaru saat bekerja dengannya,” komentar salah satu pengguna.

Komposer mempertahankan kecepatan ini tetapi memperluas kemampuan untuk tugas pengkodean, pemfaktoran ulang, dan pengujian multi-langkah.

Integrasi dengan Indikator 2.0

Komposer telah terintegrasi penuh ke dalam Cursor 2.0, pembaruan besar pada lingkungan pengembangan agen perusahaan.

Platform ini menawarkan antarmuka multi-agen, memungkinkan Hingga delapan agen untuk bekerja secara paralel, Masing-masing berada di ruang kerja yang terisolasi menggunakan git work tree atau mesin jarak jauh.

Dalam sistem ini, komposer dapat bertindak sebagai satu atau lebih agen, melakukan tugas secara mandiri atau kolaboratif. Pengembang dapat membandingkan beberapa hasil dari pengoperasian agen secara bersamaan dan memilih yang terbaik.

Cursor 2.0 juga menyertakan fitur pendukung yang meningkatkan efektivitas Composer:

  • Peramban di dalam editor (GA) – Memungkinkan agen untuk menjalankan dan menguji kode mereka langsung di dalam IDE, mengarahkan informasi DOM ke formulir.

  • Tingkatkan peninjauan kode – Mengumpulkan perbedaan di beberapa file untuk pemeriksaan lebih cepat terhadap perubahan yang dihasilkan oleh model.

  • Terminal mode proteksi (GA) – Isolasi perintah shell yang dikelola agen untuk eksekusi lokal yang aman.

  • Modus suara – Menambahkan kontrol ucapan-ke-teks untuk memulai atau mengelola sesi agen.

Meskipun pembaruan platform ini memperluas pengalaman Cursor secara keseluruhan, Composer diposisikan sebagai inti teknis yang memungkinkan enkripsi proxy yang cepat dan andal.

Infrastruktur dan sistem pelatihan

Untuk melatih Komposer dalam skala besar, Cursor membangun infrastruktur pembelajaran penguatan khusus yang menggabungkan PyTorch dan Ray untuk pelatihan asinkron di ribuan GPU NVIDIA.

Tim ini mengembangkan kernel MXFP8 MoE khusus dan memparalelkan data hash campuran, memungkinkan pembaruan model skala besar dengan overhead komunikasi minimal.

Konfigurasi ini memungkinkan Cursor untuk melatih model secara lokal dengan akurasi rendah tanpa memerlukan kuantisasi pasca-pelatihan, sehingga meningkatkan kecepatan dan efisiensi inferensi.

Pelatihan komposer bergantung pada ratusan ribu lingkungan sandbox secara bersamaan – masing-masing merupakan ruang kerja pemrograman mandiri – yang berjalan di cloud. Perusahaan telah mengadaptasi infrastruktur agen back-end untuk menjadwalkan mesin virtual ini secara dinamis, mendukung sifat eksplosif dari proses RL yang besar.

Penggunaan perusahaan

Peningkatan kinerja Komposer didukung oleh perubahan tingkat infrastruktur melalui tumpukan kecerdasan kode Cursor.

Perusahaan telah mengoptimalkan Protokol Server Bahasa (LSP) untuk diagnostik dan navigasi yang lebih cepat, terutama dalam proyek Python dan TypeScript. Perubahan ini mengurangi latensi ketika Komposer berinteraksi dengan repositori besar atau membuat pembaruan multi-file.

Pengguna perusahaan memiliki kontrol administratif atas Komposer dan agen lainnya melalui aturan tim, log audit, dan aplikasi sandbox. Lapisan Tim dan Perusahaan Cursor juga mendukung penggunaan formulir batch, autentikasi SAML/OIDC, dan analitik untuk memantau kinerja agen di seluruh organisasi.

Harga untuk pengguna individu berkisar dari Gratis (Hobi) hingga Ultra ($200 per bulan), dengan batas penggunaan yang diperpanjang untuk pelanggan Pro+ dan Ultra.

Harga bisnis mulai dari $40 per pengguna per bulan untuk Teams, dengan kontrak perusahaan yang menawarkan opsi penggunaan dan kepatuhan khusus.

Peran komposer dalam lanskap pemrograman AI yang terus berkembang

Fokus Komposer pada kecepatan, pembelajaran penguatan, dan integrasi dengan alur kerja pengkodean langsung membedakannya dari asisten pengembangan AI lainnya seperti GitHub Copilot atau Agen Replit.

Alih-alih bertindak sebagai mesin saran pasif, Composer dirancang untuk kolaborasi berbasis agen yang berkelanjutan, di mana beberapa sistem independen berinteraksi langsung dengan basis kode proyek.

Spesialisasi tingkat model ini—melatih AI untuk beroperasi di lingkungan nyata di mana ia akan beroperasi—mewakili langkah penting menuju pengembangan perangkat lunak yang praktis dan otonom. Komposer dilatih tidak hanya pada data teks atau kode statis, namun dalam IDE dinamis yang mencerminkan kondisi produksi.

Rasch menggambarkan pendekatan ini sebagai hal yang penting untuk mencapai keandalan di dunia nyata: Model ini tidak hanya mempelajari cara membuat kode, namun juga cara mengintegrasikan, menguji, dan meningkatkannya dalam konteks.

Artinya bagi pengembang perusahaan dan pemrograman dinamis

Dengan Composer, Cursor menawarkan lebih dari sekadar model cepat, Cursor menerapkan sistem AI yang dioptimalkan untuk penggunaan di dunia nyata, dirancang untuk bekerja dalam alat yang sama yang sudah diandalkan oleh pengembang.

Kombinasi pembelajaran penguatan, desain campuran ahli, dan integrasi produk yang erat memberi Komposer keunggulan praktis dalam kecepatan dan daya tanggap yang membedakannya dari model bahasa tujuan umum.

Meskipun Cursor 2.0 menyediakan infrastruktur untuk kolaborasi antara banyak agen, Composer adalah inovasi inti yang membuat alur kerja dapat dijalankan.

Ini adalah model pengkodean pertama yang dirancang khusus untuk pengkodean proxy tingkat produksi — dan gambaran awal tentang seperti apa pemrograman sehari-hari ketika pengembang manusia dan pekerja lepas berbagi ruang kerja yang sama.

Tautan sumber

Continue Reading

Berita

Christopher Schwarzenegger memamerkan hasil penurunan berat badannya sebanyak 30 pon

Published

on

baruAnda sekarang dapat mendengarkan artikel Fox News!

Seperti ayah, seperti anak laki-laki.

Christopher Schwarzenegger, 28, memukau penonton dengan fisik barunya saat keluar bersama saudara perempuannya Katherine Schwarzenegger Pratt, saudara ipar Chris Pratt dan anak-anak mereka untuk bersenang-senang memetik labu di lingkungan Brentwood di Los Angeles.

Putra bungsu Arnold Schwarzenegger dan Maria Shriver menarik perhatian saat tamasya keluarga musim gugur yang meriah, menandai transformasi yang menakjubkan.

Christopher Schwarzenegger memamerkan penurunan berat badannya yang signifikan saat jalan-jalan bersama keluarga di danau

Christopher Schwarzenegger terlihat memetik labu di Brentwood pada 27 Oktober 2025. (stoyanov/kisi belakang)

Christopher, yang mengatakan pada musim semi ini berat badannya telah turun sekitar 30 pon, memamerkan lengannya yang kencang dan fisik yang bugar saat dia membawa bukan hanya satu, tapi tiga labu berukuran sedang ke dalam mobil.

Mengenakan tank top putih, celana hijau tua, dan sepatu kets, Christopher menjaga suasana tetap sejuk dan nyaman, mengikatkan kaos putih di pinggangnya, membuat pengangkatan barang berat terlihat mudah.

Para penonton tidak bisa tidak memperhatikan bahwa adik laki-laki Schwarzenegger, Shriver, berubah menjadi mode paman penuh saat dia membantu keponakannya — Lila, 5, dan Eloise, 3 — memilih labu yang sempurna. Yang tidak hadir dalam perayaan tersebut adalah putra bungsu Katherine dan Pratt, Ford, yang berusia 11 bulan.

Christopher Schwarzenegger dengan pakaian renang biru menunjuk ke danau di belakangnya.

Christopher Schwarzenegger tampil bertelanjang dada saat berada di kapal bersama keluarganya. (Christopher Schwarzenegger/Instagram)

Ini merupakan tahun transformatif bagi Christopher, yang menjadi lebih ramping dalam beberapa bulan terakhir. Komitmennya terhadap kebugaran mencerminkan komitmen ayahnya yang terkenal, bintang “Terminator” legendaris dan mantan gubernur California, yang sering berbicara tentang pentingnya hidup sehat dan disiplin.

Chris Pratt membagikan foto langka untuk ulang tahun putranya yang ke-13

Pada bulan September, penurunan berat badan Christopher terlihat jelas selama tamasya keluarga lainnya.

Seorang wanita berambut pirang memeluk Christopher Schwarzenegger saat dia duduk di kursi kapten.

Seorang wanita berambut pirang memeluk Christopher Schwarzenegger saat dia duduk di kursi kapten. (Christopher Schwarzenegger/Instagram)

Dalam postingan Instagram, Katherine membagikan sederet foto hari keluarga di danau. Dalam beberapa foto, Christopher terlihat bertelanjang dada dan mengenakan celana renang bergaris biru putih.

Klik di sini untuk berlangganan buletin hiburan

di dalam Gambar lainDia duduk di kursi kapten dan berpose di depan kamera dengan seorang wanita berambut pirang duduk di pangkuannya sambil memeluknya.

Christopher sebelumnya telah berbicara tentang kerja keras di balik transformasi kebugarannya. Meskipun ia sering kali tidak menonjolkan diri, ia kembali menjadi sorotan pada bulan Mei berkat penampilan barunya yang sangat bugar. Dia berbicara di panel pada peresmian Beacher Vitality Happy & Healthy Summit di Los Angeles bersama Shriver, Kelly Osbourne, dan Jeff Beacher, di mana dia membahas perjalanan panjang di balik hasil yang dicapainya.

Arnold Schwarzenegger menerbitkan bersama Patrick Schwarzenegger

Arnold Schwarzenegger dan Patrick Schwarzenegger menghadiri pemutaran perdana dunia The White Lotus Musim 3. (Jeff Kravitz/Keajaiban Film HBO)

Apakah Anda menyukai apa yang Anda baca? Klik di sini untuk berita hiburan lainnya

“Itu adalah operasi besar,” kata Christopher pada sidang tanggal 10 Mei di Hollywood Roosevelt. orang-orang.

Dia melanjutkan: “Ini dimulai pada tahun 2019 ketika saya tinggal di Australia. Saya sedang dalam perjalanan besar ini. Saya telah membuat (kesepakatan) besar dengannya seperti, ‘Oh, saya akan keluar dan melakukan semua hal ini dan berada di Australia,’ dan saya melihat betapa berat badan saya menghalangi saya untuk melakukan aktivitas sehari-hari.”

Terlepas dari transformasi dramatisnya, Christopher juga mengatakan bahwa dia belum mencapai tujuannya, dan mencatat bahwa ketika melihat “foto sebelum dan sesudahnya… Saya merasa belum sampai di sana.”

Klik di sini untuk mengunduh aplikasi FOX NEWS



Tautan sumber

Continue Reading

Berita

Putin mengklaim keberhasilan besar dalam pengujian drone nuklir bawah air Poseidon

Published

on

baruAnda sekarang dapat mendengarkan artikel Fox News!

Presiden Rusia Vladimir Putin mengumumkan pada hari Rabu bahwa Rusia telah mencapai “kesuksesan besar” dalam pengujian kapal selam tak berawak kelas Poseidon berkemampuan nuklir, dan menggambarkan sistem tersebut sebagai langkah besar dalam program senjata strategis negara tersebut, menurut Reuters.

“Untuk pertama kalinya, kami tidak hanya dapat meluncurkannya dengan mesin peluncuran dari kapal selam pengangkut, tetapi juga meluncurkan unit tenaga nuklir yang perangkatnya telah dijalankan selama jangka waktu tertentu,” kata Putin. “Tidak ada yang seperti ini.”

“Kekuatan Poseidon secara signifikan melebihi kekuatan rudal antarbenua Sarmat yang menjanjikan,” katanya, mengacu pada prototipe Satin 2 Rusia.

Trump mengatakan dia tidak akan membuang waktu untuk bertemu dengan Putin kecuali kesepakatan dengan Ukraina segera tercapai

Presiden Rusia Vladimir Putin (NASA/JPL-Caltech melalui AP)

Poseidon, pertama kali diluncurkan pada tahun 2018, dirancang untuk melakukan perjalanan melintasi lautan dengan kecepatan tinggi menggunakan tenaga nuklir dan membawa hulu ledak besar. Para pejabat Rusia mengklaim senjata ini dapat menciptakan gelombang radiasi dahsyat yang mampu menyerang sasaran di pesisir pantai, meski status operasionalnya belum diverifikasi secara independen.

Putin juga menyebutkan kemajuan dalam sistem strategis lainnya, termasuk rudal jelajah bertenaga nuklir Burevestnik, yang menurut Moskow mampu terbang tanpa batas waktu dan menghindari pertahanan rudal. Para pejabat Rusia melaporkan keberhasilan uji terbang rudal Burevestnik pada awal pekan ini sebagai bagian dari kesiapan nuklir yang lebih luas.

Rusia mengatakan uji coba Burevestnik yang berhasil menempuh jarak lebih dari 14.700 mil, menimbulkan keheranan di Barat.

Pada hari Senin, Presiden Donald Trump menanggapi uji coba senjata Rusia baru-baru ini, dengan mengatakan kepada wartawan di pesawat Air Force One bahwa Putin “seharusnya mengakhiri perang di Ukraina, bukan menguji rudal.” Dia menambahkan bahwa AS memiliki “kapal selam nuklir tepat di lepas pantainya… sehingga tidak perlu melakukan perjalanan sejauh 8.000 mil,” dan memperingatkan bahwa “kami juga tidak bermain-main dengan mereka.”

Trump membekukan Putin karena tidak mengambil ‘tindakan yang cukup’ menuju perdamaian – pembicaraan di masa depan tidak pasti

Latihan nuklir Rusia

Peluncuran rudal balistik antarbenua Yars sebagai bagian dari latihan nuklir Rusia dari lokasi peluncuran di Plesetsk, barat laut Rusia, 2022 (Layanan Pers Kementerian Pertahanan Rusia melalui AP)

Trump mengatakan bahwa alih-alih fokus pada pengembangan rudal, Putin sebaiknya “mengakhiri perang… Perang yang seharusnya memakan waktu seminggu kini sudah memasuki tahun keempat.”

Dalam beberapa hari terakhir, Moskow telah meningkatkan serangannya di Ukraina timur, mengklaim bahwa mereka telah merebut beberapa desa di garis depan, dan mendekati kota strategis Pokrovsk di wilayah Donetsk. Awal bulan ini, Putin mengatakan pasukan Rusia telah merebut hampir 5.000 kilometer persegi wilayah Ukraina sejak awal tahun – sebuah klaim yang disengketakan oleh Ukraina.

Klik di sini untuk mengunduh aplikasi FOX NEWS

Para pejabat AS dan NATO belum secara independen mengkonfirmasi uji coba Poseidon tersebut, dan Pentagon menolak berkomentar.

Reuters dan Associated Press berkontribusi pada laporan ini.

Tautan sumber

Continue Reading

Trending