Connect with us

Berita

Trump mengecam Stephanopoulos yang ‘sangat buruk’ dan menolak menjawab pertanyaan ABC

Published

on

Bergabunglah dengan Fox News untuk mengakses konten ini

Ditambah akses khusus ke artikel pilihan dan konten premium lainnya di akun Anda – gratis.

Dengan memasukkan email Anda dan mengeklik “Lanjutkan”, Anda menyetujui Ketentuan Penggunaan dan Kebijakan Privasi Fox News, yang mencakup Pemberitahuan Insentif Keuangan kami.

Silakan masukkan alamat email yang valid.

baruAnda sekarang dapat mendengarkan artikel Fox News!

Presiden AS Donald Trump mengkritik pembawa acara ABC News George Stephanopoulos selama pertemuan pada hari Selasa dengan Presiden Argentina Javier Miley.

“Kami akan mengambil beberapa pertanyaan dari berita, dan saya yakin mereka akan sangat tidak bermusuhan dan ramah, sama seperti J.D. melakukan wawancara yang sangat ‘ramah’ dengan George Slopadopoulos,” kata Trump dengan nada sarkasme, mengejek nama Stephanopoulos.

Trump melanjutkan dengan merujuk pada tuntutan hukum ABC, sambil bercanda, dengan mengatakan, “Dia cukup baik untuk membayar saya $16 juta pada kali terakhir kami datang ke sini – dia seharusnya membayar saya $16 juta. Itu tidak masalah. Itu sepadan. Tidak ada gunanya bagi seseorang untuk berbohong. Jika Anda mendapat $16 juta, itu tidak masalah.”

Dia kemudian mengkritik wawancara Wakil Presiden J.D. Vance baru-baru ini di jaringan milik Disney.

“J.D. mempunyai orang yang sangat jahat yang mewawancarainya, dan kita tidak bisa membiarkan hal itu terjadi. Tidak pantas untuk menyela Wakil Presiden Amerika Serikat yang sangat dihormati. Saya pikir itu adalah salah satu cara untuk memenangkan argumen. Ini adalah satu-satunya cara dia akan memenangkan argumen. Itu sangat tidak pantas, saya ingin memberi tahu Anda hal itu.”

Mantan koresponden ABC News mengakui pemberi kerja bias terhadap Trump karena kurangnya ‘keberagaman sudut pandang’

Presiden Donald Trump mengumumkan dia tidak akan lagi menerima pertanyaan dari ABC tentang bagaimana jaringan tersebut memperlakukan wakil presidennya dalam sebuah wawancara baru-baru ini. (Gambar Getty)

Trump kemudian mengumumkan bahwa dia tidak akan menerima pertanyaan dari “ABC Fake News.”

Selama wawancara pada hari Minggu, Vance berdebat dengan Stephanopoulos ketika wakil presiden menyangkal bahwa raja perbatasan Tom Homan menerima suap dan menuduh pembawa acara ABC kehilangan kredibilitas, sehingga wawancara tersebut berakhir tiba-tiba.

Stephanopoulos berulang kali mendesak Vance tentang apakah Homan telah menerima uang tersebut, dan mengatakan bahwa Homan “direkam dalam rekaman audio pada bulan September 2024, rekaman pengawasan FBI, menerima uang tunai sebesar $50.000.”

“Aku tidak mengerti rekaman apa yang kamu maksud, George,” kata Vance. “Saya telah melihat laporan media bahwa Tom Homan menerima suap. Tidak ada bukti mengenai hal itu. Itu sebabnya semakin sedikit orang yang menonton acara Anda dan mengapa Anda kehilangan kredibilitas.” “Karena Anda sekarang berbicara selama lima menit dengan Wakil Presiden Amerika Serikat tentang cerita tentang Tom Homan, yang merupakan cerita yang pernah saya baca, tetapi saya bahkan tidak tahu video yang Anda bicarakan.”

Trump menyerukan Jimmy Kimmel dari ABC karena mendukung ‘kontribusi kampanye ilegal yang besar’ dari Partai Demokrat

Wakil Presiden J.D. Vance dan pembawa acara ABC George Stephanopoulos

Wakil Presiden J.D. Vance berbicara dengan pembawa acara ABC News dalam wawancara kontroversial akhir pekan lalu. (Alex Wong/Getty Images; Heidi Guttman/Perusahaan Penyiaran Amerika, melalui Getty Images)

Setelah Vance menyarankan untuk beralih ke topik lain, Stephanopoulos menolak dan melanjutkan untuk mengakhiri wawancara.

Vance menanggapi di media sosial setelah wawancara: “Perdamaian di Timur Tengah? Tiongkok mengancam rantai pasokan penting? Penutupan pemerintahan? George S. tidak peduli tentang hal itu. Dia di sini untuk fokus pada kisah nyata: skandal palsu yang melibatkan Tom Homan.”

ABC News tidak segera menanggapi permintaan komentar.

Klik di sini untuk liputan media dan budaya lainnya

Wakil Presiden J.D. Vance, mengenakan jas gelap dan dasi merah, berbicara

Wakil Presiden J.D. Vance mengatakan ada hal lain yang lebih mendesak dan penting untuk dibahas. (Foto AP/Alex Brandon, Kolam Renang)

KLIK DI SINI UNTUK MENDAPATKAN APLIKASI FOX NEWS

Hannah Banrick dari Fox News berkontribusi pada laporan ini.

Tautan sumber

Continue Reading
Click to comment

Leave a Reply

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Berita

Teknologi baru “Pemikiran Markovian” membuka jalan menuju pemikiran AI dengan jutaan simbol

Published

on

Para peneliti di Mila telah mengusulkan teknik baru yang membuat model linguistik besar (LLM) jauh lebih efisien ketika melakukan inferensi kompleks. Bernama pemikiran Markovian,Pendekatan ini memungkinkan LLM untuk terlibat dalam penalaran yang berkepanjangan tanpa menimbulkan biaya komputasi yang mahal yang saat ini membatasi tugas-tugas tersebut.

Implementasi tim, sebuah lingkungan yang disebut Delethink, membangun rantai inferensi menjadi potongan-potongan berukuran tetap, memecahkan masalah penskalaan yang mengganggu respons LLM yang sangat panjang. Perkiraan awal menunjukkan bahwa untuk model parameter 1,5 miliar, metode ini dapat mengurangi biaya pelatihan lebih dari dua pertiga dibandingkan pendekatan standar.

Kutukan kuadrat dari inferensi string panjang

Agar LLM dapat memecahkan masalah yang kompleks, Anda sering kali perlu membuat rantai panjang token “berpikir” perantara, yang sering disebut sebagai rantai penalaran (CoT). Dalam beberapa tahun terakhir, para peneliti telah menemukan bahwa penggunaan… Pembelajaran penguatan (RL) untuk melatih model guna menghasilkan CoT yang lebih panjang (terkadang disebut sebagai LongCoT) yang sangat meningkatkan kemampuan penalaran mereka.

Namun, cara standar untuk melakukan hal ini memiliki kelemahan serius: kecerdasan buatan "negara" (Vektor ditambah semua kode logika yang dihasilkan sejauh ini dalam pemrosesannya) bertambah seiring dengan setiap kode logika baru. Untuk berbicara Model berbasis transformatorArtinya, biaya komputasi akan melonjak secara kuadrat seiring bertambahnya panjang rantai penalaran, sehingga menjadi sangat mahal untuk melatih model pada tugas-tugas yang sangat kompleks.

Sebagian besar upaya saat ini untuk mengelola biaya ini berfokus pada membatasi jumlah pemikiran yang dilakukan model, yang secara implisit lebih memilih solusi yang lebih singkat atau mengakhiri proses lebih awal. Meskipun metode ini memberikan sedikit bantuan, para peneliti MILAA masih bekerja dalam kerangka LongCoT dan oleh karena itu pada dasarnya berkomitmen pada sifat kuadratnya.

Daripada mencoba mengendalikan pertumbuhan aritmatika, Mila menciptakan lingkungan RL yang menghindari masalah kuadrat sama sekali. Seperti yang dijelaskan oleh rekan penulis Amir Hossein Kazeminejad, tujuannya adalah untuk mengaktifkan kemampuan seperti berpikir multi-minggu dan penemuan ilmiah. "Sistem ini (dan RL yang diperlukan untuk mengaktifkan kemampuan tersebut) tidak didukung oleh model LongCoT saat ini, karena biaya komputasi kuadrat," Dia berkata.

Pikirkan sebagian dengan Delethink

Solusi yang ditemukan para peneliti adalah model yang mereka sebut "pemikir Markovian" Model ini beralasan sambil menjaga ukuran jendela konteks inferensinya tetap konstan. Ide dasarnya adalah mengubah pengaturan RL kelas "Berapa lama model berpikir?" dari "Jumlah konteks yang perlu diproses." Jika dilakukan dengan benar, pemikir Markovian akan mengubah masalah pertumbuhan kuadrat menjadi komputasi linier dan kebutuhan memori konstan untuk inferensi LLM.

Para peneliti mempraktikkan model ini melalui Delethink, yang memaksa model untuk mempertimbangkan serangkaian potongan berukuran tetap, seperti 8,000 token sekaligus. Dalam setiap bagian, model membuat kesimpulan seperti biasanya, menggunakan mekanisme perhatian klasik. Namun ketika mencapai potongan maksimum, lingkungan akan mengatur ulang konteksnya, membuat prompt baru yang menyertakan kueri asli ditambah permintaan singkat "meneruskan" Dari bagian sebelumnya. Misalnya, relai dapat berupa beberapa kode terakhir dari bagian CoT sebelumnya atau ringkasan hasil yang paling penting.

Penataan ulang masalah ini memaksa model untuk belajar bagaimana memasukkan ringkasan kemajuannya, atau "keadaan Markovian tekstual," Pada tahap ini terus memikirkan bagian selanjutnya. Hal ini mengatasi kekhawatiran umum mengenai apakah model dapat mengingat detail penting dari langkah sebelumnya.

Menurut Kazemnejad, model mempelajari apa yang harus diingatnya. "Dengan pelatihan…model dipaksa untuk belajar bagaimana melanjutkan dalam situasi kritis," Dia menjelaskan. Dia menambahkan klarifikasi penting untuk penggunaan praktis: vektor masukan asli, termasuk dokumen atau data kontekstual yang ditambahkan ke dalamnya, tidak diubah. “Pendekatan kami menargetkan fase inferensi dan tidak mengubah vektor." Dia berkata.

Hapus pemikiran tentang pekerjaan

Untuk menguji pendekatan mereka, para peneliti melatih R1-Distill-1.5B dengan Delethink pada kumpulan data soal matematika tingkat kompetisi, kemudian mengevaluasinya berdasarkan beberapa tolok ukur. Model ini dilatih untuk mempertimbangkan hingga 24.000 token tetapi dengan batas tetap sebesar 8.000 token.

Peneliti Bandingkan ini dengan model yang dilatih menggunakan metode LongCoT-RL standar. Temuan mereka menunjukkan bahwa model yang dilatih dengan Delethink dapat menganalisis hingga 24,000 token, menyamai atau melampaui model LongCoT yang dilatih dengan anggaran yang sama yaitu 24,000 token berdasarkan standar matematika. Dalam tugas lain seperti pertanyaan tingkat pemrograman dan PhD, Delethink juga menyamai atau sedikit mengalahkan LongCoT. “Secara keseluruhan, hasil ini menunjukkan bahwa Delethink menggunakan kode penalarannya seefektif LongCoT-RL dengan pengurangan komputasi,” tulis para peneliti.

Manfaatnya menjadi lebih nyata ketika anggaran pelatihan diperluas. Meskipun model yang dilatih dengan LongCoT dengan cepat mencapai batas pelatihannya, model yang dilatih dengan Delethink terus meningkatkan performanya. Misalnya, beberapa masalah matematika tidak dapat diselesaikan hingga model tersebut menguraikan hingga 140.000 simbol, jauh melebihi anggaran pelatihan sebesar 24.000 simbol. Fitur komputasi linier ini sangat bagus untuk aplikasi perusahaan. Para peneliti memperkirakan bahwa melatih model dengan panjang pemikiran rata-rata 96.000 simbol akan memerlukan 27 bulan H100-GPU dengan LongCoT, dibandingkan hanya 7 bulan dengan Delethink.

Efisiensi ini meluas langsung ke inferensi, yang merupakan biaya operasional utama bagi sebagian besar organisasi. "Model yang dilatih dengan penalaran Markovian menggunakan heuristik yang sama (hapus pelacakan) selama waktu pengujian, yang memberikan manfaat yang sama dari aritmatika linier dan memori persisten setelah pelatihan." kata Kazemnejad. Dia memberikan contoh praktis: agen AI bisa melakukan hal itu "Debug basis kode yang besar dan pikirkan untuk waktu yang lama…yang tentu saja mengurangi biaya secara signifikan dibandingkan dengan pendekatan LongCoT tradisional."

Menariknya, para peneliti menemukan bahwa model inferensi yang sudah jadi, bahkan tanpa pelatihan khusus apa pun, memang menunjukkan kemampuan bernalar dengan cara Markovian. Temuan ini mempunyai implikasi praktis langsung bagi pengembang. "Dalam praktiknya, ini berarti – tanpa Delethink-RL – model ini benar-benar dapat menjalankan lingkup pelacakan delethink dan bekerja secara kompetitif dengan LongCoT pada tugas benchmark kami," kata Kazemnejad.

Pengalaman mereka dengan model yang lebih besar seperti GPT-OSS 120B Tunjukkan kinerja yang kuat dengan Delethink di berbagai tugas kompleks. Kemampuan bawaan ini memberikan titik awal yang kuat untuk pelatihan RL, yang membantu menjelaskan mengapa metode ini sangat efektif. “Secara keseluruhan, hasil ini menunjukkan bahwa Delethink kompatibel dan konsisten dengan model tercanggih,” para peneliti menyimpulkan.

Keberhasilan pemikiran Markovian menunjukkan bahwa hal ini mungkin dilakukan "Model berpikir generasi penerus untuk berpikir dalam jutaan simbol," Catatan peneliti. Hal ini membuka pintu bagi kemampuan AI yang secara fundamental baru, melampaui keterbatasan yang ada saat ini.

"Pemikiran Markovian…membuka jalan bagi model-model yang dapat “berpikir” dalam jangka waktu yang sangat panjang, yang kami anggap sebagai langkah penting menuju penemuan ilmiah pada akhirnya," kata Kazemnejad. "Pendekatan kami menghilangkan hambatan besar dan memungkinkan pelatihan untuk misi jangka panjang, sehingga memungkinkan kemampuan generasi berikutnya."

Tautan sumber

Continue Reading

Berita

Para pejabat mengatakan tersangka ditangkap setelah mobilnya menabrak barikade Gedung Putih

Published

on

baruAnda sekarang dapat mendengarkan artikel Fox News!

Seorang tersangka ditangkap Selasa malam setelah dia menabrakkan mobilnya ke barikade Gedung Putih, menurut Dinas Rahasia.

“Pada hari Selasa, 21 Oktober, sekitar pukul 22.37, seseorang mengemudikan kendaraannya menuju gerbang kendaraan Dinas Rahasia yang terletak di Jalan 17 dan E, Northwest D.C.,” kata juru bicara Dinas Rahasia dalam sebuah pernyataan.

Pernyataan itu menambahkan: “Orang tersebut segera ditangkap oleh petugas dari divisi resmi Dinas Rahasia AS, dan kendaraan tersebut dievaluasi oleh Dinas Rahasia dan Departemen Kepolisian Metropolitan dan dianggap aman.”

Trump rayakan pembongkaran Gedung Putih saat ballroom baru dibuka: ‘Musik di telinga saya’

Sebuah kendaraan terlihat setelah menabrak penghalang keamanan di kompleks Gedung Putih pada 21 Oktober 2025, di Washington, D.C. (Andrew Leyden/Getty Images)

Juru bicara tersebut menambahkan bahwa informasi tambahan akan diberikan setelah penyelidikan selesai.

Hillary Clinton membuat marah para pemilih karena tidak membangun ballroom di Gedung Putih untuk Trump: ‘Itu bukan rumahnya’

Sebuah mobil menabrak penghalang Gedung Putih

Sebuah mobil menabrak pembatas Gedung Putih pada 21 Oktober 2025, di Washington, DC (dan itu datang)

KLIK DI SINI UNTUK MENDAPATKAN APLIKASI FOX NEWS

DC Fire dan EMS mengonfirmasi kepada Fox News bahwa mereka membantu Dinas Rahasia dalam penyelidikan dan kemudian mulai membersihkan tempat kejadian.

Tautan sumber

Continue Reading

Berita

Pengalaman AI Studio baru dari Google memungkinkan siapa pun membuat dan memublikasikan aplikasi secara langsung hanya dalam hitungan menit

Published

on

Google AI Studio baru saja mendapatkan peningkatan pemrograman besar-besaran dengan antarmuka, tombol, saran, dan fitur komunitas baru yang memungkinkan siapa saja yang memiliki ide untuk sebuah aplikasi — bahkan pemula, orang awam, atau non-pengembang seperti Anda — untuk mewujudkannya dan memublikasikannya langsung ke web agar siapa pun dapat menggunakannya dalam beberapa detik. menit.

Tab Build yang diperbarui kini tersedia di ai.studio/buildDan memulainya gratis.

Pengguna dapat mencoba membuat aplikasi tanpa harus memasukkan informasi pembayaran terlebih dahulu, meskipun beberapa fitur lanjutan seperti Veo 3.1 dan penerapan Cloud Run memerlukan kunci API berbayar.

Bagi saya, fitur-fitur baru ini menjadikan model dan penawaran AI Google lebih kompetitif, dan mungkin lebih disukai, bagi banyak pengguna umum dibandingkan dengan pesaing startup AI seperti Claude Code dari Anthropic dan Codex OpenAI, yang masing-masing "Pengodean suasana" Produk terfokus yang disukai pengembang – namun tampaknya memiliki hambatan masuk yang lebih tinggi atau mungkin memerlukan lebih banyak pengetahuan teknis.

Awal Baru: Mode Build yang Didesain Ulang

Tab Build yang diperbarui berfungsi sebagai titik masuk ke pemrograman dinamis. Ini memperkenalkan desain dan alur kerja baru di mana pengguna dapat memilih rangkaian model dan fitur AI Google untuk mendukung aplikasi mereka. Standarnya adalah Gemini 2.5 Pro, yang bagus untuk sebagian besar situasi.

Setelah pilihan dibuat, pengguna cukup menjelaskan apa yang ingin mereka bangun, dan sistem secara otomatis merakit komponen yang diperlukan menggunakan API Gemini.

Mode ini mendukung kemampuan pencampuran seperti Nano Banana (model AI yang ringan), Veo (untuk pemahaman video), Gambar (untuk pembuatan gambar), Senter (untuk inferensi yang meningkatkan kinerja), dan Google Penelusuran.

Patrick Loeber, hubungan pengembang di Google DeepMind, menyoroti bahwa pengalaman ini bertujuan untuk membantu pengguna “meningkatkan aplikasi mereka dengan AI” menggunakan jalur klaim aplikasi yang sederhana.

Dalam demo video yang dia posting

Dari prompt hingga produksi: Konstruksi dan pengeditan waktu nyata

Setelah aplikasi dibuat, pengguna mengakses editor yang sepenuhnya interaktif. Di sebelah kiri, terdapat antarmuka bantuan kode tradisional tempat pengembang dapat mengobrol dengan model AI untuk mendapatkan bantuan atau saran. Di sebelah kanan, editor kode sumber lengkap menampilkan aplikasi.

Setiap komponen, seperti titik masuk React, panggilan API, atau file desain, dapat diedit secara langsung. Tooltip membantu pengguna memahami fungsi setiap file, yang khususnya berguna bagi mereka yang kurang paham dengan TypeScript atau kerangka kerja front-end.

Aplikasi dapat disimpan ke GitHub, diunduh secara lokal, atau dibagikan secara langsung. Dapat diterapkan dalam lingkungan studio atau melalui Cloud Run jika diperlukan penskalaan atau hosting tingkat lanjut.

Inspirasi sesuai permintaan: tombol “Saya merasa beruntung”.

Salah satu fitur penting dalam pembaruan ini adalah tombol “Saya Beruntung”. Dirancang untuk pengguna yang membutuhkan kreativitas, ini menghasilkan konsep aplikasi acak dan mengonfigurasi pengaturan aplikasi yang sesuai. Setiap edisi menghasilkan ide berbeda, lengkap dengan fitur dan komponen AI yang disarankan.

Contoh yang dihasilkan selama demonstrasi meliputi:

  • Chatbot interaktif berbasis peta yang didukung oleh Google Penelusuran dan AI percakapan.

  • Dream Garden Designer menggunakan alat pembuatan dan perencanaan gambar tingkat lanjut.

  • Sebuah aplikasi game dengan host AI yang dapat dipilih pengguna, mengintegrasikan Imagine dan Flashlight dengan Gemini 2.5 Pro untuk percakapan dan berpikir.

Logan Kilpatrick, kepala produk di Google AI Studio dan Gemini AI, mencatat dalam video demonya bahwa fitur tersebut mendorong penemuan dan eksperimen.

“Anda mendapatkan pengalaman yang sangat keren dan berbeda,” katanya, menekankan perannya dalam membantu pengguna menemukan ide-ide baru dengan cepat.

Tes praktis: Dari klaim hingga penerapan dalam 65 detik

Untuk menguji alur kerja baru, saya meminta Gemini untuk:

Aplikasi web pelemparan dadu acak di mana pengguna dapat memilih antara ukuran dadu umum (6 sisi, 10 sisi, dll.) dan kemudian melihat animasi pelemparan dadu dan juga memilih warna dadu.

Dalam waktu 65 detik (lebih dari satu menit), AI Studio mengembalikan aplikasi web yang berfungsi penuh Termasuk:

  • Pemilih ukuran dadu (d4, d6, d8, d10, d12, d20)

  • Opsi penyesuaian warna yang menarik

  • Efek bergulir animasi dengan hasil acak

  • Antarmuka pengguna yang bersih dan modern dibuat dengan React, TypeScript, dan Tailwind CSS

Platform ini juga membuat satu set lengkap file terstruktur, termasuk App.tsx, konstanta.ts, dan komponen terpisah untuk logika dan kontrol dadu.

Setelah dibuat, mudah untuk mengulanginya: menambahkan efek suara untuk setiap interaksi (menggulung, memilih dadu, mengubah warna) hanya memerlukan satu tindak lanjut dari asisten bawaan. Gemini juga menyarankan hal ini.

Dari sana, aplikasi dapat dipratinjau secara langsung atau diekspor menggunakan kontrol bawaan untuk:

  • Simpan ke GitHub

  • Unduh basis kode lengkap

  • Salin proyek untuk di-remix

  • Penerbitan melalui alat terintegrasi

Pengujian singkat saya menunjukkan betapa cepatnya bahkan aplikasi utilitas kecil dapat beralih dari ide menjadi prototipe interaktif—tanpa meninggalkan browser atau menulis kode boilerplate secara manual.

Peningkatan dan peningkatan fitur yang disarankan oleh AI

Selain pembuatan kode, Google AI Studio kini menawarkan saran fitur peka konteks. Dihasilkan oleh kemampuan Senter Gemini, rekomendasi ini menganalisis aplikasi saat ini dan menyarankan perbaikan yang relevan.

Dalam satu contoh, sistem menyarankan penerapan fitur yang menampilkan riwayat foto yang dibuat sebelumnya di tab Photo Studio. Peningkatan berulang ini memungkinkan pembuat untuk memperluas fungsionalitas aplikasi dari waktu ke waktu tanpa memulai dari awal.

Kilpatrick menekankan bahwa pengguna dapat terus meningkatkan proyek mereka seiring berjalannya waktu, melalui kombinasi pembuatan otomatis dan modifikasi manual. “Anda dapat masuk dan terus mengubah dan meningkatkan pengalaman yang Anda inginkan secara berulang,” katanya.

Kebebasan untuk memulai dan fleksibilitas untuk berkembang

Pengalaman baru ini tersedia gratis bagi pengguna yang ingin mencoba, merancang, membuat prototipe, atau membuat aplikasi ringan. Tidak perlu memasukkan informasi kartu kredit untuk mulai menggunakan pengkodean getaran.

Namun, kemampuan yang lebih canggih — seperti menggunakan model seperti Veo 3.1 atau memublikasikan melalui Cloud Run — memerlukan peralihan ke kunci API berbayar.

Struktur penetapan harga ini bertujuan untuk menurunkan hambatan masuk untuk bereksperimen sambil memberikan jalur yang jelas untuk melakukan ekspansi bila diperlukan.

Dirancang untuk semua tingkat keahlian

Salah satu tujuan utama peluncuran Vibe Coding adalah membuat pengembangan aplikasi AI dapat diakses oleh lebih banyak orang. Sistem ini mendukung alat pembuatan visual tingkat tinggi dan pengeditan kode tingkat rendah, sehingga menciptakan alur kerja yang dapat digunakan oleh pengembang di seluruh tingkat pengalaman.

Kilpatrick menyatakan bahwa meskipun dia lebih akrab dengan Python daripada TypeScript, dia masih menganggap editor ini berguna karena deskripsi file yang berguna dan tata letaknya yang intuitif.

Fokus pada kemudahan penggunaan ini dapat menjadikan AI Studio pilihan menarik bagi pengembang yang mengeksplorasi AI untuk pertama kalinya.

Lebih banyak lagi yang akan datang: Seminggu peluncuran

Peluncuran kode getaran adalah yang pertama dari serangkaian pengumuman yang diharapkan sepanjang minggu ini. Meskipun fitur spesifik masa depan belum terungkap, Kilpatrick dan Looper telah mengisyaratkan bahwa pembaruan tambahan sedang dalam proses.

Dengan pembaruan ini, Google AI Studio memposisikan dirinya sebagai lingkungan yang fleksibel dan mudah digunakan untuk membuat aplikasi yang didukung AI, baik untuk kesenangan, pembuatan prototipe, atau penerapan produksi. Fokusnya jelas: menjadikan kekuatan API Gemini tersedia tanpa kerumitan yang tidak perlu.

Tautan sumber

Continue Reading

Trending