Bisnis

Gambaran umum AI Google ‘berhalusinasi’ dengan menyebarkan info palsu

Published

on

Ikhtisar AI Google, yang dirancang untuk memberikan jawaban cepat untuk pencarian, dilaporkan meludahkan “halusinasi” informasi palsu dan merusak penerbit dengan menarik pengguna menjauh dari tautan tradisional.

Raksasa teknologi besar – yang mendarat di air panas tahun lalu setelah merilis alat AI “bangun” yang menghasilkan gambar paus wanita dan viking hitam – telah menerima kritik karena memberikan nasihat palsu dan terkadang berbahaya dalam ringkasannya, Menurut Times of London.

Alat kecerdasan buatan terbaru dari Google, yang dirancang untuk memberikan jawaban cepat untuk pencarian, dihadapkan dengan kritik. CEO Google Sundar Pichai digambarkan. AFP Via Getty Images

Dalam satu kasus ikhtisar AI Menambahkan lem ke saus pizza Untuk membantu keju lebih baik, knalpot melaporkan.

Di yang lain, itu menggambarkan kalimat palsu – “Anda tidak bisa menjilat das dua kali” – – Seperti idiom yang sah.

Itu Halusinasi, sebagaimana para ilmuwan komputer menyebutnyadiperburuk oleh alat AI yang mengurangi visibilitas sumber terkenal.

Alih-alih memimpin pengguna langsung ke situs web, merangkum informasi dari hasil pencarian dan menyajikan jawaban yang dihasilkan AI sendiri bersama dengan beberapa tautan.

Laurence O’Toole, pendiri Perusahaan Analisis Otoritas, mempelajari dampak alat dan menemukan bahwa tarif klik -melalui ke situs web penerbit turun 40% -60% ketika ikhtisar AI ditampilkan.

“Meskipun ini umumnya untuk pertanyaan yang biasanya tidak dilakukan orang, itu menekankan beberapa bidang spesifik yang harus kami tingkatkan,” kata Liz Reid, kepala pencarian Google, waktu dalam menanggapi insiden lem-op-pizza.

Mode Google AI adalah mode eksperimental menggunakan kecerdasan buatan dan model bahasa besar untuk memproses pencarian dari Google. Gado via Getty Images

“Kisah ini menarik kesimpulan liar yang tidak akurat dan menyesatkan tentang ikhtisar AI berdasarkan contoh lebih dari setahun yang lalu,” kata juru bicara Google kepada The Post.

“Kami memiliki bukti langsung bahwa ikhtisar AI membuat pengalaman pencari lebih baik, dan bahwa orang lebih suka mencari dengan ikhtisar AI. Kami memiliki standar kualitas yang sangat tinggi untuk semua fungsi pencarian, dan sebagian besar ikhtisar AI akurat dan bermanfaat.”

Ikhtisar AI diperkenalkan musim panas lalu dan didukung oleh model bahasa Gemini Google, sebuah sistem yang terlihat seperti chatgpt Openai.

Meskipun ada masalah publik, CEO Google Sundar Pichai telah mempertahankan alat ini Wawancara dengan The VergeIni menyatakan bahwa ini membantu pengguna untuk menemukan berbagai sumber informasi yang lebih luas.

“Dalam tahun lalu jelas bagi kami bahwa lebar daerah di mana kami mengirim orang meningkat … kami pasti akan mengirim lalu lintas ke berbagai sumber dan penerbit,” katanya.

Google tampaknya menurunkan persentase halusinasi sendiri.

Ketika seorang jurnalis Google mencari informasi tentang seberapa sering hal -hal AI salah, respons AI mengklaim tingkat halusinasi antara 0,7% dan 1,3%.

Tinjauan AI Google, diperkenalkan musim panas lalu dan didukung oleh model bahasa Gemini, sebuah sistem yang mirip dengan chatgpt. Ap

Namun, data dari platform pemantauan AI yang memeluk wajah menunjukkan bahwa tingkat aktual untuk model Gemini terbaru adalah 1,8%.

Model AI Google juga tampaknya menawarkan pertahanan yang telah diprogram dari perilaku mereka sendiri.

Menanggapi pertanyaan apakah AI mencuri ilustrasi, alat itu mengatakan bahwa “tidak ada seni mencuri dalam arti tradisional.”

Ketika ditanya apakah orang harus takut pada AI, alat itu berjalan melalui sejumlah kekhawatiran umum sebelum ia menyimpulkan bahwa “ketakutan mungkin dibesar -besarkan”.

Beberapa ahli khawatir bahwa sistem AI generatif menjadi lebih kompleks, mereka juga menjadi lebih rentan terhadap kesalahan – dan bahkan pembuatnya tidak dapat sepenuhnya menjelaskan alasannya.

Kekhawatiran tentang halusinasi melampaui Google.

Openai baru-baru ini mengakui bahwa model terbarunya, yang dikenal sebagai O3 dan O4-Mini, Halusinat lebih sering daripada versi sebelumnya.

Dalam 33% kasus, tes internal menunjukkan informasi, sementara O4-Mini melakukan ini 48% dari waktu, terutama ketika menjawab pertanyaan tentang orang sungguhan.

Tautan sumber

Leave a Reply

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Trending

Exit mobile version