Bisnis
Gambaran umum AI Google ‘berhalusinasi’ dengan menyebarkan info palsu
Ikhtisar AI Google, yang dirancang untuk memberikan jawaban cepat untuk pencarian, dilaporkan meludahkan “halusinasi” informasi palsu dan merusak penerbit dengan menarik pengguna menjauh dari tautan tradisional.
Raksasa teknologi besar – yang mendarat di air panas tahun lalu setelah merilis alat AI “bangun” yang menghasilkan gambar paus wanita dan viking hitam – telah menerima kritik karena memberikan nasihat palsu dan terkadang berbahaya dalam ringkasannya, Menurut Times of London.
Dalam satu kasus ikhtisar AI Menambahkan lem ke saus pizza Untuk membantu keju lebih baik, knalpot melaporkan.
Di yang lain, itu menggambarkan kalimat palsu – “Anda tidak bisa menjilat das dua kali” – – Seperti idiom yang sah.
Itu Halusinasi, sebagaimana para ilmuwan komputer menyebutnyadiperburuk oleh alat AI yang mengurangi visibilitas sumber terkenal.
Alih-alih memimpin pengguna langsung ke situs web, merangkum informasi dari hasil pencarian dan menyajikan jawaban yang dihasilkan AI sendiri bersama dengan beberapa tautan.
Laurence O’Toole, pendiri Perusahaan Analisis Otoritas, mempelajari dampak alat dan menemukan bahwa tarif klik -melalui ke situs web penerbit turun 40% -60% ketika ikhtisar AI ditampilkan.
“Meskipun ini umumnya untuk pertanyaan yang biasanya tidak dilakukan orang, itu menekankan beberapa bidang spesifik yang harus kami tingkatkan,” kata Liz Reid, kepala pencarian Google, waktu dalam menanggapi insiden lem-op-pizza.
“Kisah ini menarik kesimpulan liar yang tidak akurat dan menyesatkan tentang ikhtisar AI berdasarkan contoh lebih dari setahun yang lalu,” kata juru bicara Google kepada The Post.
“Kami memiliki bukti langsung bahwa ikhtisar AI membuat pengalaman pencari lebih baik, dan bahwa orang lebih suka mencari dengan ikhtisar AI. Kami memiliki standar kualitas yang sangat tinggi untuk semua fungsi pencarian, dan sebagian besar ikhtisar AI akurat dan bermanfaat.”
Ikhtisar AI diperkenalkan musim panas lalu dan didukung oleh model bahasa Gemini Google, sebuah sistem yang terlihat seperti chatgpt Openai.
Meskipun ada masalah publik, CEO Google Sundar Pichai telah mempertahankan alat ini Wawancara dengan The VergeIni menyatakan bahwa ini membantu pengguna untuk menemukan berbagai sumber informasi yang lebih luas.
“Dalam tahun lalu jelas bagi kami bahwa lebar daerah di mana kami mengirim orang meningkat … kami pasti akan mengirim lalu lintas ke berbagai sumber dan penerbit,” katanya.
Google tampaknya menurunkan persentase halusinasi sendiri.
Ketika seorang jurnalis Google mencari informasi tentang seberapa sering hal -hal AI salah, respons AI mengklaim tingkat halusinasi antara 0,7% dan 1,3%.
Namun, data dari platform pemantauan AI yang memeluk wajah menunjukkan bahwa tingkat aktual untuk model Gemini terbaru adalah 1,8%.
Model AI Google juga tampaknya menawarkan pertahanan yang telah diprogram dari perilaku mereka sendiri.
Menanggapi pertanyaan apakah AI mencuri ilustrasi, alat itu mengatakan bahwa “tidak ada seni mencuri dalam arti tradisional.”
Ketika ditanya apakah orang harus takut pada AI, alat itu berjalan melalui sejumlah kekhawatiran umum sebelum ia menyimpulkan bahwa “ketakutan mungkin dibesar -besarkan”.
Beberapa ahli khawatir bahwa sistem AI generatif menjadi lebih kompleks, mereka juga menjadi lebih rentan terhadap kesalahan – dan bahkan pembuatnya tidak dapat sepenuhnya menjelaskan alasannya.
Kekhawatiran tentang halusinasi melampaui Google.
Openai baru-baru ini mengakui bahwa model terbarunya, yang dikenal sebagai O3 dan O4-Mini, Halusinat lebih sering daripada versi sebelumnya.
Dalam 33% kasus, tes internal menunjukkan informasi, sementara O4-Mini melakukan ini 48% dari waktu, terutama ketika menjawab pertanyaan tentang orang sungguhan.