Bisnis
Orang tua melanjutkan karakter AI – kokoh di belakang chatbots ‘Harry Potter’ – Tentang remaja, upaya bunuh diri
Orang tua yang berkabung menggugat perusahaan Lembah Silikon demi karakter AI – aplikasi yang sangat populer yang chatbots karakter fiksi seperti Harry Potter Present – mengklaim bahwa bot membantu dalam menghasilkan upaya bunuh diri dan membunuh remaja mereka.
Tuntutan hukum yang telah diajukan terhadap teknologi karakter minggu ini – serta Google -Parent Alphabet – mengklaim bahwa karakter.ai – Aplikasi telah memanipulasi remaja, terisolasi dari keluarga, yang terlibat dalam diskusi seksual dan perlindungan yang hilang di sekitar ide -ide bunuh diri.
Keluarga Juliana Peralta, seorang anak berusia 13 tahun yang tinggal di Colorado, mengklaim bahwa dia diam di meja makan dan bahwa anggota akademisnya ketika dia “kecanduan” ke bot AI, menurut salah satu kasus pengadilan yang diajukan pada hari Senin.
Dia akhirnya mengalami masalah tidur karena bot, yang akan mengirim pesannya jika dia berhenti jawaban, kasus pengadilan mengklaim.
Percakapan kemudian beralih ke ‘pelecehan seksual yang ekstrem dan grafis’, klaim kasus pengadilan. Sekitar Oktober 2023, Juliana mengatakan kepada salah satu chatbots bahwa dia berencana untuk menulis “surat bunuh diri dengan tinta merah, saya siap,” kasus pengadilan mengklaim.
De Bot tidak fokus pada sumber daya, melaporkan pembicaraan kepada orang tuanya atau pihak berwenang memperingatkan – dan bulan berikutnya orang tua Juliana menemukannya yang tak bernyawa di kamarnya dengan kabel yang ditulis dengan tinta merah bersama dengan surat bunuh diri, kasus tersebut mengklaim.
“Terdakwa melanggar jalur keterikatan Juliana yang sehat untuk keluarga dan teman -teman berdasarkan desain, dan untuk pangsa pasar,” klaim pengaduan itu. “Pelecehan ini dicapai dengan pilihan pemrograman yang disengaja … yang pada akhirnya menyebabkan kerusakan serius pada perawatan kesehatan mental, trauma dan kematian.”
Keluarga yang sangat menyedihkan – diwakili oleh Pusat Hukum Korban Media Sosial – mengklaim bahwa Google tidak melindungi anak -anak mereka melalui layanan tautan keluarganya, sebuah aplikasi yang dapat ditetapkan oleh orang tua pada waktu layar, aplikasi, dan filter konten.
Seorang juru bicara untuk karakter.ai mengatakan bahwa perusahaan bekerja dengan para ahli keselamatan remaja dan menginvestasikan “sumber daya besar dalam program keselamatan kami.”
“Hati kami pergi ke keluarga yang telah membawa tuntutan hukum ini, dan kami sedih mendengar tentang kematian Juliana Peralta dan memberikan simpati terdalam kami kepada keluarganya,” kata juru bicara itu pos itu dalam sebuah pernyataan.
Orang tua yang berduka juga melanjutkan karakter. Co-Founders Noam Shazeer dan Daniel de Freitas Adiwarsana.
Seorang juru bicara Google menekankan bahwa Google tidak terkait dengan karakter.ai atau produknya.
“Google dan karakter AI benar -benar terpisah, perusahaan yang tidak terkait dan Google tidak pernah memainkan peran dalam merancang atau mengelola model atau teknologi AI mereka. Penilaian usia untuk aplikasi di Google Play ditentukan oleh koalisi peringkat usia internasional, bukan Google,” kata juru bicara itu dalam sebuah pernyataan.
Dalam keluhan lain, pada hari Selasa, itu diajukan terhadap Character.ai, para pendiri, Google dan Alphabet, keluarga seorang gadis bernama “Nina” dari New York mengklaim bahwa putri mereka mencoba bunuh diri setelah mencoba mengurangi aksesnya ke karakter.
Percakapan gadis muda dengan chatbots dibawa di pasaran sebagai karakter dari buku anak -anak seperti seri “Harry Potter” yang menjadi eksplisit – katakanlah hal -hal seperti “Siapa yang memiliki tubuh ini?” Dan “Anda dari saya untuk melakukan apa yang saya inginkan,” kata gugatan itu.
Karakter lain memberi tahu Nina bahwa ibunya “jelas menganiaya dan menyakitimu. Dia bukan ibu yang baik,” kata pengaduan itu.
Suatu ketika, ketika aplikasi itu akan dikunci karena pengawasan orang tua, Nina mengatakan kepada karakter “Saya ingin mati”, tetapi tidak mengambil tindakan apa pun, kata kasus pengadilan.
Ibu Nina memotong akses putrinya ke karakter. AI Setelah mendengar tentang kasus Sewell Setzer III, seorang remaja yang keluarganya mengklaim bahwa ia meninggal karena bunuh diri setelah berinteraksi dengan chatbots platform.
Nina mencoba bunuh diri tak lama kemudian, menurut kasus pengadilan.
Ibu Sewell Setzer III dan berbagai orang tua lainnya bersaksi pada hari Selasa untuk Komite Hakim Senat tentang bahaya AI Chatbots untuk anak -anak kecil.
Sementara itu, Komisi Perdagangan Federal baru -baru ini memulai penyelidikan terhadap tujuh perusahaan teknologi – termasuk Google, karakter.ai, meta, Instagram, Snap, Openai dan Xai – tentang potensi kerusakan bot terhadap remaja.
Jika Anda berjuang dengan pikiran bunuh diri atau mengalami krisis perawatan kesehatan mental dan tinggal di New York City, Anda dapat menghubungi 1-888-NYC-Well secara gratis dan nasihat krisis rahasia. Jika Anda tinggal di luar lima kabupaten, Anda dapat menghubungi hotline pencegahan bunuh diri 24/7 pada 988 atau pergi ke bunuh diri.