Pendapat

Anthropic akan mulai melatih model AI Anda dalam transkripsi obrolan

Published

on

Antropik akan mulai melatih model AI dalam data pengguna, termasuk transkrip obrolan baru dan sesi pengkodean, kecuali jika pengguna memilih untuk tidak berpartisipasi. Ini juga memperluas kebijakan retensi data lima tahun – sekali lagi, untuk pengguna yang tidak memilih untuk memilih untuk tidak berpartisipasi.

Semua pengguna harus membuat keputusan hingga 28 September. Untuk pengguna yang mengklik “menerima” sekarang, Antropik akan segera mulai melatih model mereka dalam data mereka dan menyimpan data ini hingga lima tahun, menurut sebuah posting blog yang diterbitkan oleh Anthropic pada hari Kamis.

Konfigurasi berlaku untuk “Obrolan baru atau yang dilanjutkan dan sesi pengkodean”. Bahkan jika Anda setuju dengan pelatihan antropik, model AI Anda dalam data Anda, itu tidak melakukannya dengan obrolan sebelumnya atau sesi pengkodean yang belum Anda dilanjutkan. Tetapi jika Anda melanjutkan sesi obrolan atau pengkodean lama, semua taruhan dinonaktifkan.

Pembaruan berlaku untuk semua lapisan tanda tangan konsumsi Claude, termasuk Claude Free, Pro dan Max, “termasuk ketika menggunakan kode akun Claude of Accounts yang terkait dengan rencana ini,” tulis Anthropic. Tetapi mereka tidak berlaku untuk penggunaan komersial antropik, seperti Claude Gov, Claude for Work, Claude for Education atau API, “termasuk pihak ketiga seperti Amazon Bedrock dan Google Cloud’s Vertex AI.”

Pengguna baru harus memilih preferensi mereka melalui proses pendaftaran Claude. Pengguna yang ada harus memutuskan melalui sembulan, yang dapat mereka tunda dengan mengklik tombol “tidak sekarang”-meskipun mereka dipaksa untuk membuat keputusan pada 28 September.

Tetapi penting untuk dicatat bahwa banyak pengguna dapat melakukannya dengan benar dan cepat “menerima” tanpa membaca apa yang mereka setujui.

Munculan yang akan dilihat pengguna, dalam huruf besar, “pembaruan untuk istilah dan kebijakan konsumen” dan baris di bawah ini mengatakan: “Pembaruan untuk istilah konsumen dan kebijakan privasi kami akan mulai berlaku pada 28 September 2025. Anda dapat menerima persyaratan yang diperbarui hari ini.” Ada tombol hitam besar “terima” di bagian bawah.

Dalam pencetakan yang lebih kecil di bawah ini, beberapa baris mengatakan: “Izinkan penggunaan obrolan dan sesi pengkodean mereka untuk melatih dan meningkatkan model AI Anthropis”, dengan sakelar / off di sebelah. Ini secara otomatis didefinisikan sebagai “aktif”. Rupanya, banyak pengguna segera mengklik tombol “Terima” segera tanpa mengubah sakelar pergantian, bahkan jika mereka tidak membacanya.

Jika Anda ingin memilih untuk tidak berpartisipasi, Anda dapat mengganti sakelar ke “mematikan” saat popup datang. Jika Anda telah menerima tanpa menyadarinya dan ingin mengubah keputusan Anda, navigasikan ke pengaturan Anda, tab Privasi, bagian Pengaturan Privasi dan akhirnya beralih ke “OFF” dalam opsi “membantu meningkatkan Claude.” Konsumen dapat mengubah keputusan mereka kapan saja melalui pengaturan privasi mereka, tetapi keputusan baru ini akan berlaku untuk data di masa depan – Anda tidak dapat melanjutkan data ke sistem telah dilatih.

“Untuk melindungi privasi pengguna, kami menggunakan kombinasi alat dan proses otomatis untuk memfilter atau menaungi data rahasia,” tulis Anthropic dalam posting blog. “Kami tidak menjual data pengguna ke pihak ketiga.”

Tautan sumber

Leave a Reply

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *

Trending

Exit mobile version