Setiap beberapa minggu, tampaknya ada tajuk baru tentang seorang pengacara yang masuk kesulitan Untuk mengirim catatan yang berisi, dalam kata -kata hakim, “penelitian palsu yang dihasilkan oleh AI”. Rinciannya bervariasi, tetapi garis internal adalah sama: seorang pengacara beralih ke model bahasa yang hebat (LLM) seperti chatgpt untuk membantu mereka dengan penelitian hukum (atau lebih buruk, menulis), LLM menghentikan kasus -kasus yang tidak ada, dan pengacara bukan yang paling bijaksana sampai hakim atau yang bertentangan dengan kesalahannya. Dalam beberapa kasus, termasuk proses penerbangan 2023, pengacara Saya harus membayar denda untuk mengirim catatan dengan halusinasi yang dihasilkan oleh AI. Jadi mengapa mereka tidak berhenti?
Pendapat
Mengapa pengacara terus menggunakan chatgpt?
Jawabannya turun terutama ke waktu, dan cara AI berubah menjadi hampir setiap profesi. Basis data penelitian hukum seperti LexisNexis dan Westlaw memiliki integrasi AI sekarang. Bagi pengacara yang menyulap dengan kasus besar, AI mungkin tampak sebagai asisten yang sangat efisien. Sebagian besar pengacara tidak harus menggunakan chatgpt untuk menulis catatan mereka, tetapi semakin menggunakan LLM penelitian lainnya. Namun, banyak dari pengacara ini, seperti banyak dari publik, tidak mengerti persis apa LLM atau bagaimana mereka bekerja. Seorang pengacara yang dulu sanksi Pada tahun 2023, dia bilang dia pikir chatgpt adalah “mesin pencari super”. Pembuatan film dengan kutipan palsu diperlukan untuk mengungkapkan bahwa itu lebih seperti generator frase-acak yang dapat memberikan informasi yang benar atau absurditas untuk meyakinkan.
Andrew Perlman, Rektor Sekolah Hukum Universitas Suffolk, berpendapat bahwa banyak pengacara menggunakan alat AI tanpa insiden, dan mereka yang tertangkap dengan kutipan palsu adalah outlier. “Saya pikir apa yang kita lihat sekarang – meskipun masalah halusinasi ini nyata, dan pengacara harus menganggapnya sangat serius dan berhati -hati – itu tidak berarti alat -alat ini tidak memiliki manfaat besar dan kasus penggunaan untuk layanan hukum,” kata Perlman. Basis data dan sistem penelitian hukum seperti Westlaw menggabungkan layanan AI.
Faktanya, 63 % pengacara Dicari oleh Thomson Reuters Pada tahun 2024, mereka mengatakan mereka menggunakan AI di masa lalu dan 12 % mengatakan mereka menggunakannya secara teratur. Responden mengatakan mereka menggunakan AI untuk menulis ringkasan yurisprudensi dan penelitian “yurisprudensi, undang -undang, bentuk atau bahasa sampel untuk pesanan.” Para pengacara yang disurvei oleh Thomson Reuters melihatnya sebagai alat hemat waktu, dan setengah dari peneliti mengatakan bahwa “mengeksplorasi potensi untuk mengimplementasikan AI” di tempat kerja adalah prioritas tertinggi. “Peran pengacara yang baik seperti ‘konsultan yang dapat diandalkan’ bukan sebagai produser dokumen,” kata seorang yang diwawancarai.
Tetapi, seperti yang ditunjukkan banyak contoh baru -baru ini, dokumen yang dihasilkan oleh AI tidak selalu akurat dan, dalam beberapa kasus, mereka tidak nyata.
Dalam kasus yang menonjol baru -baru ini, pengacara jurnalis Tim Burke, yang ditangkap karena menerbitkan gambar Fox News yang tidak diventilasi pada tahun 2024, mengirim mosi untuk menolak kasus terhadapnya karena alasan Amandemen Pertama. Setelah menemukan bahwa pengajuan termasuk “kesalahan representasi yang signifikan dan kesalahan yurisprudensi dan sejarah yang diduga terkait,” Hakim Kathryn Kimball Mizelle dari Distrik Tengah Florida memerintahkan mosi yang akan dicapai dengan catatan kasus. Mizelle menemukan sembilan halusinasi dalam dokumen, Menurut Topi Bay Times.
Mizelle akhirnya meninggalkan pengacara Burke, Mark Rasch dan Michael Maddux, mengirim mosi baru. Dalam file terpisah yang menjelaskan kesalahan, Rasch menulis bahwa “mengambil tanggung jawab tunggal dan eksklusif atas kesalahan ini.” Rasch mengatakan dia menggunakan fitur “riset mendalam” di chatgpt pro, yang Mengendarai Ini telah diuji dengan hasil yang beragam, serta fitur AI AI Westlaw.
Rasch tidak sendirian. Pengacara yang baru -baru ini mewakili antropia mengaku menggunakan Claude AI perusahaan Untuk membantu menulis pernyataan saksi khusus yang dikirim sebagai bagian dari proses pelanggaran hak cipta, yang disajikan terhadap antropik oleh editor musik. Pengajuan ini termasuk kutipan dengan “judul yang tidak akurat dan penulis yang tidak akurat”. Desember lalu, pakar disinformasi Jeff Hancock mengakui bahwa ia menggunakan chatgpt untuk membantu mengatur kutipan dalam sebuah pernyataan yang ia sajikan untuk mendukung undang -undang Minnesota yang mengatur penggunaan Deepfake. Hancock Archiving termasuk “dua kesalahan kutipan, yang populer disebut” halusinasi “dan penulis yang salah dengan kutipan lain.
Dokumen -dokumen ini, pada kenyataannya, penting – setidaknya di mata para hakim. Dalam kasus baru -baru ini, seorang hakim California yang mengetuai kasus terhadap negara bagian pertanian awalnya dipengaruhi oleh argumen dalam waktu singkat, hanya untuk menemukan bahwa yurisprudensi yang dikutip sepenuhnya diciptakan. “Saya membaca ringkasan mereka, saya dibujuk (atau setidaknya tertarik) oleh pihak berwenang yang mereka kutip dan mencari keputusan untuk mempelajari lebih lanjut tentang mereka – hanya untuk mengetahui bahwa mereka tidak ada,” tulis Hakim Michael Wilner.
Perlman mengatakan ada beberapa cara yang kurang berisiko di mana pengacara menggunakan generatif dalam pekerjaan mereka, termasuk menemukan informasi dalam angsuran besar dokumen penemuan, merevisi ringkasan atau catatan dan melakukan brainstorming argumen yang mungkin atau kemungkinan pendapat yang berlawanan. “Saya pikir di hampir semua tugas, ada cara di mana AI generatif dapat bermanfaat – bukan pengganti penilaian pengacara, bukan pengganti pengalaman yang dibawa pengacara ke meja, tetapi untuk melengkapi apa yang dilakukan pengacara dan membiarkan mereka melakukan pekerjaan mereka dengan lebih baik, lebih cepat dan lebih murah,” kata Perlman.
Tetapi, seperti siapa pun yang menggunakan alat AI, pengacara yang mempercayai mereka untuk membantu penelitian hukum dan esai perlu berhati -hati untuk memeriksa pekerjaan yang mereka hasilkan, kata Perlman. Bagian dari masalahnya adalah bahwa pengacara sering memiliki sedikit waktu – masalah yang dia katakan sebelum LLMS memasuki tempat kejadian. “Bahkan sebelum kemunculan Generatif, pengacara mengajukan dokumen dengan kutipan yang benar -benar tidak membahas masalah yang mereka klaim atasi,” kata Perlman. “Itu hanya jenis masalah yang berbeda. Kadang -kadang ketika pengacara tergesa -gesa, mereka memasukkan kutipan, mereka tidak memeriksanya dengan benar; mereka benar -benar tidak melihat apakah kasusnya telah dibatalkan atau dibatalkan.” (Yang mengatakan, kasus -kasus setidaknya ada biasanya.)
Masalah lain yang lebih berbahaya adalah kenyataan bahwa pengacara – seperti orang lain yang menggunakan LLM untuk membantu penelitian dan menulis – sangat mengandalkan apa yang dihasilkan IA. “Saya pikir banyak orang dikemas dengan rasa nyaman dengan produksi, karena tampaknya pada pandangan pertama diciptakan dengan sangat baik,” kata Perlman.
Alexander Kolodin, seorang pengacara pemilihan dan perwakilan dari negara Republik di Arizona, mengatakan mereka memperlakukan chatgpt sebagai anggota tingkat junior. Dia juga menggunakan chatgpt untuk membantu menulis undang -undang. Pada tahun 2024, ia memasukkan teks AI sebagai bagian dari RUU dalam Deepfake, menyebabkan LLM memberikan “definisi garis dasar” dari apa Deepfakes itu, dan kemudian “saya, manusia, ditambahkan dalam perlindungan untuk hak asasi manusia, hal -hal seperti itu tidak termasuk komedi, sindiran, kritik, ekspresi artistik, hal semacam ini”, kolodin diberi tahu Wali Saat ini. Kolodin mengatakan dia “mungkin telah” mendiskusikan penggunaan chatgpt dengan co -patrocator Demokrat utama proyek, tetapi dia ingin menjadi “telur paskah” dalam RUU itu. Proyek ini menjalani undang -undang.
Kolodin – siapa Diketapkan oleh Arizona State Order pada tahun 2020 Karena keterlibatannya dalam tuntutan hukum, menantang hasil pemilihan 2020 – juga menggunakan chatgpt untuk menulis draft amandemen pertama dan mengatakan Mengendarai Dia juga menggunakan untuk penelitian hukum. Untuk menghindari masalah halusinasi, katanya, hanya memeriksa kutipan untuk memastikan mereka nyata.
“Anda biasanya tidak mengirim produk kerja dari anggota junior tanpa memeriksa kutipan,” kata Kolodin. “Bukan hanya mesin yang berhalusinasi; seorang anggota junior bisa membaca kasus yang salah, dia benar -benar tidak mewakili proposisi yang dikutip, apa pun itu. Anda masih perlu mengutipnya, tetapi Anda tetap harus melakukannya dengan rekanan, kecuali mereka sudah cukup berpengalaman.”
Kolodin mengatakan dia menggunakan alat Pro “Deep Research” dari ChatGPT dan alat AI Lexisnexis. Seperti Westlaw, Lexisnexis adalah alat penelitian hukum yang digunakan terutama oleh pengacara. Kolodin mengatakan bahwa dalam pengalamannya, ia memiliki tingkat halusinasi yang lebih tinggi daripada chatgpt, yang katanya “jatuh secara substansial tahun lalu.”
Penggunaan AI di antara pengacara menjadi begitu lazim sehingga pada tahun 2024 American Bar Association mengeluarkan panduan pertama Anda dalam penggunaan pengacara dan alat AI lainnya.
Pengacara yang menggunakan alat AI “memiliki tugas kompetensi, termasuk pemeliharaan kompetensi teknologi yang relevan, yang membutuhkan pemahaman tentang sifat evolusioner” AI generatif, pendapat membaca. Orientasi menyarankan pengacara untuk “memperoleh pemahaman umum tentang manfaat dan risiko alat GAI” yang mereka gunakan – atau, dengan kata lain, tidak berasumsi bahwa LLM adalah “mekanisme penelitian super”. Pengacara juga harus menimbang risiko kerahasiaan memasukkan informasi yang terkait dengan kasus mereka di LLMS dan mempertimbangkan apakah mereka harus memberi tahu klien mereka tentang menggunakan LLM dan alat AI lainnya, katanya.
Perlman optimis tentang penggunaan pengacara. “Saya pikir AI generatif akan menjadi teknologi paling berdampak yang pernah dilihat oleh profesi hukum dan bahwa pengacara harus menggunakan alat -alat ini di masa depan,” katanya. “Saya pikir pada titik tertentu kita akan berhenti mengkhawatirkan tentang kompetensi pengacara yang menggunakan alat -alat ini dan kita akan mulai khawatir tentang kompetensi pengacara yang tidak.”
Lainnya, termasuk salah satu hakim yang menyetujui pengacara karena mengirim dokumen yang penuh dengan halusinasi yang dihasilkan IMA, lebih skeptis. “Bahkan dengan kemajuan terbaru,” tulis Wilner, “tidak ada pengacara yang cukup kompeten yang harus mengatasi penelitian dan penulisan untuk teknologi ini terutama tanpa upaya untuk memverifikasi keakuratan materi ini.”