Penggunaan ChatGPT yang kekok telah mendarat di sebuah firma undang-undang New York City dengan denda $ 5,000.
Setelah mendengar begitu banyak tentang chatbot berkuasa AI OpenAI yang mengagumkan, peguam Steven Schwartz memutuskan untuk menggunakannya untuk penyelidikan, sambil menambah petikan kes yang dihasilkan ChatGPT kepada taklimat undang-undang yang diserahkan kepada hakim awal tahun ini. Tetapi tidak lama kemudian muncul bahawa kes-kes itu telah sepenuhnya dibuat oleh chatbot.
Hakim Daerah AS P. Kevin Castel pada Khamis memerintahkan peguam Steven Schwartz dan Peter LoDuca, yang mengambil alih kes itu daripada rakan sekerjanya, dan firma guaman mereka Levidow, Levidow & Oberman, untuk membayar denda $5,000.
Hakim itu berkata peguam telah membuat “tindakan mengelak secara sedar dan kenyataan palsu dan mengelirukan kepada mahkamah,” sambil menambah bahawa mereka telah “mengabaikan tanggungjawab mereka” dengan mengemukakan taklimat bertulis A.I. sebelum berdiri dengan “pendapat palsu selepas perintah kehakiman memanggil kewujudan mereka dipersoalkan.”
Castel meneruskan: “Banyak kemudaratan mengalir dari penyerahan pendapat palsu. Pihak lawan membuang masa dan wang dalam mendedahkan penipuan itu. Masa mahkamah diambil daripada usaha penting lain.”
Hakim menambah bahawa tindakan peguam “menggalakkan sinis mengenai profesion undang-undang dan sistem kehakiman Amerika.”
Firma undang-undang Manhattan berkata ia “dengan hormat” tidak bersetuju dengan pendapat mahkamah, menyifatkannya sebagai “kesilapan niat baik.”
Pada perbicaraan mahkamah berkaitan awal bulan ini, Schwartz berkata beliau mahu “memohon maaf dengan ikhlas” atas apa yang telah berlaku, menjelaskan bahawa dia fikir dia menggunakan enjin carian dan tidak tahu bahawa alat AI boleh menghasilkan tidak benar. Beliau berkata beliau “sangat menyesal” tindakannya,” sambil menambah: “Saya menderita secara profesional dan peribadi [because of] publisiti meluas isu ini telah dihasilkan. Saya berdua malu, dihina dan sangat menyesal.
Insiden itu dikaitkan dengan kes yang diambil oleh firma guaman melibatkan seorang penumpang yang menyaman syarikat penerbangan Columbia, Avianca selepas mendakwa dia mengalami kecederaan dalam penerbangan ke New York City.
Avianca meminta hakim membuang kes itu, jadi pasukan undang-undang penumpang menyusun ringkas memetik enam kes serupa dalam usaha memujuk hakim untuk membiarkan kes anak guam mereka diteruskan. Schwartz menemui kes-kes tersebut dengan bertanya kepada ChatGPT, tetapi dia gagal memeriksa kesahihan hasilnya. Pasukan undang-undang Avianca menimbulkan kebimbangan apabila ia berkata ia tidak dapat mengesan kes-kes yang terkandung dalam ringkas itu.
Dalam perintah berasingan pada Khamis, hakim membenarkan usul Avianca untuk menolak saman terhadapnya, menjadikan keseluruhan episod maaf itu ditutup.
ChatGPT dan chatbots lain seperti itu telah mendapat banyak perhatian dalam beberapa bulan kebelakangan ini kerana keupayaan mereka untuk bercakap dengan cara seperti manusia dan mahir melaksanakan pelbagai tugas berasaskan teks yang semakin meningkat. Tetapi mereka juga diketahui membuat sesuatu dan membentangkannya seolah-olah ia benar. Ia sangat lazim bahawa ada istilah untuknya: “halusinasi.”
Mereka yang bekerja pada alat AI generatif sedang meneroka cara untuk mengurangkan halusinasi, tetapi sehingga itu pengguna dinasihatkan untuk memeriksa dengan teliti sebarang “fakta” yang chatbots meludah.