Theo các chuyên gia pháp lý, đây là ví dụ mới nhất về việc trí tuệ nhân tạo tạo ra khiến luật sư đi chệch hướng.
![]() |
Một thẩm phán cấp cao đã chỉ trích các luật sư trong hai vụ án gần đây, những người này dường như đã sử dụng các công cụ AI khi chuẩn bị các lập luận bằng văn bản, trong đó có nhắc đến luật lệ giả mạo, và kêu gọi các cơ quan quản lý, các nhà lãnh đạo ngành đảm bảo luật sư phải biết nghĩa vụ đạo đức của mình.
"Sẽ có những tác động nghiêm trọng đến việc quản lý công lý và lòng tin của công chúng vào hệ thống tư pháp nếu trí tuệ nhân tạo bị sử dụng sai mục đích", Thẩm phán Victoria Sharp cho biết trong một phán quyết bằng văn bản.
"Trong những trường hợp đó, những người trong ngành luật có trách nhiệm lãnh đạo cá nhân và những người có trách nhiệm quản lý việc cung cấp dịch vụ pháp lý phải thực hiện các biện pháp thiết thực và hiệu quả".
Phán quyết này được đưa ra sau khi các luật sư trên khắp thế giới buộc phải đưa ra giải thích vì đã dựa vào các thẩm quyền sai lệch, kể từ khi ChatGPT và các công cụ AI trở nên phổ biến rộng rãi hơn hai năm trước.
Thẩm phán Sharp đã cảnh báo trong phán quyết của mình rằng, các luật sư tham khảo các vụ án không tồn tại sẽ gây nhiễu cho các phán quyết của tòa án, điều này cũng có thể dẫn đến hành vi coi thường tòa án.
Bà nói thêm rằng "trong những trường hợp nghiêm trọng nhất, việc cố tình đưa tài liệu sai lệch ra tòa với mục đích can thiệp vào việc quản lý công lý cũng đồng nghĩa với hành vi phạm tội hình sự theo luật chung là làm sai lệch tiến trình công lý".
Bà Sharp cũng lưu ý rằng, các cơ quan quản lý pháp lý và ngành tư pháp đã ban hành hướng dẫn về việc luật sư sử dụng AI, nhưng cho biết "hướng dẫn riêng lẻ là không đủ để giải quyết tình trạng sử dụng sai mục đích trí tuệ nhân tạo".
Công cụ AI còn được biết đến với khả năng có thể tự bịa ra sự thật và các luật sư sử dụng AI phải thận trọng, các chuyên gia pháp lý cho biết.
AI đôi khi tạo ra thông tin sai lệch, được gọi là "ảo giác" trong ngành, vì các mô hình tạo ra phản hồi dựa trên các mẫu thống kê học được từ các tập dữ liệu lớn, thay vì xác minh các sự kiện trong các tập dữ liệu đó.
Mới đây, hai luật sư ở New York đã bị một thẩm phán ở Manhattan xử phạt vì cố gắng tranh luận một vụ án bằng cách sử dụng các bản tóm tắt pháp lý có chứa sáu trích dẫn vụ án hư cấu do ChatGPT tạo ra.
Vị thẩm phán chủ trì phiên tòa xét xử thương tích cá nhân, diễn ra khoảng sáu tháng sau khi chatbot OpenAI ra mắt vào tháng 11/2022, đã phạt mỗi luật sư 5.000 đô la.
Bình luận