Dở khóc dở cười vụ ‘luật sư bị phạt vì ChatGPT bịa vụ án’

Dở khóc dở cười vụ ‘luật sư bị phạt vì ChatGPT bịa vụ án’

bởi

trong
Dở khóc dở cười vụ ‘luật sư bị phạt vì ChatGPT bịa vụ án’

Một luật sư đã tin tưởng hoàn toàn về hai án lệ mà ChatGPT bịa ra và nộp chúng lên tòa án.

Việc AI xuất hiện trong nơi làm việc đã khiến . Bên cạnh đó, nhiều người đã dùng AI trong việc làm và xem AI như một trợ thủ đắc lực. Từ đây, nhiều chuyện dở khóc dở cười đã diễn ra.

ChatGPT đã gây ra cơn sốt AI lớn nhất cho đến giờ, khi có thể trả lời được rất nhiều câu hỏi và viết những bài luận dài, những câu chuyện hư cấu, và cả những bài thơ.

Những ai đã từng thử dùng ChatGPT ắt hẳn đều đã nhận được rất nhiều sản phẩm viết lách khác nhau, và hầu hết đều có chất lượng cao. Cũng từ đó, nhiều người đã dùng AI trong việc làm, đặc biệt là những người làm các công việc liên quan tới viết lách.

Cụ thể, đó là các luật sư. Chỉ trong vòng vài năm từ lúc ChatGPT ra đời, quanh thế giới đã có rất nhiều luật sư phải vì cái tội dùng ChatGPT.

Tất cả các vụ việc này đều bắt đầu từ một văn bản mà luật sư nộp lên tòa. Trong một vụ việc, ChatGPT đã đưa ra hai vụ kiện trước với tình tiết rất giống vụ kiện mà luật sư đã theo đuổi, và nói rằng hai vụ kiện này là có thật, luật sư có thể đưa ra để làm lý do thuyết phục tòa phán quyết có lợi cho thân chủ của mình.

Luật sư đó đã làm như vậy. Khổ thay, hai vụ kiện đó là không có thật. Khi bị lật tẩy, luật sư khai rằng đã hỏi ChatGPT rất kỹ và ChatGPT thề tới thề lui rằng hai vụ kiện đó có thật. Luật sư đó bị tước bằng và nhận rất nhiều hình phạt khác.

Điều tương tự cũng xảy ra với nhiều người khác. Khi AI tự chế tạo ra một điều gì đó và nói ra điều đó như thể nó là sự thật, thì vấn đề nằm ở chỗ, liệu người đọc phải thông tin đó có thể tin nó hay không?

Con người khi đưa ra một dữ kiện nhưng dữ kiện đó sai, thì có hai khả năng: một là người đó biết là sai nhưng vẫn đưa ra như thể nó có thật vì một động cơ nào đó; hai là người đó không biết là sai.

Khi AI làm một việc như vậy, thật không thể hiểu nổi lý do là gì? Là AI gặp phải lỗi gì đó, hay là AI “biết” nhưng vẫn tạo ra thông tin giả như vậy?

AI rốt cục chỉ là một phần mềm, và cái “neural network” (mạng lưới thần kinh nhân tạo) tức là cái mạng lưới tạo nên bộ não của AI, thật ra là một số nguyên tắc và xác suất khác nhau được gom lại và vận dụng theo quy trình.

Bởi vì là một phần mềm, nên cho dù là ai sử dụng, một chương trình AI sẽ vẫn có một “tính cách” như nhau, và mang tính cách của người sáng tạo và người dạy dỗ.

Midjourney, chương trình AI chuyên về vẽ tranh và tạo ảnh, đã được tạo ra bằng một chương trình “dạy dỗ” khổng lồ, trong đó những người tạo ra Midjourney đã “vét sạch” Internet, lấy tất cả mọi hình ảnh trên Internet để dạy dỗ Midjourney, theo lời của nhà sáng lập Midjourney.

Vậy mà các bức tranh được tạo ra từ Midjourney vẫn cứ có một cái gì đó rất giống nhau. Đại khái là bạn xem tranh của Picasso thì mọi tác phẩm của ông đều có một cái hồn, và Midjourney cũng vậy, mọi tác phẩm của nó đều có một cái hồn, và cái hồn đó thì rất vô hồn.

ChatGPT cũng vậy, và các chương trình AI chuyên biệt dành cho luật sư mà tôi đã thử qua cũng vậy. Mọi tác phẩm được sản xuất từ cùng một phần mềm AI đều có một tính cách như nhau, bởi xét cho cùng thì nó vẫn là một hệ thống mà thôi.

Khi đó, người dùng AI để tạo ra sản phẩm cũng phải chấp nhận là AI không thể thực sự sáng tạo ra cái gì khác ngoài bản thân của nó.

Khi một người ứng dụng AI trong việc làm, người đó phải chấp nhận rằng mình là “sếp” và AI là “người làm thuê”. Chỉ có điều là người làm thuê thì có lương tâm, có trách nhiệm, còn AI thì không.

Mặt khác, khi bạn làm chủ và thuê người làm thì bạn phải có khả năng chuyên môn nhất định để đánh giá hiệu quả công việc của người làm thuê. Một người chủ tiệm làm móng thì cũng phải có khả năng làm móng, nếu không thì e là sẽ bị thợ qua mặt.

AI cũng vậy, khi bạn sử dụng nó thì ít nhất là bạn cũng nên có khả năng làm công việc mà bạn đang giao phó cho AI. Nếu không, bạn sẽ không thể kiểm tra được chất lượng công việc mà AI làm, để rồi phải lãnh hậu quả từ những sai lầm của AI.

Công việc hàng ngày của tôi là viết lách, và hầu hết mọi thứ đều có sẵn khuôn mẫu. Tuy vậy, mỗi vụ việc lại có nhiều tình tiết khác nhau, và cần rất nhiều dữ liệu khác nhau. Việc viết những bản lý luận nộp lên tòa chỉ là bước cuối. Sau khi bản lý luận đã được viết ra thì tôi phải ký tên, và sản phẩm của AI giờ là của tôi.

Những ai sử dụng AI trong công việc cũng vậy. Sau khi ký tên vào văn bản hay gởi nó đi thì đấy là sản phẩm của mình. Cho dù là vẽ tranh hay viết lách, viết nhạc hay giải toán thì đó cũng là đồ của AI.

Người tiêu thụ các sản phẩm đó sẽ vẫn truy tìm tới bạn khi sản phẩm có vấn đề. Còn bạn có khả năng chịu trách nhiệm cho sản phẩm của AI hay không thì là việc khác.

Khanh Huỳnh