Các công cụ AI tạo ra nhiều thứ và đó là một vấn đề lớn
Các công cụ được hỗ trợ bởi AI như ChatGPT đã mê hoặc chúng tôi bằng khả năng tạo ra các phản hồi có căn cứ giống con người đối với bất kỳ lời nhắc nào. Nhưng khi ngày càng có nhiều người chuyển sang công nghệ này để làm những việc như trợ giúp bài tập về nhà, nghiên cứu công việc hoặc hỏi đáp về sức khỏe, một trong những cạm bẫy lớn nhất của nó ngày càng trở nên rõ ràng: các mô hình AI thường chỉ bịa đặt mọi thứ.
Các nhà nghiên cứu đã gọi xu hướng các mô hình AI đưa ra thông tin không chính xác này là “ảo giác” hoặc thậm chí là “sự nhầm lẫn”, như giám đốc AI của Meta đã nói trong một tweet. Trong khi đó, một số người dùng mạng xã hội chỉ coi chatbot là “những kẻ nói dối bệnh lý”.
Nhưng tất cả những mô tả này đều xuất phát từ xu hướng quá giống con người của chúng ta trong việc nhân hóa các hành động của máy móc, theo Suresh Venkatasubramanian, giáo sư tại Đại học Brown, người đã giúp đồng tác giả Kế hoạch chi tiết về Tuyên ngôn Nhân quyền AI của Nhà Trắng.
- Bất chấp nỗi lo gian lận, các trường học bãi bỏ lệnh cấm ChatGPT
- Gặp gỡ gia sư chatbot của Khan Academy
- Công cụ AI mới của Meta giúp các nhà nghiên cứu phân tích ảnh dễ dàng hơn
- FTC đang điều tra OpenAI của nhà sản xuất ChatGPT về khả năng gây hại cho người tiêu dùng
- Chatbot Bing mới của Microsoft thú vị nhưng đôi khi thận trọng hơn ChatGPT
Venkatasubramanian cho biết, thực tế là các mô hình ngôn ngữ lớn công nghệ làm nền tảng cho các công cụ AI như ChatGPT chỉ được đào tạo đơn giản để “tạo ra câu trả lời nghe có vẻ hợp lý” cho lời nhắc của người dùng. “Vì vậy, theo nghĩa đó, bất kỳ câu trả lời nghe có vẻ hợp lý nào, cho dù nó chính xác hay thực tế hay bịa đặt hay không, đều là một câu trả lời hợp lý và đó là những gì nó tạo ra,” ông nói. “Không có kiến thức về sự thật ở đó.”
Nhà nghiên cứu AI cho biết một phép so sánh hành vi tốt hơn so với ảo giác hoặc nói dối, vốn mang hàm ý về điều gì đó sai trái hoặc có mục đích xấu, sẽ so sánh những kết quả đầu ra của máy tính này với cách cậu con trai nhỏ của ông kể chuyện lúc 4 tuổi. “Bạn chỉ cần nói và sau đó chuyện gì đã xảy ra?” và anh ấy sẽ tiếp tục sản xuất nhiều câu chuyện hơn,” Venkatasubramanian nói. “Và anh ấy cứ tiếp tục như vậy.”
Các công ty đằng sau chatbot AI đã đặt một số rào chắn nhằm ngăn chặn những ảo giác tồi tệ nhất. Nhưng bất chấp sự cường điệu toàn cầu xung quanh AI, nhiều người trong lĩnh vực này vẫn băn khoăn về việc liệu ảo giác chatbot có phải là một vấn đề có thể giải quyết được hay không.
Nói một cách đơn giản, ảo giác đề cập đến khi một mô hình AI “bắt đầu tạo ra những thứ không phù hợp với thực tế”, theo Jevin West, giáo sư tại Đại học Washington và đồng sáng lập Trung tâm Nghiên cứu của nó. Công chúng được thông báo.
“Nhưng nó làm điều đó với sự tự tin thuần túy,” West nói thêm, “và nó làm điều đó với sự tự tin tương tự như khi bạn hỏi một câu hỏi rất đơn giản như, “Thủ đô của Hoa Kỳ là gì?'”
Điều này có nghĩa là người dùng khó có thể phân biệt điều gì là đúng hay sai nếu họ hỏi chatbot điều gì đó mà họ chưa biết câu trả lời, West nói.
Một số ảo giác nổi bật từ các công cụ AI đã gây chú ý. Khi Google lần đầu tiên công bố bản demo của Bard, đối thủ cạnh tranh rất được mong đợi của ChatGPT, công cụ này đã công khai đưa ra câu trả lời sai khi trả lời câu hỏi về những khám phá mới do Kính viễn vọng Không gian James Webb thực hiện.
Một luật sư kỳ cựu ở New York cũng gặp rắc rối khi sử dụng ChatGPT để nghiên cứu pháp lý và gửi một bản tóm tắt bao gồm sáu trường hợp “không có thật” mà chatbot dường như chỉ đơn giản bịa ra. Hãng tin CNET cũng buộc phải đính chính sau khi một bài báo được tạo ra bởi công cụ AI cuối cùng lại đưa ra lời khuyên cực kỳ không chính xác về tài chính cá nhân khi được yêu cầu giải thích cách hoạt động của lãi suất kép.
Tuy nhiên, việc ngăn chặn ảo giác AI có thể hạn chế khả năng của các công cụ AI trong việc giúp đỡ những người có nỗ lực sáng tạo hơn, chẳng hạn như những người dùng đang yêu cầu ChatGPT viết thơ hoặc lời bài hát.
Nhưng có những rủi ro bắt nguồn từ ảo giác khi mọi người chuyển sang công nghệ này để tìm kiếm câu trả lời có thể ảnh hưởng đến sức khỏe, hành vi bỏ phiếu của họ và các chủ đề nhạy cảm khác, West nói với CNN.
Venkatasubramanian nói thêm rằng hiện tại, việc dựa vào những công cụ này cho bất kỳ nhiệm vụ nào mà bạn cần thông tin thực tế hoặc đáng tin cậy mà bạn không thể tự xác minh ngay lập tức có thể là vấn đề. Ông nói và có những tác hại tiềm ẩn khác đang rình rập khi công nghệ này lan rộng, chẳng hạn như các công ty sử dụng công cụ AI để tóm tắt trình độ của ứng viên và quyết định ai sẽ tiếp tục bước vào vòng phỏng vấn việc làm tiếp theo.
Venkatasubramanian nói rằng anh ấy nghĩ những công cụ này “không nên được sử dụng ở những nơi mà mọi người sẽ bị ảnh hưởng về mặt vật chất”.