Al lan truyền thông tin sai sự thật trên các nền tảng mạng xã hội
Việc AI được sử dụng để sản xuất hàng loạt nội dung tạo cảm giác như thật khiến việc kiểm soát và ngăn chặn tin giả trở nên khó khăn.
Theo NewsGuard, tổ chức theo dõi thông tin sai lệch có trụ sở tại New York, cho biết trí tuệ nhân tạo (AI) đang khiến việc sản xuất và lan truyền tin giả trở nên khó kiểm soát. AI có thể tạo ra các nội dung sai lệch về bầu cử, chiến tranh hay thiên tai với tốc độ nhanh và khó phân biệt với thông tin thật.
Tính đến tháng 5, theo NewsGuard, số lượng trang web chứa bài viết giả mạo được tạo ra bởi AI đã tăng lên hơn 1.000%, từ 49 trang lên hơn 600 trang. Trước đây, nội dung rác hoặc sai lệch thường được tạo ra bởi cá nhân hoặc tổ chức với mục đích nhất định. Tuy nhiên, hiện nay, chỉ cần nhập vài yêu cầu đơn giản vào các mô hình AI như ChatGPT, bất kỳ ai cũng có thể tạo ra những nội dung khó phân biệt với tin tức thật.
NewsGuard cung cấp một ví dụ rõ ràng về cách AI có thể tạo ra câu chuyện giả mạo. Một chương trình truyền hình Iran đã lan truyền tin đồn về việc bác sĩ của Thủ tướng Israel Benjamin Netanyahu đã chết, kèm theo mảnh giấy “gợi ý có sự tham gia của ông Netanyahu”. Nhân vật bác sĩ là hư cấu nhưng câu chuyện này vẫn được một số trang truyền thông đăng tải và lan truyền trên các nền tảng như TikTok, Reddit và Instagram.
Theo Jack Brewster, người đứng đầu nhóm nghiên cứu của NewsGuard, một số trang web sử dụng trí tuệ nhân tạo để tạo ra hàng trăm, thậm chí hàng nghìn bài viết mỗi ngày. Những trang này thường có tên chung chung như iBusiness Day hoặc Ireland Top News. Để tăng tính thuyết phục, chúng thường xen kẽ tin giả với thông tin thật lấy từ các nguồn uy tín.
“Việc đặt song song tin giả và tin thật khiến cho những câu chuyện lừa đảo trở nên đáng tin hơn,” giáo sư Jeffrey Blevins, chuyên gia về báo chí và thông tin sai lệch tại Đại học Cincinnati (Mỹ) chia sẻ. Ông cũng cho biết rằng có những người không đủ kiến thức để phân biệt biết thông tin sai sự thật, dẫn đến việc tin vào những nội dung được tạo ra bằng trí tuệ nhân tạo.
Theo Blevins, việc tạo ra các trang web như vậy có nhiều động cơ như thu hút lượt xem, tăng doanh thu quảng cáo, truyền bá thông tin bầu cử hoặc hạ bệ đối thủ chính trị. “Đây là một điều đáng lo ngại” ông nhấn mạnh. “Mối nguy hiểm chủ yếu nằm ở quy mô và phạm vi của trí tuệ nhân tạo, đặc biệt là khi chúng trở nên thông minh hơn, sử dụng thuật toán phức tạp để tạo nội dung khó phân biệt. Đây thực sự là một cuộc chiến thông tin ở quy mô mà chúng tôi chưa từng thấy trước đây”.
Blevins chia sẻ rằng người dùng có thể nhận biết nội dung tạo ra bởi trí tuệ nhân tạo thông qua các đặc điểm như “ngữ pháp kỳ quặc” hoặc lỗi cấu trúc câu. Tuy nhiên, ông nhấn mạnh rằng công cụ hiệu quả nhất vẫn là nâng cao sự hiểu biết và có thói quen kiểm tra thông tin từ nguồn chính thống thay vì chỉ dựa vào một nguồn thông tin duy nhất.
Hồi tháng 4, ChatGPT đưa giáo sư ngành luật Jonathan Turley vào danh sách những học giả từng quấy rối người khác do giáo sư luật Eugene Volokh thuộc Đại học California đặt câu về tình trạng giảng viên quấy rối tình dục. Chatbot liệt kê 5 trường hợp, nhưng khi Volokh kiểm tra, có ba phản hồi sai, trích dẫn bài viết không có thật từ Washington Post, Miami Herald và Los Angeles Times.
Đầu năm nay, OpenAI cũng bị Brian Hood, thị trưởng vùng Hepburn Shire ở bang Victoria của Australia dọa kiện vì ChatGPT đưa ra tin sai lệch rằng ông từng ngồi tù do bị kết tội hối lộ.
Hiện nay, chatbot Al hoạt động bằng cách tiếp thu lượng lớn nội dung trên Internet, truy xuất từ những nguồn như Wikipedia và Reddit, sau đó tạo ra những phản hồi đáng tin cậy với gần như mọi câu hỏi được đưa ra. Đồng thời, chúng cũng được huấn luyện nhận diện mẫu câu chữ để tạo ra những câu nói và bài viết hoàn chỉnh. Tuy nhiên, mô hình ngôn ngữ hiện nay không có cơ chế đủ tin cậy để xác thực nội dung do chúng đưa ra.