FTC đang điều tra OpenAI của nhà sản xuất ChatGPT về khả năng gây hại cho người tiêu dùng
Ủy ban Thương mại Liên bang đang điều tra OpenAI về khả năng vi phạm luật bảo vệ người tiêu dùng. Bắt đầu từ tìm kiếm nhiều hồ sơ từ nhà sản xuất ChatGPT về việc xử lý dữ liệu cá nhân, khả năng cung cấp cho người dùng thông tin không chính xác và “rủi ro gây hại cho người tiêu dùng, bao gồm cả tổn hại về uy tín”.
Cuộc thăm dò có nguy cơ làm phức tạp thêm mối quan hệ của OpenAI với các nhà hoạch định chính sách, nhiều người trong số họ đã rất thán phục công nghệ của công ty và Giám đốc điều hành của nó, Sam Altman. Nó cũng có thể tập trung chú ý hơn nữa vào vai trò của OpenAI trong một cuộc tranh luận kéo dài về mối đe dọa mà trí tuệ nhân tạo tổng quát có thể gây ra cho việc làm, an ninh quốc gia và nền dân chủ.
Trong một yêu cầu điều tra dài 20 trang trong tuần này, FTC đã yêu cầu OpenAI trả lời hàng chục yêu cầu khác nhau, từ cách thức thu thập dữ liệu mà nó sử dụng để đào tạo các mô hình ngôn ngữ lớn của mình cho đến các mô tả về “khả năng tạo ra các tuyên bố sai về các cá nhân thực sự của ChatGPT”, gây hiểu lầm hoặc chê bai”.
- Chatbot Bing mới của Microsoft thú vị nhưng đôi khi thận trọng hơn ChatGPT
- Apple bị nghi ngờ về cách thức hoạt động của các dịch vụ AI mà Apple cung cấp
- Các Big Tech đã khởi động cuộc đua đầu tư vào các công ty khởi nghiệp AI
- Làn sóng Al bùng nổ mạnh mẽ trong năm 2023
- Bất chấp nỗi lo gian lận, các trường học bãi bỏ lệnh cấm ChatGPT
Yêu cầu cung cấp thông tin, được coi là một loại trát hầu tòa hành chính, cũng nhằm tìm kiếm lời khai từ OpenAI về bất kỳ khiếu nại nào mà họ nhận được từ công chúng, danh sách các vụ kiện mà họ tham gia và chi tiết về vụ rò rỉ dữ liệu mà công ty đã tiết lộ vào tháng 3 năm 2023 và cho biết đã tạm thời tiết lộ lịch sử trò chuyện và dữ liệu thanh toán của người dùng.
Nó yêu cầu các mô tả về cách OpenAI kiểm tra, điều chỉnh và thao túng các thuật toán của nó, đặc biệt là để tạo ra các phản hồi khác nhau hoặc phản ứng với rủi ro và bằng các ngôn ngữ khác nhau. Yêu cầu cũng yêu cầu công ty giải thích bất kỳ bước nào họ đã thực hiện để giải quyết các trường hợp “ảo giác”, một thuật ngữ trong ngành mô tả kết quả khi AI tạo ra thông tin sai lệch.
Cuộc điều tra của FTC là ví dụ rõ ràng nhất về quy định trực tiếp của chính phủ Hoa Kỳ đối với AI, khi các nhà lập pháp tại Quốc hội đang nỗ lực để bắt kịp tốc độ của một ngành đang phát triển nhanh chóng trước khi dự thảo luật mới ảnh hưởng đến lĩnh vực này được thúc đẩy vào mùa thu này. Những nỗ lực của Hoa Kỳ phần lớn bị tụt hậu so với các nhà hoạch định chính sách toàn cầu khác. Ví dụ, các nhà lập pháp của Liên minh Châu Âu đang nỗ lực hoàn thiện luật mang tính bước ngoặt cấm sử dụng AI để lập chính sách dự đoán và áp dụng các hạn chế đối với các tình huống sử dụng rủi ro cao.
Cuộc điều tra của FTC được đưa ra sau khi cơ quan này liên tục cảnh báo các doanh nghiệp không được đưa ra những tuyên bố quá khích về AI hoặc lạm dụng công nghệ theo những cách phân biệt đối xử.
Nó đã nói trong các bài đăng trên blog và nhận xét công khai rằng các công ty sử dụng AI sẽ phải chịu trách nhiệm về bất kỳ hành vi lừa đảo và không công bằng nào liên quan đến công nghệ. Là cơ quan giám sát bảo vệ người tiêu dùng hàng đầu của quốc gia, FTC được trao quyền để truy tố các hành vi lạm dụng quyền riêng tư, tiếp thị không trung thực và các tác hại khác.
Chủ tịch FTC Lina Khan đã lập luận rằng nhiệm vụ quốc hội hiện tại của cơ quan cung cấp nhiều thẩm quyền cho FTC để truy tố việc lạm dụng AI. Ví dụ: trong khi AI có thể giúp “tăng tốc” gian lận và lừa đảo, thì FTC đã có lịch sử lâu dài trong việc thực thi chống lại những kẻ lừa đảo, Khan nói với các nhà lập pháp vào tháng Tư.
“Mặc dù những công cụ này mới lạ, nhưng chúng không được miễn trừ khỏi các quy tắc hiện hành và FTC sẽ thực thi mạnh mẽ các luật mà chúng tôi chịu trách nhiệm quản lý, ngay cả trong thị trường mới này,” Khan viết trên tờ New York Times vào tháng sau.
Một số nhà phê bình OpenAI trước đây đã đệ đơn khiếu nại lên FTC cho rằng sự thiên vị thuật toán, những lo ngại về quyền riêng tư và xu hướng gây ảo giác của ChatGPT có thể vi phạm luật bảo vệ người tiêu dùng của Hoa Kỳ.
OpenAI đã nói trước về một số hạn chế của các sản phẩm của mình. Ví dụ: sách trắng được liên kết với bản phát hành mới nhất của GPT, GPT-4, giải thích rằng mô hình này có thể “tạo ra nội dung vô nghĩa hoặc không trung thực liên quan đến một số nguồn nhất định”. OpenAI cũng tiết lộ tương tự về khả năng các công cụ như GPT có thể dẫn đến sự phân biệt đối xử trên diện rộng đối với các nhóm thiểu số hoặc các nhóm dễ bị tổn thương khác.