Lo Ngại Về AI Như Một Vũ Khí Tiêu Diệt Nhân Loại
Một báo cáo mới được chính phủ Mỹ tài trợ cảnh báo rằng trí tuệ nhân tạo (AI) có thể trở thành “mối đe dọa đối với sự sống còn của loài người” và nhấn mạnh sự cần thiết phải có các biện pháp kiểm soát.
Tài liệu mang tên “Kế hoạch hành động để nâng cao an toàn và bảo mật cho AI tiên tiến” do Time thu thập, đề xuất một loạt chính sách và hành động chưa từng có nhằm quản lý AI. Nếu những đề xuất này được thực hiện, chúng có thể làm thay đổi cục diện ngành công nghiệp AI.
“Báo cáo chỉ ra rằng sự phát triển của AI tiên tiến mang lại những nguy cơ nghiêm trọng và ngày càng gia tăng cho an ninh quốc gia,” phần mở đầu báo cáo nêu rõ. “Sự phát triển của AI tiên tiến và trí tuệ nhân tạo siêu cấp (AGI) có thể gây ra những rối loạn trong an ninh toàn cầu, tương tự như những gì đã xảy ra với vũ khí hạt nhân.”
- Apple chính thức phát hành iOS 18.1 với tính năng ghi âm cuộc gọi trên iPhone
- Mỹ Điều Tra Chính Sách Ngành Chip Của Trung Quốc
- Mô Hình AI Mới của OpenAI: Bước Tiến Đột Phá Hướng Tới Siêu Trí Tuệ AGI
- Ý Kiến Trái Chiều Về Sách Giáo Khoa Điện Tử AI Tại Hàn Quốc
- Huawei Mate 70 Ra Mắt Sẵn Sàng Tách Biệt Android
Báo cáo đã đề xuất rằng Quốc hội Mỹ nên coi việc đào tạo các mô hình AI với sức mạnh tính toán vượt mức quy định là hành vi bất hợp pháp. Điều này đồng nghĩa với việc cần thiết lập một ngưỡng sức mạnh cho các công cụ trí tuệ nhân tạo, được quản lý bởi một cơ quan liên bang chuyên trách về AI. Cơ quan này sẽ có quyền yêu cầu các công ty AI xin phép chính phủ trước khi tiến hành đào tạo và triển khai các mô hình mới phù hợp với ngưỡng đã đề ra.
Việc kiểm soát quá trình đào tạo các hệ thống AI tiên tiến ở một ngưỡng cụ thể sẽ giúp “điều tiết” sự cạnh tranh giữa các nhà phát triển AI, từ đó làm giảm tốc độ phát triển cả phần cứng lẫn phần mềm. Theo thời gian, cơ quan kiểm soát AI liên bang có thể nâng hoặc hạ ngưỡng này, cho phép đào tạo các hệ thống AI tiến bộ hơn khi “đã đủ an toàn” hoặc điều chỉnh xuống khi “phát hiện nguy cơ” từ các mô hình AI.
Ngoài ra, báo cáo cũng khuyến nghị các cơ quan chức năng cần “khẩn trương” xem xét việc kiểm soát nội dung và hoạt động bên trong các mô hình AI mạnh mẽ. Vi phạm các quy định này có thể dẫn đến án tù. Hơn nữa, chính phủ nên thắt chặt các biện pháp kiểm soát liên quan đến sản xuất và xuất khẩu chip AI, đồng thời hướng nguồn tài trợ liên bang vào nghiên cứu nhằm cải thiện độ an toàn của AI tiên tiến.
Theo hồ sơ, báo cáo này được thực hiện bởi Gladstone AI, một công ty nhỏ với bốn nhân viên, chuyên tổ chức các cuộc họp kỹ thuật về AI cho nhân viên chính phủ. Báo cáo này được Bộ Ngoại giao Mỹ ủy quyền vào tháng 11/2022, như một phần của hợp đồng trị giá 250.000 USD. Tài liệu dài 247 trang đã được gửi đến Bộ Ngoại giao Mỹ vào ngày 26/2.
Bộ Ngoại giao Mỹ hiện chưa có phản hồi về báo cáo này.
Theo tài liệu, ba tác giả đã thu thập thông tin bằng cách phỏng vấn hơn 200 quan chức, chuyên gia và nhân viên tại những công ty AI hàng đầu như OpenAI, Google DeepMind, Anthropic và Meta. Quá trình phát triển kế hoạch can thiệp này kéo dài 13 tháng. Tuy nhiên, trang đầu tiên của báo cáo nhấn mạnh rằng “các khuyến nghị không phản ánh quan điểm của Bộ Ngoại giao hay Chính phủ Mỹ”.
Greg Allen, một chuyên gia thuộc Trung tâm Nghiên cứu Chiến lược và Quốc tế (CSIS), cho rằng đề xuất này có thể gặp khó khăn về mặt chính trị. Ông nhận định: “Tôi nghi ngờ rằng những khuyến nghị này sẽ được chính phủ Mỹ chấp thuận. Trừ khi có một ‘cú sốc từ bên ngoài’, tôi nghĩ rằng cách tiếp cận hiện tại khó có khả năng thay đổi”.
AI hiện đang phát triển mạnh mẽ với nhiều mô hình có khả năng thực hiện những nhiệm vụ từng được xem là thuộc về khoa học viễn tưởng. Trước tình hình này, nhiều chuyên gia đã cảnh báo về những nguy cơ tiềm ẩn. Vào tháng 3 năm ngoái, hơn 1.000 nhân vật nổi bật trong lĩnh vực công nghệ, bao gồm tỷ phú Elon Musk và nhà đồng sáng lập Apple Steve Wozniak, đã ký một bức thư kêu gọi các công ty và tổ chức toàn cầu tạm ngừng cuộc đua phát triển AI siêu cấp trong vòng sáu tháng để cùng nhau xây dựng một bộ quy tắc chung cho công nghệ này.
Vào giữa tháng 4/2023, CEO của Google, Sundar Pichai, đã chia sẻ rằng AI khiến ông cảm thấy lo lắng, vì nó có thể trở thành mối đe dọa lớn hơn bất kỳ điều gì mà nhân loại từng đối mặt, trong khi xã hội vẫn chưa chuẩn bị cho sự phát triển nhanh chóng của công nghệ này.