Các chuyên gia cảnh báo rằng AI có thể đe dọa loài người
Báo cáo mới, do chính phủ Mỹ ủy quyền đối tác thực hiện, cảnh báo AI có thể gây “mối đe dọa với loài người ở cấp độ tuyệt chủng”, cần có ngưỡng kiểm soát.
Báo cáo được tổ chức bởi Time và được gọi là “Kế hoạch hành động nhằm tăng cường sự an toàn và bảo mật đối với AI tiên tiến” đề xuất một loạt biện pháp và chính sách sâu rộng chưa từng thấy trước đây để đối phó với tiến triển của trí tuệ nhân tạo. Nếu được thực thi, những biện pháp này có thể thay đổi hoàn toàn bộ mặt của ngành công nghiệp AI.
“Báo cáo mở đầu với nhận định về nguy cơ ngày càng tăng đối với an ninh quốc gia vì sự phát triển của AI tiên tiến”, một đoạn trong báo cáo nêu rõ. “Sự bùng nổ của AI tiên tiến và trí tuệ nhân tạo siêu việt có khả năng tạo ra một mức độ mất ổn định trong an ninh toàn cầu, gợi nhớ đến những kịch bản đáng lo ngại như việc sử dụng vũ khí hạt nhân”.
- Apple đang đàm phán với Google để sử dụng công cụ Gemini AI trên iPhone
- Apple chính thức phát hành iOS 18.1 với tính năng ghi âm cuộc gọi trên iPhone
- Mỹ chuẩn bị quy định hạn chế đầu tư vào AI tại Trung Quốc vì lý do an ninh quốc gia
- Microsoft chính thức cáo buộc Google “chơi xấu”
- OpenAI sắp trình diện mô hình AI mới, mạnh hơn GPT-4 100 lần
Cụ thể, báo cáo đề xuất Quốc hội Mỹ nên xem xét việc giới hạn việc đào tạo các mô hình AI có sức mạnh tính toán không hợp pháp, nghĩa là cần phải thiết lập một ngưỡng sức mạnh cho trí tuệ nhân tạo được quản lý bởi một cơ quan liên bang chuyên trách về AI. Cơ quan này sẽ có thẩm quyền yêu cầu các công ty AI phải xin phép chính phủ để đào tạo và triển khai các mô hình mới vượt ngưỡng đã đề ra.
Việc đào tạo hệ thống AI tiên tiến trên một ngưỡng nhất định có thể giúp “điều tiết” sự cạnh tranh giữa các nhà phát triển AI, từ đó giúp giảm tốc độ của cuộc đua sản xuất phần cứng và phần mềm. Cơ quan kiểm soát AI liên bang có thể điều chỉnh ngưỡng theo thời gian, tăng lên khi cảm thấy an toàn và giảm xuống khi phát hiện nguy cơ trong các mô hình AI.
Ngoài ra, báo cáo cũng đề xuất rằng các cơ quan chức năng nên “khẩn trương” xem xét việc kiểm soát việc xuất bản nội dung hoặc hoạt động nội bộ của các hệ thống AI mạnh mẽ. Vi phạm có thể bị phạt tù. Đồng thời, chính phủ cũng nên thắt chặt các biện pháp kiểm soát sản xuất và xuất khẩu chip AI.
Báo cáo được thực hiện bởi Gladstone AI – công ty chuyên tổ chức các cuộc họp giao ban kỹ thuật về AI cho các nhân viên chính phủ do Bộ Ngoại giao Mỹ ủy quyền vào tháng 11/2022 như một phần của hợp đồng liên bang trị giá 250.000 USD. Báo cáo đã được gửi dưới dạng tài liệu dài 247 trang cho Bộ Ngoại giao Mỹ vào ngày 26/2.
Ba tác giả đã tiếp cận vấn đề bằng cách tương tác với hơn 200 thành viên chính phủ, chuyên gia và nhân viên tại các công ty AI hàng đầu như OpenAI, Google DeepMind, Anthropic và Meta. Kế hoạch can thiệp chi tiết được phát triển trong 13 tháng. Tuy nhiên, trang đầu tiên của báo cáo tuyên bố rằng “các khuyến nghị không phản ánh quan điểm của Bộ Ngoại giao hoặc Chính phủ Mỹ”.
Theo Greg Allen, một chuyên gia của Trung tâm Nghiên cứu Chiến lược và Quốc tế (CSIS), các đề xuất trong báo cáo có thể sẽ gặp khó về mặt chính trị. “Tôi nghĩ rằng các khuyến nghị sẽ gặp khó khăn khi được chính phủ Mỹ thông qua. Trừ khi có một ‘cú sốc ngoại sinh’ nào đó, tôi nghĩ cách tiếp cận hiện tại khó có thể thay đổi”.
Trong khi đó, trí tuệ nhân tạo đang phát triển với tốc độ nhanh chóng và có khả năng thực hiện các công việc mà trước đây chỉ có trong lĩnh vực khoa học viễn tưởng. Trước tình hình này, nhiều chuyên gia đã đưa ra cảnh báo về mức độ nguy hiểm. Tháng 3 năm ngoái, hơn 1.000 người là những nhân vật hàng đầu trong lĩnh vực công nghệ, bao gồm tỷ phú Elon Musk và nhà đồng sáng lập của Apple, Steve Wozniak, đã ký một bức thư kêu gọi các công ty và tổ chức toàn cầu ngừng cuộc đua siêu trí tuệ nhân tạo trong sáu tháng để cùng xây dựng một bộ quy tắc chung về công nghệ này.
Giữa tháng 4/2023, CEO của Google, Sundar Pichai, đã bày tỏ lo ngại của mình về tiến triển của trí tuệ nhân tạo, ông nói rằng AI có thể gây nguy hiểm hơn bất kỳ thứ gì con người từng thấy.
Một tháng sau đó, một thông điệp được ký bởi 350 lãnh đạo và chuyên gia hàng đầu trong lĩnh vực AI cũng cảnh báo về tình hình tương tự. “Giảm nguy cơ tuyệt chủng do AI phải là ưu tiên toàn cầu, bên cạnh những rủi ro khác ở mức độ xã hội như đại dịch hoặc chiến tranh hạt nhân”, thông báo được Trung tâm An toàn AI (CAIS) tại San Francisco đăng tải trên trang web của họ vào tháng 5/2023.
Một cuộc khảo sát được tiến hành bởi Đại học Stanford vào tháng 4/2023 cũng đã cho thấy 56% các nhà nghiên cứu máy tính và chuyên gia AI tin rằng công nghệ sinh AI sẽ chuyển dịch sang trí tuệ nhân tạo siêu việt (AGI) trong tương lai gần. Có 58% chuyên gia AI đánh giá AGI là “mối quan tâm lớn”, trong khi 36% nói rằng công nghệ này có thể dẫn đến “thảm họa cấp hạt nhân”. Một số người còn nói rằng AGI có thể đại diện cho “điểm kỳ dị về công nghệ” – một điểm giả định trong tương lai khi máy móc vượt qua khả năng của con người theo cách không thể đảo ngược và có thể gây ra mối đe dọa cho nền văn minh.