Các công ty AI hàng đầu bàn cách tạo công tắc tắt AI khi cần thiết
Các công ty AI hàng đầu đang hợp tác với chính phủ nhằm xác định nguy cơ tiềm ẩn từ AI và bàn cách tạo công tắc tắt AI khi cần thiết.
Ngày 22/5, 16 công ty AI lớn, bao gồm Anthropic, Microsoft, OpenAI và Liên minh châu Âu đã tham dự hội nghị thượng đỉnh tại Seoul nhằm thảo luận về việc phát triển trí tuệ nhân tạo một cách an toàn và có trách nhiệm.
Một trong những kết quả của cuộc họp là các bên đã nhất trí về việc áp dụng “công tắc an toàn” đối với AI. Theo đó, các công ty sẽ tạm dừng phát triển các mô hình AI tiên tiến nhất của mình nếu chúng vượt qua một ngưỡng rủi ro nhất định. Tuy nhiên, tính hiệu quả của chính sách này vẫn chưa rõ ràng vì thỏa thuận giữa các công ty không có giá trị pháp lý và ngưỡng rủi ro cụ thể cũng chưa được xác định.
- Apple liên tiếp đối mặt với hàng loạt vụ kiện lớn
- Tập đoàn Bảo hiểm FWD mở rộng quan hệ hợp tác với Microsoft
- Nhiều nhân viên công nghệ thất nghiệp vì ‘cơn sốt’ trí tuệ nhân tạo
- Các Big Tech đã khởi động cuộc đua đầu tư vào các công ty khởi nghiệp AI
- AI Contact Center OmiCX lọt vào danh sách 14 giải pháp AI sáng tạo hàng đầu
Hội nghị lần này tiếp nối hội nghị an toàn AI tại Bletchley Park vào tháng 10 năm ngoái với sự tham gia của nhiều chuyên gia AI nhưng đã bị chỉ trích vì thiếu các cam kết cũng như các biện pháp cụ thể.
Từ khoa học viễn tưởng đến hiện thực, nhiều nhà văn và nhà nghiên cứu đã cảnh báo về nguy cơ của trí tuệ nhân tạo trong nhiều thập kỷ qua. Họ lo ngại rằng AI có thể trở nên quá thông minh và cuối cùng sẽ chống lại con người. Một số đã tưởng tượng ra các kịch bản như trong phim phim Kẻ hủy diệt (1984), một người máy du hành ngược thời gian để giết một phụ nữ vì sau này con trai của bà sẽ chiến đấu chống lại hệ thống AI.
AI mang đến cơ hội to lớn để thay đổi nền kinh tế và giải quyết các thách thức lớn của xã hội nhưng tiềm năng này chỉ có thể phát huy nếu chúng ta xác định và quản lý được những rủi ro mà công nghệ phức tạp này có thể gây ra, theo lời Bộ trưởng Công nghệ của Anh, ông Michelle Donelan, được trích dẫn bởi Fortune.
Các công ty AI cũng nhận thức rõ nguy cơ liên quan đến trí tuệ nhân tạo. Trong một bài đăng trên blog, OpenAI đã cảnh báo: “Siêu trí tuệ AGI có nguy cơ bị lạm dụng, gây hậu quả nghiêm trọng và làm xáo trộn trật tự xã hội. Mặc dù AGI có thể mang lại nhiều lợi ích cho sự phát triển xã hội, chúng tôi không mong muốn ngừng phát triển công nghệ này. Thay vào đó, cần tìm cách sử dụng AI một cách đúng đắn và an toàn”.
Hiện tại, nỗ lực xây dựng khuôn khổ pháp lý toàn cầu về quản lý AI vẫn còn rời rạc. Khung chính sách của Liên Hợp Quốc yêu cầu các quốc gia bảo vệ nhân quyền và giám sát việc sử dụng dữ liệu cá nhân để ngăn ngừa rủi ro từ AI nhưng không có hiệu lực pháp lý.
Trong khi đó, các công ty AI đã bắt đầu tự thành lập các tổ chức riêng. Tuần này, Amazon và Meta đã gia nhập tổ chức Frontier Model Foundation, một tổ chức được thành lập với mục tiêu thúc đẩy sự an toàn của các mô hình AI tiên tiến. Các thành viên sáng lập của tổ chức này bao gồm Anthropic, Google, Microsoft và OpenAI. Tuy nhiên, tổ chức này vẫn chưa đưa ra bất kỳ chính sách cụ thể nào.
Chặng đường xây dựng quy định về an toàn AI toàn cầu sẽ tiếp tục với một hội nghị thượng đỉnh khác diễn ra vào đầu năm tới tại Pháp. Tại hội nghị này, các bên tham gia sẽ đưa ra định nghĩa cụ thể về ngưỡng rủi ro đối với AI và các hành động cần thiết trong quản lý. Đây sẽ là một bước tiến đáng kể so với quá trình định hình tương đối mờ nhạt hiện nay.