Google, Microsoft, OpenAI và Anthropic công bố nhóm ngành để thúc đẩy phát triển AI an toàn
Một số công ty trí tuệ nhân tạo hàng đầu thế giới đang thành lập một cơ quan công nghiệp mới để hợp tác với nhau và với các nhà hoạch định chính sách và nhà nghiên cứu về các cách điều chỉnh sự phát triển của AI tiên tiến.
Tổ chức mới, được gọi là Diễn đàn mô hình biên giới, đã được công bố vào thứ Tư bởi Google, Microsoft, OpenAI và Anthropic. Các công ty cho biết nhiệm vụ của diễn đàn là phát triển các phương pháp hay nhất để đảm bảo an toàn cho AI, thúc đẩy nghiên cứu về các rủi ro của AI và chia sẻ thông tin công khai với các chính phủ và xã hội dân sự.
Thông báo hôm thứ Tư phản ánh cách các nhà phát triển AI đang hợp tác xung quanh các rào cản tự nguyện cho công nghệ trước sự thúc đẩy dự kiến vào mùa thu này của các nhà lập pháp Hoa Kỳ và Liên minh Châu Âu để xây dựng luật ràng buộc cho ngành.
- Các kỹ sư Al đang bị áp lực vì phải chạy đua để tung ra các công cụ Al
- Microsoft tích cực gom chip AI để tăng gấp ba lượng GPU hiện tại
- Apple đang đàm phán với Google để sử dụng công cụ Gemini AI trên iPhone
- Các tỷ phú công nghệ tranh cãi AI mở – AI đóng
- OpenAI và Microsoft bị New York Times kiện vì sử dụng trái phép bài viết
Tin tức về diễn đàn được đưa ra sau khi bốn công ty AI, cùng với một số công ty khác bao gồm Amazon và Meta, cam kết với chính quyền Biden sẽ đưa hệ thống AI của họ vào thử nghiệm của bên thứ ba trước khi phát hành chúng ra công chúng và gắn nhãn rõ ràng cho nội dung do AI tạo ra.
Diễn đàn dẫn đầu ngành, mở cửa cho các công ty khác thiết kế các mô hình AI tiên tiến nhất, có kế hoạch cung cấp các đánh giá kỹ thuật và điểm chuẩn của nó thông qua một thư viện có thể truy cập công khai, các công ty cho biết trong một tuyên bố chung.
Chủ tịch Microsoft Brad Smith cho biết: “Các công ty tạo ra công nghệ AI có trách nhiệm đảm bảo rằng nó an toàn, bảo mật và nằm trong tầm kiểm soát của con người. “Sáng kiến này là một bước quan trọng để mang lĩnh vực công nghệ lại với nhau trong việc thúc đẩy AI một cách có trách nhiệm và giải quyết các thách thức để nó mang lại lợi ích cho toàn nhân loại.”
Thông báo này được đưa ra một ngày sau khi các chuyên gia AI như Giám đốc điều hành Anthropic Dario Amodei và nhà tiên phong về AI Yoshua Bengio cảnh báo các nhà lập pháp về những rủi ro xã hội nghiêm trọng, thậm chí “thảm khốc” có thể xảy ra do sự phát triển AI không kiềm chế.
“Đặc biệt, tôi lo ngại rằng các hệ thống AI có thể bị lạm dụng trên quy mô lớn trong các lĩnh vực an ninh mạng, công nghệ hạt nhân, hóa học và đặc biệt là sinh học,” Amodei cho biết trong lời khai bằng văn bản của mình.
Amodei cho biết trong vòng hai đến ba năm tới, AI có thể trở nên đủ mạnh để giúp các tác nhân độc hại chế tạo vũ khí sinh học chức năng, nơi mà ngày nay những tác nhân đó có thể thiếu kiến thức chuyên môn cần thiết để hoàn thành quy trình.
Bengio nói với một ủy ban của Thượng viện rằng cách tốt nhất để ngăn chặn những tác hại lớn là hạn chế quyền truy cập vào các hệ thống AI; phát triển các chế độ kiểm tra tiêu chuẩn và hiệu quả để đảm bảo các hệ thống đó phản ánh các giá trị xã hội được chia sẻ; giới hạn số lượng thế giới mà bất kỳ hệ thống AI đơn lẻ nào có thể thực sự hiểu được; và hạn chế tác động mà các hệ thống AI có thể có đối với thế giới thực.
Liên minh châu Âu đang hướng tới luật có thể được hoàn thiện sớm nhất là trong năm nay, cấm sử dụng AI để lập chính sách dự đoán và hạn chế sử dụng AI trong các tình huống rủi ro thấp hơn.
Các nhà lập pháp Hoa Kỳ đang ở phía sau xa hơn nhiều. Mặc dù một số dự luật liên quan đến AI đã được đưa ra tại Quốc hội, nhưng phần lớn động lực cho một dự luật toàn diện về AI nằm ở Lãnh đạo Đa số Thượng viện Chuck Schumer, người đã ưu tiên giúp các thành viên bắt kịp những điều cơ bản của ngành thông qua một loạt của các cuộc họp giao ban vào mùa hè này.
Schumer cho biết bắt đầu từ tháng 9, Thượng viện sẽ tổ chức một loạt 9 hội thảo bổ sung để các thành viên tìm hiểu về cách AI có thể ảnh hưởng đến việc làm, an ninh quốc gia và sở hữu trí tuệ.