Sự trở lại của Sam Altman khiến các chuyên gia lo lắng nguy cơ Al bị hủy diệt
Thông tin về dự án bí ẩn Q* cùng việc Sam Altman trở lại điều hành OpenAI khiến một số chuyên gia lo ngại nguy cơ AI hủy diệt đến gần hơn.
“Tôi có thể bị sa thải bởi HĐQT”, Sam Altman chia sẻ với Bloomberg vào tháng 6 vừa qua khi nói về bộ máy quản lý không đồng nhất của OpenAI. Vào ngày 17/11, công ty này sẽ sa thải bất cứ ai có hành động “làm tổn hại lợi ích nhân loại”. Do đó, OpenAI được xem như là một tổ chức phi lợi nhuận chuyên nghiên cứu về trí tuệ nhân tạo, có khả năng thu hút vốn đầu tư để phát triển cỗ máy và thu hút nhân tài.
Tuy nhiên, theo Toby Ord, một nhà nghiên cứu tại Đại học Oxfor đã cảnh báo về rủi ro của trí tuệ nhân tạo và nói thêm rằng “Nhưng hóa ra, họ vẫn không thể sa thải anh ta. Thật tệ”.
Có thông tin cho rằng HĐQT OpenAI phế truất Altman vì ông đã dành quá nhiều thời gian cho các dự án phụ và quá phụ thuộc vào Microsoft. Ngoài ra, cũng có ý kiến cho rằng HĐQT muốn ngăn Altman thương mại hóa mô hình Trí tuệ Nhân tạo Tổng quát (AGI) – hệ thống siêu trí tuệ có khả năng gây hại cho con người.
Vào ngày 23/11, nguồn tin nội bộ đã tiết lộ rằng CTO của OpenAI, Mira Murati nói với các nhân viên rằng một lá thư mật từ các nhà nghiên cứu trong OpenAI gửi đến HĐQT, cảnh báo về sự nguy hiểm của dự án Q* (Q-Star) đã dẫn đến quyết định sa thải đột ngột.
Một nguồn tin nội bộ tiếp theo đã chia sẻ với Reuters rằng Q* hiện đang “ở cấp độ học sinh tiểu học”, tuy nhiên, Q* đang được cải tiến với tốc độ “hàng giờ”. Một nguồn tin khác đã tiết lộ rằng thuật toán của Q* có thể “vượt qua môn toán cấp phổ thông” và các nhà nghiên cứu tại OpenAI đang rất lạc quan về thành công của dự án.
Trong bối cảnh hiện nay, các mô hình trí tuệ nhân tạo đã phát triển mạnh mẽ trong việc viết và dịch ngôn ngữ, tuy nhiên, chúng thường đưa ra nhiều câu trả lời khác nhau cho cùng một câu hỏi tùy thuộc vào nguồn dữ liệu huấn luyện. Tuy nhiên, với khả năng hiểu biết cao về toán học, trí tuệ nhân tạo có thể thực hiện tính toán, đưa ra một câu trả lời đúng và duy nhất, thể hiện khả năng suy luận mạnh mẽ, gần giống với trí thông minh của con người.
Các nhà nghiên cứu đang tin tưởng rằng khả năng tư duy toán học của AGI có thể được áp dụng cho nhiều lĩnh vực nghiên cứu mới. Nếu máy tính chỉ có thể giải một số phép tính hạn chế thì AGI có khả năng khái quát hóa, tự học.
Trong những ngày cuối cùng trước khi bị lật đổ, Sam Altman cũng chia sẻ về việc OpenAI đã đạt được tiến bộ lớn. “Trong bốn lần tạo nên lịch sử của OpenAI, tôi đã có mặt trong phòng. Chúng tôi gần như đã đẩy lùi bức màn tối phía trước và mở ra biên giới khám phá mới. Làm được điều đó là vinh dự nghề nghiệp của một đời”, Altman chia sẻ tại Diễn đàn Hợp tác Kinh tế châu Á – Thái Bình Dương (APEC) ngày 16/11 tại San Francisco.
Một ngày sau, ông bị hội đồng quản trị OpenAI sa thải qua Google Meet.
Sự tái xuất của OpenAI của Altman gây ra những phản ứng trái chiều. Việc ông nắm giữ quyền kiểm soát công cụ như Q* mà không bị HĐQT ngăn cản có thể thúc đẩy Altman thương mại hóa các sản phẩm một cách nhanh chóng.
Mặc dù đã nhiều lần đề cập đến nguy cơ của trí tuệ nhân tạo đối với thế giới, nhưng đồng thời, ông cũng đã huy động hàng tỷ USD để phát triển mô hình siêu thông minh. Điều này khiến cho những người quyền lực ở Thung lũng Silicon cảm thấy không thoải mái.
OpenAI thông báo rằng HĐQT mới hiện vẫn “tạm thời” và dự kiến sẽ bổ sung thêm thành viên. Mặc dù Altman nói rằng “sẽ vẫn giữ OpenAI hoạt động như trước đây,” một số chuyên gia cảm thấy lo ngại khi không còn người cản đường, ông có thể sẽ xích lại gần Microsoft hơn hoặc tự thực hiện các dự án thương mại hóa thay vì phi lợi nhuận.
Toby Ord, nhà nghiên cứu của Đại học Oxford, nhận định: “Bây giờ, mọi thứ không còn là cuộc đua giữa các phòng thí nghiệm, tương lai gần sẽ là sự chạy đua giữa một số công ty AI lớn nhất thế giới. Ở khía cạnh này, tôi nghĩ mọi thứ trở nên khá nguy hiểm.”