Tiếp tục chuỗi hỗn loạn kể từ cuối tuần rồi khi Hội đồng quản trị sa thải Giám đốc điều hành và đồng sáng lập OpenAI Sam Altman. Sau một loạt những động thái, tuyên bố, chèo kéo của đủ các bên trong và ngoài cuộc, bao gồm cả Microsoft, thì cập nhật mới nhất là anh Sam đã quay về tiếp tục làm CEO của OpenAI. Thông tin này vừa được cho đăng tải trên X chính thức của OpenAI.
Vậy là chỉ trong vòng chưa đầy 1 tuần, OpenAI đã 3 lần thay CEO (lần đầu là Mira Murati (Giám đốc Công nghệ của OpenAI) và sau đó là Emmett Shear (cựu Giám đốc điều hành Twitch). Bây giờ, công ty có một Hội đồng quản trị mới và họ đã chọn một Giám đốc điều hành “mới”, Sam Altman.
Ít phút trước, tài khoản X của Sam Altman cũng đã đăng tải thông tin liên quan tới sự quay trở lại cũng như chuyện xảy ra những ngày qua: “Tôi yêu openai, và mọi thứ tôi đã làm trong vài ngày qua đều phục vụ để giữ cho nhóm này và sứ mệnh của nó được thống nhất. Khi tôi quyết định tham gia msft vào buổi tối chủ nhật, rõ ràng đó là con đường tốt nhất cho tôi và nhóm. Với sự hỗ trợ của hội đồng quản trị mới và w satya, tôi mong được trở lại openai và xây dựng mối quan hệ đối tác mạnh mẽ của chúng tôi với msft.”
Và CEO Microsoft Satya Nedella mới đây cũng đã xác nhận thông tin qua một bài đăng trên X: “Chúng tôi rất hào hứng với hội đồng quản trị mới của OpenAI. Chúng tôi tin rằng đây là bước đi cần thiết đầu tiên trên con đường dẫn đến quản trị ổn định, đầy đủ thông tin và hiệu quả hơn. Sam, Greg và tôi đã nói chuyện và đồng ý rằng họ có vai trò quan trọng cùng với đội ngũ lãnh đạo OAI trong việc đảm bảo OAI tiếp tục phát triển và xây dựng sứ mệnh của mình. Chúng tôi mong muốn xây dựng mối quan hệ đối tác mạnh mẽ của mình và mang lại giá trị của thế hệ AI tiếp theo này cho khách hàng và đối tác của chúng tôi.”
Tuần trước, cả thế giới công nghệ đã chấn động trước thông tin Sam Altman, CEO của OpenAI, một trong những phòng thí nghiệm nghiên cứu AI hàng đầu thế giới, bị truất quyền CEO chỉ trong vòng 4 ngày.
Trước khi được khôi phục chức vụ vào ngày thứ 4 vừa rồi theo giờ Việt Nam, Altman đã phải đối mặt với một làn sóng phản đối mạnh mẽ từ các nhà đầu tư và nhân viên OpenAI.
Hiện giờ, nguyên nhân chính khiến Altman bị sa thải vẫn chưa được công bố chính thức. Tuy nhiên, theo những thông tin mới nhất được Reuters hé lộ, bức thư cảnh báo về sự nguy hiểm của thuật toán AI có thể chính là nguyên nhân.
Những lo ngại về hiểm họa của AGI
Nhiều người ở OpenAI tin rằng, dự án Q* có thể sẽ là bước nhảy vọt tạo ra đột phá lớn trong nỗ lực phát triển thứ gọi là trí thông minh nhân tạo phổ quát (AGI – Artificial General Intelligence).
Đến tận thời điểm hiện tại, AGI vẫn chỉ là khái niệm thuần túy lý thuyết, mô tả một hệ thống những dòng code chạy trên máy tính, giúp máy móc có thể học, xử lý tình huống và ứng xử hệt như con người hay động vật.
Về phần OpenAI, AGI được họ định nghĩa là một hệ thống tự động có khả năng vượt qua khả năng xử lý của con người trong hầu hết mọi nhiệm vụ có thể tạo ra giá trị thặng dư.
Miễn là có đủ sức mạnh xử lý của phần cứng, mô hình mới này có thể xử lý những vấn đề toán học nan giải với con người hiện giờ. Ở thời điểm hiện tại, theo nguồn tin giấu tên, Q* mới chỉ làm được toán trung học, nhưng hoàn thành chúng luôn là bước đầu tiên để tạo ra một trí thông minh nhân tạo đầy sức mạnh.
Các nhà nghiên cứu AI luôn coi toán học là bức tường lớn nhất cần vượt qua để phát triển AI tạo nội dung. Hiện giờ AI tạo nội dung đủ khả năng viết văn bản và dịch thuật bằng cách dự đoán và nội suy khả năng những từ ngữ có khả năng cao sẽ đứng cạnh nhau, nhờ đó tạo ra được cả câu và cả đoạn văn. Nhờ đó, không bao giờ AI tạo nội dung và chatbot có thể đưa ra được 1 câu trả lời giống hệt nhau dù người dùng lặp đi lặp lại câu hỏi.
Tuy nhiên, nếu chinh phục được khả năng làm toán, nơi chỉ có một câu trả lời đúng duy nhất, điều đó sẽ đồng nghĩa với việc AI có khả năng lý luận giống với bộ não con người. Nếu làm được vậy, AI sẽ có thể ứng dụng nghiên cứu khoa học hay làm được rất nhiều thứ hữu ích hơn bây giờ. Quan trọng hơn cả, thay vì là một chiếc “máy tính”, AGI có thể khái quát, học và tóm tắt kiến thức, chứ không đơn thuần thực hiện những phép tính một cách máy móc.
Những gì OpenAI làm được với dự án Q* khiến các nhà nghiên cứu tại đây phải viết một bức thư gửi lên ban lãnh đạo, đề cập những lo ngại về hiểm họa tiềm tàng của đột phá trong ngành AGI này.
Tham vọng của Altman và lo ngại của các nhà nghiên cứu
Sam Altman là một người rất tham vọng. Ông từng tuyên bố rằng, mục tiêu của OpenAI là tạo ra một trí thông minh nhân tạo vượt qua con người trong mọi lĩnh vực.
Điều này đã khiến các nhà nghiên cứu tại OpenAI lo ngại. Họ cho rằng, nếu AGI quá thông minh, nó có thể vượt khỏi tầm kiểm soát của con người và gây ra những hiểm họa khôn lường.
Trong bức thư gửi lên ban giám đốc, các nhà nghiên cứu OpenAI đã đề nghị dừng lại nghiên cứu dự án Q* và thực hiện các biện pháp đảm bảo an toàn cho AGI.
Tuy nhiên, Altman lại không đồng ý với đề xuất này. Ông cho rằng, việc dừng lại nghiên cứu sẽ là một sai lầm lớn và khiến OpenAI mất đi cơ hội tạo ra một trí thông minh nhân tạo có thể thay đổi thế giới.
Sự xung đột giữa hai quan điểm đã dẫn đến việc Altman bị sa thải.
Kết luận
Vụ việc sa thải Sam Altman là một dấu mốc quan trọng trong lịch sử phát triển của AI. Nó cho thấy rằng, những lo ngại về hiểm họa của AGI vẫn là một vấn đề cần được quan tâm nghiêm túc. Vụ việc Sam Altman bị sa thải cũng cho thấy rằng, cộng đồng AI cần có sự hợp tác chặt chẽ hơn. Chúng ta cần thảo luận và chia sẻ quan điểm của mình một cách cởi mở.