
Trong một bữa tối gần đây với các nhà lãnh đạo kinh doanh tại San Francisco, một bình luận mà tôi đã đưa ra đã tạo ra một không khí lạnh lẽo trong phòng. Tôi không hỏi những người bạn cùng bàn về điều gì mà tôi coi là rất bất trắc: chỉ là liệu họ nghĩ rằng trí tuệ nhân tạo hiện nay có thể đạt được trí tuệ tương tự như con người (tức là AGI) hoặc hơn nữa không.
\nĐó là một chủ đề gây tranh cãi hơn bạn nghĩ.
\nVào năm 2025, không thiếu các CEO công nghệ đưa ra lập luận về cách các mô hình ngôn ngữ lớn (LLMs), làm nền cho các chatbot như ChatGPT và Gemini, có thể đạt trình độ trí tuệ tương tự hoặc thậm chí vượt trội so với con người trong tương lai gần. Những giám đốc điều hành này lập luận rằng trí tuệ nhân tạo cực kỳ tài năng sẽ mang lại lợi ích xã hội rộng lớn - và phân bố rộng rãi.
\nVí dụ, Dario Amodei, CEO của Anthropic, đã viết trong một bài luận rằng trí tuệ nhân tạo mạnh mẽ có thể đến ngay từ năm 2026 và sẽ "thông minh hơn một người đoạt giải Nobel ở hầu hết các lĩnh vực liên quan." Trong khi đó, CEO của OpenAI Sam Altman gần đây cho biết công ty của ông biết cách xây dựng trí tuệ "siêu thông minh", và dự đoán rằng nó có thể "tăng tốc mạnh mẽ trong khám phá khoa học."
\nTuy nhiên, không phải ai cũng tin vào những lập luận lạc quan này.
\nMột số nhà lãnh đạo trí tuệ nhân tạo khác nghi ngờ rằng LLMs hiện nay có thể đạt được AGI - chưa kể đến trí tuệ siêu việt - trừ khi có những đổi mới mới lạ. Những nhà lãnh đạo này đã từng giữ một hình ảnh thấp nên ít khi nói ra, nhưng gần đây họ đã bắt đầu lên tiếng.
\nTrong một bài viết trong tháng này, Thomas Wolf, người sáng lập và giám đốc khoa học của Hugging Face, gọi một số phần trong tầm nhìn của Amodei là "ước mơ ở cấp độ tốt nhất." Dựa trên nghiên cứu tiến sĩ của mình về thống kê và vật lý lượng tử, Wolf nghĩ rằng các bước đột phá độ giải Nobel không đến từ việc trả lời các câu hỏi đã biết - điều mà trí tuệ nhân tạo rất giỏi - mà thực sự đến từ việc đặt ra những câu hỏi mà không ai nghĩ đến.
\nTheo Wolf, LLMs hiện nay không đủ sức.
\n“Tôi rất muốn thấy mô hình 'Einstein' đó xuất hiện, nhưng chúng ta cần đi vào chi tiết về cách thức đến được đó,” Wolf nói với TechCrunch trong một cuộc phỏng vấn. “Đó là nơi mọi thứ bắt đầu trở nên thú vị.”
\nWolf cho biết rằng ông đã viết bài viết vì ông cảm thấy có quá nhiều sự hứng thú về AGI, và không đủ đánh giá nghiêm túc về việc làm thế nào để thực sự đến đó. Ông nghĩ rằng, như mọi thứ đang diễn ra, có khả năng trí tuệ nhân tạo sẽ thay đổi thế giới trong tương lai gần, nhưng không đạt đến trình độ trí tuệ tương tự hoặc trí tuệ siêu việt.
\nNhiều phần của thế giới trí tuệ nhân tạo đã đầy hứng thú với lời hứa về AGI. Những người không tin vào khả năng này thường được gán nhãn là “phản công nghệ” hoặc khác biệt và thiếu thông tin.
\nCó thể mọi người nhìn nhận Wolf như là một người bi quan về quan điểm này, nhưng Wolf nghĩ về bản thân mình là một “lạc quan hiểu biết” — một người muốn đẩy mạnh trí tuệ nhân tạo mà không mất kiểm soát của hiện thực. Chắc chắn, không chỉ có Wolf là nhà lãnh đạo trí tuệ nhân tạo có những dự đoán thận trọng về công nghệ.
\nCEO của Google DeepMind Demis Hassabis được cho là đã nói với nhân viên rằng, theo ý kiến của anh, ngành công nghiệp có thể còn mất khoảng một thập kỷ nữa để phát triển AGI - chú ý rằng có nhiều nhiệm vụ mà trí tuệ nhân tạo đơn giản không thể thực hiện ngay hôm nay. Giám đốc trí tuệ nhân tạo cấp cao của Meta Yann LeCun cũng tỏ ra nghi ngờ về khả năng của LLMs. Phát biểu tại Nvidia GTC vào thứ Ba, LeCun nói rằng ý tưởng rằng LLMs có thể đạt được AGI là "vô lý", và kêu gọi việc xây dựng kiến trúc hoàn toàn mới để phục vụ làm cơ sở cho trí tuệ siêu việt.
\nKenneth Stanley, một cựu nghiên cứu viên hàng đầu của OpenAI, là một trong những người đang ngâm cứu các chi tiết về cách xây dựng trí tuệ nhân tạo tiên tiến với các mô hình hiện nay. Hiện ông là một giám đốc tại Lila Sciences, một công ty khởi nghiệp mới đã huy động 200 triệu đô la vốn rủi ro để mở khóa sáng tạo khoa học qua các phòng thí nghiệm tự động.
\nStanley dành ngày ngày cố gắng rút ra các ý tưởng mới mẻ, sáng tạo từ các mô hình trí tuệ nhân tạo, một lĩnh vực con của nghiên cứu trí tuệ nhân tạo gọi là sự mở cửa. Lila Sciences nhắm mục tiêu tạo ra các mô hình trí tuệ nhân tạo có thể tự động hóa quá trình khoa học toàn diện, bao gồm cả bước đầu tiên - tới được những câu hỏi và giả thuyết tốt đẹp thực sự sẽ dẫn tới các tiến bước.
\n“Tôi mong muốn đã viết [bài viết của Wolf], vì nó thực sự phản ánh cảm xúc của tôi,” Stanley nói trong cuộc phỏng vấn với TechCrunch. “Những gì [ông ta] nhận thấy là việc có kiến thức và kỹ năng cực kỳ không nhất thiết phải dẫn tới việc có ý tưởng thực sự độc đáo.”
\nStanley tin rằng sự sáng tạo là một bước quan trọng trên con đường đến AGI, nhưng lưu ý rằng việc xây dựng một mô hình trí tuệ "sáng tạo" không dễ dàng như vẻ bề ngoại.
\nNhững lạc quan như Amodei trỏ đến các phương pháp như các mô hình "luận lý" trí tuệ nhân tạo, sử dụng nhiều công suất tính toán để kiểm tra các công việc của họ và trả lời đúng các câu hỏi cụ thể một cách nhất quán hơn, là bằng chứng cho rằng AGI không phải là xa xôi. Tuy nhiên, việc đưa ra ý tưởng và câu hỏi độc đáo có thể yêu cầu một loại trí tuệ khác, Stanley cho biết.
\n“Nếu bạn nghĩ về nó, luận lý hầu như đối nghịch với [sáng tạo],” ông thêm. “Các mô hình luận lý nói, 'Đây là mục tiêu của vấn đề, hãy đi thẳng tới mục tiêu đó,' điều đó cơ bản ngăn bạn trở nên cơ hội và nhìn thấy điều ngoài kia của mục tiêu đó, để sau đó bạn có thể phân nhánh ra và đưa ra nhiều ý tưởng sáng tạo.”
\nĐể thiết kế mô hình trí tuệ nhân tạo thực sự thông minh, Stanley đề xuất chúng ta cần sao chép theo cách thuật toán khẩu vị chủ quan của con người cho những ý tưởng mới hứa hẹn. Mô hình trí tuệ nhân tạo hiện nay hoạt động khá tốt trong các lĩnh vực học thuộc về trường, có câu trả lời rõ ràng, như toán học và lập trình. Tuy nhiên, Stanley chỉ ra rằng việc thiết kế một mô hình trí tuệ nhân tạo cho các nhiệm vụ chủ quan hơn, yêu cầu sự sáng tạo, không nhất thiết phải có một câu trả lời "đúng".
\n“Mọi người tránh xa [chủ quan] trong khoa học - từ này gần như trở nên độc hại,” Stanley nói. “Nhắc đến chủ quan trong khoa học không có gì ngăn cản chúng ta giải quyết chủ quan [tính toán]. Đó chỉ là một phần của luồng dữ liệu.”
\nStanley nói rằng ông rất vui với việc lĩnh vực mở rộng đang nhận được sự quan tâm nhiều hơn bây giờ, với các phòng thí nghiệm nghiên cứu tại Lila Sciences, Google DeepMind và công ty khởi nghiệp trí tuệ nhân tạo Sakana hiện đang làm việc về vấn đề này. Ông bắt đầu thấy nhiều người nói về sự sáng tạo trong trí tuệ nhân tạo, ông nói, nhưng ông nghĩ rằng còn nhiều công việc cần phải làm.
\nWolf và LeCun có lẽ sẽ đồng ý. Gọi họ là những nhà thực tế về trí tuệ nhân tạo, nếu bạn muốn: các nhà lãnh đạo tiếp cận AGI và trí tuệ siêu việt với các câu hỏi nghiêm túc, chắc chắn về khả năng thực hiện của nó. Mục tiêu của họ không phải chỉ là chê trách những tiến bộ trong ngành trí tuệ nhân tạo. Thay vào đó, đó là để khởi đầu cuộc trò chuyện trong cái nhìn tổng thể về những gì đứng giữa mô hình trí tuệ nhân tạo ngày nay và AGI — và trí tuệ siêu việt — và để giải quyết những khúc nghịch đó.