
Suốt mấy năm qua, các kỹ sư công nghệ đã đưa ra cảnh báo về tiềm năng của các hệ thống AI tiên tiến có thể gây ra thiệt hại thảm khốc cho con người.
Nhưng vào năm 2024, những cuộc cảnh báo đó bị vùi lấp bởi một tầm nhìn thực tế và thịnh vượng về AI sáng tạo được quảng cáo bởi ngành công nghiệp công nghệ - một tầm nhìn mà cũng mang lại lợi ích cho ví tiền của họ.
Những người cảnh báo về nguy cơ AI thảm họa thường được gọi là “AI doomers,” mặc dù họ không thích cái tên đó. Họ lo lắng rằng các hệ thống AI sẽ ra quyết định giết người, được sử dụng bởi những người mạnh để áp đặt dân chúng, hoặc góp phần vào sự sụp đổ của xã hội theo một cách nào đó.
Năm 2023, dường như chúng ta đang ở vào giai đoạn phục hồi cho luật lệ công nghệ. AI doom và AI safety - một chủ đề rộng lớn có thể bao gồm ảo giác, kiểm duyệt nội dung không đầy đủ, và cách AI khác có thể gây hại cho xã hội - từ một chủ đề hẹp hẻo được thảo luận tại các quán cà phê ở San Francisco thành một cuộc trò chuyện xuất hiện trên các kênh truyền hình MSNBC, CNN, và trang đầu của tờ New York Times.
Để tổng kết các cảnh báo được đưa ra vào năm 2023: Elon Musk và hơn 1.000 kỹ sư công nghệ và nhà khoa học đã kêu gọi tạm dừng phát triển AI, yêu cầu thế giới chuẩn bị cho các rủi ro sâu sắc của công nghệ này. Ngay sau đó, các nhà khoa học hàng đầu tại OpenAI, Google, và các phòng thí nghiệm khác đã ký một thư mở nói rằng nguy cơ AI gây ra tuyệt chủng loài người cần được đánh giá cao hơn. Một số tháng sau, Tổng thống Biden ký một sắc lệnh về AI với mục tiêu chung là bảo vệ người Mỹ khỏi các hệ thống AI. Vào tháng 11 năm 2023, Hội đồng phi lợi nhuận đứng sau hãng phát triển AI hàng đầu thế giới, OpenAI, đã sa thải Sam Altman, tuyên bố rằng CEO của mình có tiếng nói dối và không được tin tưởng với một công nghệ quan trọng như trí tuệ nhân tạo tổng quát, hoặc AGI - một khi được tưởng tượng là điểm cuối của AI, có nghĩa là hệ thống thực sự có tính tự ý thức. (Mặc dù định nghĩa hiện tại đang thay đổi để đáp ứng nhu cầu kinh doanh của những người thảo luận về nó.)
Trong một khoảnh khắc, dường như những ước mơ của các doanh nhân Silicon Valley sẽ phải nhường chỗ cho sức khỏe tổng thể của xã hội.
Nhưng với những doanh nhân đó, cách mạch câu chuyện về AI doom là đáng bận tâm hơn cả các mô hình AI đó.
Đáp lại, Marc Andreessen, người sáng lập a16z, đã xuất bản bài viết “Tại sao AI sẽ cứu thế giới” vào tháng 6 năm 2023, một bài luận dài 7.000 từ phân rã nghịch lý của các đội đồng sáng tạo AI và trình bày một tầm nhìn lạc quan hơn về cách công nghệ sẽ diễn ra.

“Thời đại Trí tuệ nhân tạo đã đến, và anh chàng biết rõ mọi người đang hoảng sợ. May mà tôi đây để mang tin vui: AI sẽ không phá hủy thế giới, thực ra có thể cứu nó,” nói Andreessen trong bài viết.
Trong kết luận của mình, Andreessen đưa ra một giải pháp thuận tiện cho nỗi sợ hãi của chúng ta về AI: hành động nhanh và phá vỡ mọi vấn đề - về cơ bản cùng một tư tưởng đã xác định mọi công nghệ thế kỷ 21 khác (và các vấn đề đi kèm của chúng). Anh ấy lập luận rằng các công ty Big Tech và các công ty khởi nghiệp nên được phép xây dựng AI càng nhanh càng quyết liệt, với rất ít hoặc không có rào cản quy định. Điều này sẽ đảm bảo AI không rơi vào tay của một vài công ty mạnh hoặc chính phủ, và sẽ cho phép Mỹ cạnh tranh hiệu quả với Trung Quốc, anh ấy nói.
Tất nhiên, điều này cũng sẽ cho phép rất nhiều công ty AI khởi nghiệp của a16z kiếm được nhiều tiền hơn - và một số người thấy tư duy lạc quan về công nghệ của anh ta không phù hợp trong thời đại chênh lệch thu nhập cực kỳ lớn, đại dịch, và cuộc khủng hoảng nhà ở.
Trong khi Andreessen không phải lúc nào cũng đồng ý với Big Tech, kiếm tiền là một lĩnh vực mà cả ngành công nghiệp đều thông nhau. Các người sáng lập a16z đã viết thư cùng với CEO của Microsoft Satya Nadella năm nay, về cơ bản yêu cầu chính phủ không quy định ngành công nghiệp AI chút nào.
Trong khi đó, mặc dù đã hoạt động hết công sức vào năm 2023, Musk và những kỹ sư công nghệ khác không dừng lại để tập trung vào an toàn vào năm 2024 - hoàn toàn trái ngược: đầu tư AI vào năm 2024 đã vượt qua bất kỳ thứ gì chúng ta đã từng thấy trước đây. Altman nhanh chóng quay trở lại vị trí đầu của OpenAI, và một đám nhà nghiên cứu an toàn rời khỏi tổ chức vào năm 2024 trong khi vang chuông cảnh báo về văn hóa an toàn của nó đang giảm.
Sắc lệnh AI tập trung vào an toàn của Biden đã lớn mạnh đi vào quên lãng trong năm nay tại Washington, D.C. - Tổng thống đắc cử mới, Donald Trump, đã thông báo kế hoạch hủy bỏ sắc lệnh của Biden, lập lập rằng nó cản trở sáng tạo AI. Andreessen nói rằng anh đã tư vấn cho Trump về AI và công nghệ trong những tháng gần đây, và một nhà đầu tư rủi ro lâu năm tại a16z, Sriram Krishnan, hiện là cố vấn cao cấp chính thức của Trump về AI.
Các Đảng viên Cộng hòa tại Washington có một số ưu tiên liên quan đến AI mà vượt trội AI doom ngày nay, theo Dean Ball, một nghiên cứu viên tập trung vào AI tại Trung tâm Mercatus của Đại học George Mason. Đó bao gồm xây dựng các trung tâm dữ liệu để cung cấp năng lượng cho AI, sử dụng AI trong chính phủ và quân đội, cạnh tranh với Trung Quốc, hạn chế kiểm duyệt nội dung từ các công ty công nghệ trung tâm-trái, và bảo vệ trẻ em khỏi các chatbot AI.
“Tôi nghĩ [phong trào ngăn chặn nguy cơ AI thảm họa] đã mất sân chơi ở cấp độ liên bang. Tại cấp độ bang và địa phương, họ cũng đã mất cuộc đấu lớn duy nhất của họ,” Ball nói trong một cuộc phỏng vấn với TechCrunch. Tất nhiên, anh ấy đang đề cập đến dự luật an toàn của California, SB 1047 gây tranh cãi.
Một phần lý do AI doom trở nên không còn được ưa chuộng vào năm 2024 đơn giản là, khi các mô hình AI trở nên phổ biến hơn, chúng ta cũng thấy được chúng có thể không thông minh. Khó để tưởng tượng Google Gemini sẽ trở thành Skynet khi nó chỉ bảo bạn đặt keo lên bánh pizza.
Nhưng đồng thời, năm 2024 cũng là một năm mà nhiều sản phẩm AI dường như đưa các khái niệm từ khoa học viễn tưởng vào đời thực. Đầu tiên trong năm nay: OpenAI đã cho thấy cách chúng ta có thể trò chuyện với điện thoại của mình mà không thông qua nó, và Meta đã giới thiệu kính thông minh với hiểu biết hình ảnh thời gian thực. Các ý tưởng dẫn đến rủi ro AI thảm họa chủ yếu bắt nguồn từ các bộ phim khoa học viễn tưởng, và trong khi rõ ràng có một giới hạn, thời đại AI đang chứng minh rằng một số ý tưởng từ khoa học viễn tưởng có thể không còn chỉ là hư cấu mãi mãi.
Trận chiến AI doom lớn nhất của năm 2024: SB 1047

Trận chiến an toàn AI của năm 2024 đã đạt đỉnh với SB 1047, một dự luật được ủng hộ bởi hai nhà nghiên cứu AI rất đánh giá cao: Geoffrey Hinton và Yoshua Benjio. Dự luật đã cố gắng ngăn chặn các hệ thống AI tiên tiến gây ra các sự kiện tuyệt chủng hàng loạt của loài người và các cuộc tấn công mạng có thể gây ra thiệt hại hơn cả sự cố CrowdStrike của năm 2024.
SB 1047 đã được thông qua qua Lập pháp California, điều này đã đưa nó tới bàn của Thống đốc Gavin Newsom, nơi ông gọi đó là một dự luật có “tác động quá lớn.” Dự luật đã cố gắng ngăn ngừa các vấn đề ông Musk, Altman, và nhiều lãnh đạo Silicon Valley khác cảnh báo vào năm 2023 khi họ ký những thư mở về AI đó.
Nhưng Newsom đã từ chối SB 1047. Trong những ngày trước quyết định của mình, ông đã nói về quy định AI trên sân khấu ở trung tâm thành phố San Francisco, nói: “Tôi không thể giải quyết mọi thứ. Chúng ta có thể giải quyết gì?”
Điều đó trình bày rõ cách mà nhiều nhà lập pháp đang suy nghĩ về nguy cơ AI thảm họa hôm nay. Đây không phải là một vấn đề có lời giải pháp đứng đắn.
Tuy vậy, SB 1047 đã có nhược điểm ngoài việ