Giám đốc trí tuệ nhân tạo CIA Lakshmi Raman cho biết công ty đã áp dụng một 'cách tiếp cận tỉ mỉ' đối với trí tuệ nhân tạo

Là một phần của loạt bài báo Women in AI của TechCrunch, mà mục tiêu là tôn vinh các phụ nữ tập trung vào trí tuệ nhân tạo giáo dục và những người khác, TechCrunch đã phỏng vấn Lakshmi Raman, giám đốc trí tuệ nhân tạo tại CIA. Chúng tôi đã thảo luận về công việc của cô ấy như giám đốc cũng như việc sử dụng trí tuệ nhân tạo của CIA và sự cân nhắc cần được thực hiện giữa việc chấp nhận công nghệ mới trong khi triển khai nó một cách chịu trách nhiệm.

Raman đã có mặt trong ngành tình báo từ lâu. Cô ấy gia nhập CIA vào năm 2002 như một nhà phát triển phần mềm sau khi tốt nghiệp bằng cử nhân từ Đại học Illinois Urbana-Champaign và bằng thạc sĩ về khoa học máy tính từ Đại học Chicago. Vài năm sau đó, cô ấy chuyển sang công việc quản lý tại cơ quan này, cuối cùng điều hành các nỗ lực khoa học dữ liệu toàn diện của CIA.

Raman cho biết cô ấy rất may mắn khi có những lời khuyên từ các người phụ nữ tiêu biểu và tiền bối tại CIA, đặc biệt là trong bối cảnh lịch sử của ngành tình báo vẫn do đàn ông chiếm ưu thế.

“Tôi vẫn có những người mà tôi có thể tham khảo, hỏi lời khuyên từ họ, và tiếp cận về những gì vị trí lãnh đạo tiếp theo trông như thế nào,” cô ấy nói. “Tôi nghĩ rằng có những điều mà mỗi phụ nữ phải vượt qua trong quá trình điều hành sự nghiệp của mình.”

Trí tuệ nhân tạo như một công cụ tình báo

Trong vai trò giám đốc, Raman điều hành, tích hợp và thúc đẩy các hoạt động trí tuệ nhân tạo trên toàn CIA. “Chúng tôi cho rằng trí tuệ nhân tạo ở đây để hỗ trợ sứ mệnh của chúng tôi,” cô ấy nói. “Là con người và máy móc cùng nhau là người đứng đầu trong việc sử dụng trí tuệ nhân tạo của chúng tôi.”

Trí tuệ nhân tạo không phải là điều mới với CIA. Cơ quan này đã nghiên cứu ứng dụng khoa học dữ liệu và trí tuệ nhân tạo từ khoảng năm 2000, Raman cho biết, đặc biệt là trong lĩnh vực xử lý ngôn ngữ tự nhiên (tức là phân tích văn bản), thị giác máy tính (phân tích hình ảnh) và phân tích video. CIA cố gắng duy trì vị thế hàng đầu về các xu hướng mới, như trí tuệ nhân tạo tạo ra, cô ấy thêm vào, với một kế hoạch được thông tin từ cả ngành công nghiệp và giáo dục.

“Khi chúng tôi nghĩ về lượng dữ liệu lớn mà chúng tôi phải tiêu thụ trong cơ quan, sàng lọc nội dung là một lĩnh vực mà trí tuệ nhân tạo tạo ra có thể tạo ra khác biệt,” Raman nói. “Chúng tôi đang nhìn vào các vấn đề như hỗ trợ tìm kiếm và khám phá, việc tạo ra ý tưởng, và giúp chúng tôi tạo ra các lập luận phản biện để giúp đối phó với độ chệch phân tích mà chúng tôi có thể có.”

Trong cộng đồng tình báo Hoa Kỳ, có một tình hình khẩn cấp để triển khai bất kỳ công cụ nào có thể giúp CIA chống lại sự căng thẳng chính trị toàn cầu đang gia tăng, từ những đe dọa khủng bố được thúc đẩy bởi chiến tranh ở Gaza đến các chiến dịch thông tin sai lệch được tổ chức bởi các đối tác nước ngoài (ví dụ, Trung Quốc, Nga). Năm ngoái, Dự án Nghiên cứu Cạnh tranh Đặc biệt, một nhóm tư vấn hạng cao tập trung vào trí tuệ nhân tạo trong an ninh quốc gia, đã đề ra kế hoạch hai năm cho các dịch vụ tình báo nội địa để vượt khỏi thí nghiệm và dự án thử nghiệm giới hạn để triển khai trí tuệ nhân tạo tạo ra theo quy mô.

Một công cụ trí tuệ nhân tạo tạo ra mà CIA phát triển, Osiris, giống như ChatGPT của OpenAI, nhưng được tùy chỉnh cho các trường hợp sử dụng tình báo. Nó tóm tắt dữ liệu — cho tới bây giờ chỉ là dữ liệu không phân loại và công khai hoặc có sẵn thương mại — và cho phép các nhà phân tích đào sâu hơn bằng cách đặt các câu hỏi theo cách dễ hiểu trong tiếng Anh đơn giản.

Hiện nay, Osiris đang được hàng nghìn nhà phân tích sử dụng không chỉ trong những bức tường của CIA, mà còn khắp 18 cơ quan tình báo Hoa Kỳ. Raman không tiết lộ liệu nó được phát triển bên trong hay sử dụng công nghệ từ các công ty bên thứ ba nhưng cô ấy nói rằng CIA đã ký kết các hợp tác với các nhà cung cấp nổi tiếng.

“Chúng tôi sử dụng dịch vụ thương mại,” Raman nói thêm, và cũng cho biết rằng CIA đang sử dụng các công cụ trí tuệ nhân tạo cho các công việc như dịch và cảnh báo những nhà phân tích trong ngoài giờ làm việc về những phát triển có thể quan trọng. “Chúng ta cần có thể làm việc chặt chẽ với công nghiệp tư nhân để giúp chúng tôi cung cấp không chỉ các dịch vụ và giải pháp lớn mà bạn đã nghe qua, nhưng còn các dịch vụ cụ thể hơn từ các nhà cung cấp không truyền thống mà bạn có thể chưa nghĩ đến trước đây.”

Một công nghệ gay gắt

Có đủ lý do để nghi ngờ và quan ngại về việc CIA sử dụng trí tuệ nhân tạo.

Vào tháng 2 năm 2022, các thượng nghị sĩ Ron Wyden (D-OR) và Martin Heinrich (D-New Mexico) đã tiết lộ trong một lá thư công khai rằng CIA, mặc dù thường bị cấm điều tra người Mỹ và doanh nghiệp Mỹ, đã có một kho dữ liệu bí mật, không được tiết lộ chứa thông tin được thu thập về công dân Mỹ. Và năm ngoái, báo cáo của Văn phòng Giám đốc Tình báo Quốc gia đã cho thấy các cơ quan tình báo Hoa Kỳ, bao gồm cả CIA, mua dữ liệu về người Mỹ từ các nhà môi giới dữ liệu như LexisNexis và Sayari Analytics mà không được kiểm soát nhiều.

Nếu CIA từng sử dụng trí tuệ nhân tạo để xem xét dữ liệu này, nhiều người Mỹ chắc chắn sẽ phản đối. Điều đó sẽ là vi phạm rõ ràng đến tự do dân sự và, do các hạn chế của trí tuệ nhân tạo, có thể dẫn đến kết quả không công bằng.

Nhiều nghiên cứu đã chỉ ra rằng các thuật toán dự đoán tội phạm từ các công ty như Geolitica dễ bị chệch vì tỷ lệ bắt giữ và thường gắn liền với cộng đồng Da đen. Những nghiên cứu khác gợi ý rằng công nghệ nhận diện khuôn mặt dẫn đến tỷ lệ nhận dạng sai lớn hơn ở nhóm người da màu so với người da trắng.

Ngoài chênh lệch, thậm chí cả trí tuệ nhân tạo tốt nhất hôm nay cũng sản xuất ra thông tin, hoặc phát minh ra sự thật và con số khi nhận câu hỏi. Lấy ví dụ về phần mềm tóm tắt cuộc họp của Microsoft, đôi khi nó gán các câu trích dẫn cho những người không tồn tại. Mọi người có thể tưởng tượng được làm thế nào điều này có thể trở thành một vấn đề trong công việc tình báo, nơi sự chính xác và khả năng xác thực là quan trọng nhất.

Raman khẳng định rằng CIA không chỉ tuân thủ tất cả các luật pháp Hoa Kỳ mà còn “tuân theo tất cả các hướng dẫn về đạo đức” và sử dụng trí tuệ nhân tạo “một cách giảm thiểu định kiến.”

“Tôi sẽ gọi đó là một cách tiếp cận tỉ mỉ [đối với trí tuệ nhân tạo],” cô ấy nói. “Tôi nghĩ rằng cách tiếp cận chúng tôi đang thực hiện là một cách mà chúng tôi muốn người sử dụng hiểu càng nhiều càng tốt về hệ thống trí tuệ nhân tạo mà họ đang sử dụng. Xây dựng trí tuệ nhân tạo có trách nhiệm có nghĩa là chúng tôi cần phải có tất cả các bên liên quan tham gia; điều đó đồng nghĩa với các nhà phát triển trí tuệ nhân tạo, văn phòng bảo vệ quyền riêng tư và dân sự của chúng tôi [và như vậy].”

Theo quan điểm của Raman, bất kể một hệ thống trí tuệ nhân tạo được thiết kế để làm gì, quan trọng là các nhà thiết kế của hệ thống phải làm rõ các lĩnh vực nơi nó có thể sụt giảm. Trong một nghiên cứu gần đây, các nhà nghiên cứu Đại học North Carolina đã phát hiện rằng các công cụ trí tuệ nhân tạo, bao gồm cả thuật toán nhận diện khuôn mặt và thuật toán phát hiện súng, được sử dụng bởi cảnh sát không quen biết với các công nghệ hoặc nhược điểm của chúng.

Trong một ví dụ cụ thể của lạm dụng trí tuệ nhân tạo trong công việc thực thi pháp luật, có lẽ do sự ngu dốt, Sở Cảnh sát New York đã từng sử dụng hình ảnh của người nổi tiếng, hình ảnh bị méo mó và bản phác thảo để tạo ra sự phân biệt nhận diện khuôn mặt cho các nghi can trong các trường hợp khảo sát vẫn chưa có kết quả.

“Mọi bản ra có Sinh ra bởi trí tuệ nhân tạo cần được hiểu rõ bởi người sử dụng, và điều đó có nghĩa, rõ ràng, gán nhãn cho nội dung được sinh ra bởi trí tuệ nhân tạo và cung cấp các giải thích rõ ràng về cách hệ thống trí tuệ nhân tạo hoạt động,” Raman nói. “Mọi thứ chúng tôi làm trong cơ quan, chúng tôi tuân theo các yêu cầu pháp lý, và chúng tôi đảm bảo rằng người sử dụng và đối tác cũng như các bên liên quan của chúng tôi đều hiểu rõ tất cả các luật lệ, quy định và hướng dẫn đạo đức liên quan đến việc sử dụng các hệ thống trí tuệ nhân tạo của chúng tôi, và chúng tôi tuân thủ tất cả các quy định này.

Phóng viên hy vọng rằng điều đó là đúng.