
Có những rủi ro cụ thể nào một người, một công ty hoặc chính phủ nên xem xét khi sử dụng một hệ thống trí tuệ nhân tạo, hoặc đưa ra các quy định để điều chỉnh việc sử dụng nó? Đây không phải là một câu hỏi dễ trả lời. Nếu đó là một hệ thống trí tuệ nhân tạo có kiểm soát trên cơ sở hạ tầng quan trọng, thì rõ ràng là có rủi ro đối với an toàn của con người. Nhưng còn về một hệ thống trí tuệ nhân tạo được thiết kế để chấm điểm bài kiểm tra, sắp xếp hồ sơ xin việc hoặc xác minh tài liệu du lịch tại kiểm soát nhập cảnh? Mỗi một trong số đó đều mang theo những rủi ro riêng, tuy nhiên không kém phần nghiêm trọng.
Trong việc đưa ra luật lệ để điều chỉnh trí tuệ nhân tạo, như đạo luật AI của Liên minh Châu Âu hoặc SB 1047 của California, các nhà lập pháp đã gặp khó khăn trong việc đạt được sự đồng thuận về những rủi ro mà các đạo luật nên bao gồm. Để hỗ trợ cung cấp một dấu mốc cho họ, cũng như cho các bên liên quan trong ngành công nghiệp và giáo dục về trí tuệ nhân tạo, các nhà nghiên cứu của MIT đã phát triển những gì họ gọi là một “kho dữ liệu về rủi ro” của trí tuệ nhân tạo - một loại cơ sở dữ liệu về các rủi ro của trí tuệ nhân tạo.
“Đây là một cố gắng để chặt chẽ phân loại và phân tích các rủi ro của trí tuệ nhân tạo thành một cơ sở dữ liệu rủi ro toàn diện, có thể tiếp cận công khai, mở rộng và được phân loại mà bất kỳ ai có thể sao chép và sử dụng, và sẽ được cập nhật theo thời gian,” Peter Slattery, một nhà nghiên cứu tại nhóm FutureTech của MIT và là người điều hành dự án kho dữ liệu rủi ro AI, nói với TechCrunch. “Chúng tôi tạo ra điều này bây giờ vì chúng tôi cần nó cho dự án của chúng tôi, và đã nhận ra rằng nhiều người khác cũng cần nó.”
Slattery cho biết rằng kho dữ liệu rủi ro AI, bao gồm hơn 700 rủi ro AI được nhóm lại theo yếu tố gây ra (ví dụ: chủ ý), lĩnh vực (ví dụ: phân biệt đối xử) và phân lĩnh vực (ví dụ: tin giả và cuộc tấn công mạng), đã được tạo ra từ mong muốn hiểu rõ về sự trùng hợp và không liên quan trong nghiên cứu an toàn trí tuệ nhân tạo. Có các hệ thống khung rủi ro khác tồn tại. Nhưng theo Slattery, chúng chỉ bao gồm một phần nhỏ các rủi ro được xác định trong kho dữ liệu, và những bỏ sót này có thể gây hậu quả nghiêm trọng cho việc phát triển, sử dụng và lập luật trong lĩnh vực trí tuệ nhân tạo.
“Mọi người có thể cho rằng có sự đồng thuận về các rủi ro của trí tuệ nhân tạo, nhưng những kết quả của chúng tôi cho thấy điều ngược lại,” Slattery bổ sung. “Chúng tôi đã tìm thấy rằng các hệ thống khung trung bình chỉ đề cập đến 34% trong số 23 phân lĩnh vực rủi ro mà chúng tôi xác định, và gần một phần tư chỉ đề cập dưới 20%. Không có tài liệu hoặc tổng quan nào nhắc đến tất cả 23 phân lĩnh vực rủi ro, và cái toàn diện nhất chỉ đề cập đến 70%. Khi văn học phân tán như thế này, chúng ta không nên giả định rằng tất cả chúng ta đều đồng ý về các rủi ro này.”
Để xây dựng kho dữ liệu, các nhà nghiên cứu của MIT đã làm việc với đồng nghiệp tại Đại học Queensland, tổ chức phi lợi nhuận Future of Life Institute, KU Leuven và công ty khởi nghiệp trí tuệ nhân tạo Harmony Intelligence để lục soát các cơ sở dữ liệu học thuật và thu thập hàng nghìn tài liệu liên quan đến đánh giá rủi ro trí tuệ nhân tạo.
Các nhà nghiên cứu đã phát hiện rằng các hệ thống khung của bên thứ ba mà họ đã khảo sát thường đề cập đến một số rủi ro nhiều hơn so với các rủi ro khác. Ví dụ, hơn 70% các hệ thống khung đã bao gồm các ảnh hưởng đến quyền riêng tư và bảo mật của trí tuệ nhân tạo, trong khi chỉ có 44% đề cập đến tin giả. Và trong khi hơn 50% bàn luận về các hình thức phân biệt đối xử và sự biến đổi thông tin mà trí tuệ nhân tạo có thể gây ra, chỉ có 12% nói về “ô nhiễm của hệ sinh thái thông tin” - tức là lượng spam do trí tuệ nhân tạo tăng lên.
“Một điều mà các nhà nghiên cứu và nhà lập pháp, và bất kỳ ai làm việc với rủi ro, cần lưu ý là cơ sở dữ liệu này có thể cung cấp một nền tảng để xây dựng khi làm công việc cụ thể hơn,” Slattery nói. “Trước đây, những người như chúng tôi có hai lựa chọn. Họ có thể dành thời gian đáng kể để xem xét văn học phân tán để phát triển một tổng quan toàn diện, hoặc họ có thể sử dụng một số hệ thống khung tồn tại, mà có thể bỏ lỡ các rủi ro liên quan. Bây giờ họ có một cơ sở dữ liệu toàn diện hơn, vì vậy kho dữ liệu của chúng tôi sẽ hy vọng có thể tiết kiệm thời gian và tăng cường sự giám sát.”
Nhưng liệu có ai sẽ sử dụng nó không? Đúng là rằng việc điều chỉnh trí tuệ nhân tạo trên toàn thế giới hiện nay tốt nhất cũng chỉ là một hỗn tạp: một loạt các phương pháp khác nhau không đồng nhất trong các mục tiêu của họ. Nếu một kho dữ liệu rủi ro của trí tuệ nhân tạo như của MIT đã tồn tại trước đây, liệu nó có thay đổi điều gì không? Có thể không? Điều đó khó nói.
Một câu hỏi khác đáng xem xét là liệu việc đồng thuận về những rủi ro mà trí tuệ nhân tạo đem lại có đủ để thúc đẩy các bước tiến về việc điều chỉnh nó một cách hiệu quả. Nhiều đánh giá an toàn cho các hệ thống trí tuệ nhân tạo có những hạn chế đáng kể, và một cơ sở dữ liệu về rủi ro không nhất thiết giải quyết vấn đề đó.
Các nhà nghiên cứu của MIT dự định sẽ thử làm điều đó. Neil Thompson, trưởng nhóm FutureTech, cho biết nhóm dự định trong giai đoạn nghiên cứu tiếp theo sử dụng kho dữ liệu để đánh giá mức độ giải quyết các rủi ro trí tuệ nhân tạo khác nhau.
“Kho dữ liệu của chúng tôi sẽ giúp chúng tôi trong bước nghiên cứu tiếp theo, khi chúng tôi sẽ đánh giá mức độ giải quyết các rủi ro khác nhau,” Thompson nói. “Chúng tôi dự định sử dụng nó để xác định các điểm yếu trong các phản ứng tổ chức. Ví dụ, nếu tất cả mọi người tập trung vào một loại rủi ro trong khi bỏ qua những loại rủi ro khác cần chú ý, đó là điều chúng tôi nên nhận thấy và giải quyết.”