Ngày 11/6, Bộ Khoa học và Công nghệ (KH và CN) đã ban hành Quyết định số 1290 đưa ra 9 nguyên tắc thúc đẩy nghiên cứu và phát triển các hệ thống trí tuệ nhân tạo (AI) an toàn, có trách nhiệm, hạn chế ảnh hưởng tiêu cực và kiểm soát rủi ro.
• Liên Hiệp Quốc thông qua nghị quyết về AI để bảo vệ nhân quyền
• G7 thống nhất về nguyên tắc phát triển trí tuệ nhân tạo
Đây là lần đầu tiên bộ nguyên tắc chung cho nghiên cứu, phát triển các hệ thống trí tuệ nhân tạo (AI) có trách nhiệm, dành cho các cơ quan, tổ chức khoa học và công nghệ, doanh nghiệp cá nhân có hoạt động thiết kế, phát triển cung cấp các hệ thống AI được đưa ra tại Việt Nam.
Các nguyên tắc bao gồm:
Tinh thần hợp tác, thúc đẩy đổi mới sáng tạo. Nhà phát triển cần chú ý đến khả năng kết nối và tương tác của các hệ thống AI nhằm tăng cường lợi ích của hệ thống AI thông qua quá trình kết nối các hệ thống và tăng cường sự phối hợp để kiểm soát rủi ro. Muốn vậy các nhà phát triển cần hợp tác chia sẻ thông tin liên quan nhằm đảm bảo tính liên thông, tương tác của hệ thống. Ưu tiên phát triển các hệ thống AI phù hợp các quy chuẩn kỹ thuật, tiêu chuẩn quốc gia hoặc tiêu chuẩn quốc tế, bên cạnh đó chuẩn hóa của các định dạng dữ liệu và tính mở của các giao diện, giao thức trong đó có các giao diện lập trình ứng dụng (API). Việc chia sẻ và trao đổi các điều kiện về quyền sở hữu trí tuệ như bằng sáng chế cũng góp phần tăng cường tính liên kết và khả năng tương tác khi liên quan đến các tài sản trí tuệ.
Tính minh bạch: Nhà phát triển cần chú ý đến việc kiểm soát đầu vào/đầu ra của hệ thống AI và khả năng giải thích các phân tích có liên quan dựa trên các đặc điểm của công nghệ được áp dụng và cách sử dụng chúng.
Khả năng kiểm soát hệ thống: Một trong những phương pháp đánh giá rủi ro là tiến hành thử nghiệm trong một không gian riêng như trong phòng thí nghiệm hoặc môi trường thử nghiệm nơi đã có các biện pháp đảm bảo an ninh, an toàn trước khi đưa vào áp dụng thực tế. Nhà phát triển chú ý đến giám sát hệ thống (có công cụ đánh giá/giám sát hoặc hiệu chỉnh/cập nhật dựa trên các phản hồi của người dùng) và các biện pháp ứng phó (như ngắt hệ thống, ngắt mạng…).
Đánh giá xác định và giảm thiểu các rủi ro liên quan đến sự an toàn của hệ thống AI.
Tính bảo mật: Các nhà phát triển cần chú ý đến tính bảo mật, trong đó đặc biệt lưu ý đến độ tin cậy và khả năng chống chịu các dạng tấn công hoặc tai nạn vật lý của hệ thống trí tuệ nhân tạo. Đồng thời cần đảm bảo tính bảo mật; sự toàn vẹn và tính khả dụng của các thông tin cần thiết liên quan đến sự an toàn thông tin của hệ thống.
Đảm bảo hệ thống trí tuệ nhân tạo không vi phạm quyền riêng tư của người dùng hoặc bên thứ ba. Quyền riêng tư được đề cập trong nguyên tắc này bao gồm không gian (sự yên bình trong cuộc sống cá nhân), thông tin (dữ liệu cá nhân) và sự bí mật của việc thông tin liên lạc. Nhà phát triển có thể thực hiện các biện pháp phù hợp với đặc điểm của công nghệ được áp dụng trong suốt quá trình phát triển hệ thống (từ khi thiết kế) để tránh xâm phạm quyền riêng tư khi đưa vào sử dụng.
Tôn trọng quyền và phẩm giá con người: Khi phát triển các hệ thống AI có liên quan tới con người, các nhà phát triển phải đặc biệt quan tâm đến việc tôn trọng quyền và phẩm giá con người, thực hiện biện pháp phòng ngừa để đảm bảo không vi phạm giá trị con người, đạo đức xã hội.
Hỗ trợ người dùng và tạo điều kiện cho người dùng có cơ hội lựa chọn như tạo ra các giao diện sẵn sàng cung cấp thông tin kịp thời, biện pháp giúp người già, người khuyết tật dễ sử dụng.
Trách nhiệm giải trình: đây là nguyên tắc yêu cầu các nhà phát triển cần thực hiện đối với các hệ thống AI đã phát triển để đảm bảo niềm tin của người dùng.
Bộ Khoa học và Công nghệ cho biết việc xây dựng các tiêu chuẩn nhằm hướng dẫn, định hướng qua đó gia tăng lợi ích từ các hệ thống AI, kiểm soát giảm thiểu các rủi ro trong quá trình phát triển, sử dụng trí tuệ nhân tạo, cân đối các yếu tố kinh tế, đạo đức và pháp lý.
Nhiều quốc gia và tổ chức trên thế giới đã ban hành các nguyên tắc ứng xử khi phát triển hệ thống AI.
Chính phủ Vương quốc Anh ngày 30/3 đã công bố Sách trắng nêu 5 nguyên tắc mà các công ty phải tuân theo như an toàn, bảo mật và mạnh mẽ; tính minh bạch và khả năng giải thích; công bằng; trách nhiệm giải trình và quản trị; và khả năng cạnh tranh và khắc phục.
Ngày 14/5 năm 2023, Nghị viện châu Âu cũng đã thông qua quan điểm đàm phán về Luật Trí tuệ nhân tạo. Các quy định nhằm khuyến khích việc áp dụng AI đáng tin cậy và lấy con người làm trung tâm, đồng thời bảo vệ “sức khỏe, sự an toàn, các quyền cơ bản và nền dân chủ khỏi những tác động có hại của AI”.
Cuối tháng 10/2023, Nhóm các nước công nghiệp phát triển hàng đầu thế giới (G7), bao gồm cả Nhật Bản đã nhất trí đã về các nguyên tắc hướng dẫn và một Bộ quy tắc Ứng xử cho những nhà phát triển các dạng AI tiên tiến. Ngay sau đó, Chính phủ Nhật Bản mới đây đã đưa ra bản dự thảo hướng dẫn sử dụng trí tuệ nhân tạo (AI) áp dụng cho tất cả người sử dụng AI trong doanh nghiệp, bao gồm cả các công ty, tổ chức công nhằm áp dụng trong nước.
Minh Phúc