Xây dựng nguyên tắc phát triển trí tuệ nhân tạo có trách nhiệm

Để phát triển trí tuệ nhân tạo có trách nhiệm, cần có một hệ thống thể chế, chính sách, nguyên tắc điều chỉnh, với sự kết hợp chặt chẽ giữa các quy định pháp luật cứng mang tính ràng buộc với các quy tắc "mềm".

 

Xây dựng nguyên tắc phát triển trí tuệ nhân tạo có trách nhiệm- Ảnh 1.

Mục tiêu của hội thảo là thảo luận về kinh nghiệm quốc tế về xây dựng Bộ nguyên tắc thúc đẩy sự phát triển và ứng dụng của trí tuệ nhân tạo có trách nhiệm - Ảnh: VGP/NN

Trên cơ sở sự hỗ trợ của Chương trình Đối tác Đổi mới sáng tạo Australia-Việt Nam (Aus4Innovation), ngày 5/7, Trường ĐH Luật - ĐH Quốc gia Hà Nội tổ chức hội thảo quốc tế "Kinh nghiệm quốc tế về xây dựng bộ nguyên tắc thúc đẩy sự phát triển và ứng dụng của trí tuệ nhân tạo có trách nhiệm".

Hội thảo có sự tham gia của TS. Kim Wimbush, Tham tán Tổ chức nghiên cứu khoa học và công nghiệp khối thịnh vượng chung (CSIRO), Giám đốc Chương trình Aus4Innovation và nhiều chuyên gia đến từ các cơ quan, bộ, ngành trung ương, các trường đại học, viện nghiên cứu.

Mục tiêu của hội thảo là thảo luận 'kinh nghiệm quốc tế về xây dựng Bộ nguyên tắc thúc đẩy sự phát triển và ứng dụng của trí tuệ nhân tạo có trách nhiệm. Trên cơ sở đó, tổng hợp khuynh hướng – mô hình điển hình trên thế giới và bước đầu rút ra một số hàm ý chính sách về phát triển trí tuệ nhân tạo có trách nhiệm ở Việt Nam.

Trong 5 năm, từ 2019 đến 2024, các tổ chức quốc tế, các quốc gia và khu vực đã có những động thái tích cực, khẩn trương trong việc xây dựng thể chế, chính sách, bộ nguyên tắc đạo đức thúc đẩy sự phát triển của trí tuệ nhân tạo đáng tin cậy và có trách nhiệm, hạn chế rủi ro, tác động tiêu cực do trí tuệ nhân tạo mang lại như OECD, UNESCO, Australia, Hoa Kỳ, Liên minh châu Âu, Trung Quốc, ASEAN… 

Tuy nhiên, so với nhiều quốc gia trên thế giới, các thảo luận chính sách về trí tuệ nhân tạo có đạo đức hay trí tuệ nhân tạo có trách nhiệm ở Việt Nam còn khá ít ỏi trên Internet, các diễn đàn, hội nghị, hội thảo cũng như trên các phương tiện truyền thông.

"Đổi mới có trách nhiệm" và "trí tuệ nhân tạo có trách nhiệm"

Với 4 tham luận được trình bày bởi GS. Andy Hall, Chuyên gia cao cấp CSIRO (một cơ quan khoa học-công nghệ của chính phủ Australia); Mr. Jonathan Wallace Baker, Trưởng đại diện UNESCO tại Việt Nam; TS. Trần Anh Tú, Phó Vụ trưởng Vụ Công nghệ cao (Bộ Khoa học và Công nghệ) và nhóm nghiên cứu của Trường ĐH Luật - ĐH Quốc gia Hà Nội do PGS. TS. Nguyễn Thị Quế Anh, Hiệu trưởng Trường Đại học Luật là trưởng nhóm.

Xây dựng nguyên tắc phát triển trí tuệ nhân tạo có trách nhiệm- Ảnh 2.

Hội thảo quốc tế "Kinh nghiệm quốc tế về xây dựng bộ nguyên tắc thúc đẩy sự phát triển và ứng dụng của trí tuệ nhân tạo có trách nhiệm" - Ảnh: VGP/NN

Sau phiên thảo luận sôi nổi giữa các chuyên gia, Hội thảo đã thống nhất một số điểm quan trọng. Đó là, đổi mới sáng tạo nói chung và phát triển trí tuệ nhân tạo nói riêng tiềm ẩn những rủi ro, bất định, do đó cần nhấn mạnh tầm quan trọng của "đổi mới có trách nhiệm" và "trí tuệ nhân tạo có trách nhiệm".

Thứ hai, để phát triển trí tuệ nhân tạo có trách nhiệm, cần có một hệ thống thể chế, chính sách, nguyên tắc điều chỉnh, với sự kết hợp chặt chẽ giữa các quy định pháp luật cứng mang tính ràng buộc với các quy tắc "mềm" như đạo đức, hướng dẫn, khuyến nghị bởi pháp luật thường đi sau sự phát triển công nghệ, đối với các công nghệ mới nổi, cách tiếp cận kết hợp giữa luật cứng và luật mềm là sự lựa chọn phù hợp nhất.

Thứ ba, xây dựng bộ nguyên tắc đạo đức thúc đẩy sự phát triển của trí tuệ nhân tạo có trách nhiệm là nhu cầu tất yếu khách quan và xu hướng chung hiện nay của các quốc gia, khu vực trên thế giới. Bộ nguyên tắc này sẽ xây dựng niềm tin của người dùng và xã hội nói chung vào các hệ thống trí tuệ nhân tạo đang được phát triển và ứng dụng ngày càng sâu rộng vào mọi mặt của đời sống xã hội.

Thứ tư, Bộ nguyên tắc và các hướng dẫn về trí tuệ nhân tạo có trách nhiệm cần mang tính linh hoạt, thích ứng, thường xuyên được đánh giá, cập nhật, bổ sung theo sự phát triển nhanh chóng của trí tuệ nhân tạo.

Thứ năm, ba trụ cột cốt lõi để phát triển trí tuệ nhân tạo có trách nhiệm là pháp luật, đạo đức và tính bền vững về kỹ thuật/công nghệ. 

Điểm chung của các bộ nguyên tắc đạo đức trí tuệ nhân tạo trên thế giới thường có các nguyên tắc nền tảng như: Trí tuệ nhân tạo vị nhân sinh, vì lợi ích của con người, tôn trọng tính tự chủ và sự giám sát của con người đối với trí tuệ nhân tạo, bền vững kỹ thuật và an toàn, quyền riêng tư và quản trị dữ liệu, tính minh bạch và có thể giải thích được, tính đa dạng, bao trùm, bình đẳng, không phân biệt đối xử và công bằng, trách nhiệm và trách nhiệm giải trình.

Theo các chuyên gia, đây là những kinh nghiệm có giá trị tham khảo đối với Việt Nam. Tuy nhiên cần xem xét những đặc thù về kinh tế, xã hội của Việt Nam khi áp dụng kinh nghiệm quốc tế.

Phương Liên

Link nội dung: https://vsta.org.vn/xay-dung-nguyen-tac-phat-trien-tri-tue-nhan-tao-co-trach-nhiem-24195.html