Việt Nam đang nghiên cứu và xây dựng quy định về đạo đức trong trí tuệ nhân tạo (AI) dựa trên kinh nghiệm thế giới và nguyên tắc của UNESCO, nhằm đảm bảo phát triển AI một cách có trách nhiệm và đạo đức. Các chuyên gia cũng đang theo dõi và tham khảo các quy định về phát triển AI có trách nhiệm từ nhiều quốc gia khác nhau để xây dựng khung pháp lý phù hợp với thực tiễn ở Việt Nam, nhấn mạnh việc cần sự phối hợp giữa các chuyên gia công nghệ, luật, tâm lý học và xã hội học để đạt được mức độ công bằng và an toàn trong phát triển và ứng dụng trí tuệ nhân tạo.
Dựa trên kinh nghiệm ở nhiều nước và nguyên tắc của UNESCO, Việt Nam đang xây dựng quy định nhằm phát triển trí tuệ nhân tạo (AI) một cách có đạo đức và trách nhiệm.
Đạo Đức AI: Vấn Đề Quốc Tế và Ứng Dụng Trong Thực Tế
Trong hội thảo “Phát triển và ứng dụng trí tuệ nhân tạo có trách nhiệm: Lý luận và thực tiễn”, tổ chức sáng 28/2 tại Trường Đại học Luật, ĐHQGHN, Thứ trưởng Khoa học và Công nghệ Bùi Thế Duy nhấn mạnh về tầm quan trọng của việc đảm bảo đạo đức trong lĩnh vực AI.
Nguyên Tắc UNESCO và Phát Triển AI Trách Nhiệm
Ông Duy cũng chia sẻ về nguyên tắc của UNESCO là cơ sở để Việt Nam xây dựng quy định về đạo đức AI, tập trung vào sự hiểu biết và thực thi đảm bảo không gây hại cho con người.
Để đạt được mục tiêu này, sự hợp tác giữa các bên liên quan như kỹ sư, nhà khoa học và các cơ quan quản lý như Bộ Khoa học và Công nghệ, Bộ Thông tin và Truyền thông, Bộ Công an là cần thiết.
Việc xây dựng mô hình AI có trách nhiệm đòi hỏi quản lý toàn diện từ thu thập dữ liệu, xây dựng hệ thống đến ứng dụng. Bảo đảm công bằng, an toàn dữ liệu và tôn trọng quyền lợi của mọi cá nhân trong xã hội là điều cốt lõi.
Tại hội thảo, cũng đã nêu rõ về những kinh nghiệm quốc tế như luật AI Act của Liên minh Châu Âu và các phương thức quản lý AI khác nhau ở Mỹ, Trung Quốc và Nhật Bản, có thể là nguồn cảm hứng cho Việt Nam trong việc phát triển AI có trách nhiệm.
{body}