Xã Hội

ĐBQH đề xuất thiết kế "vòng kim cô" pháp lý và kỹ thuật cho AI

Chiều 27/11, Quốc hội thảo luận về dự án Luật Trí tuệ nhân tạo.

Đại biểu Trần Văn Lâm (đoàn Bắc Ninh) cho rằng, điều đáng lo nhất không phải là những gì AI làm theo lệnh con người, mà là những gì AI có thể làm khi ở ngoài vòng kiểm soát của con người.

Theo đại biểu, những câu chuyện viễn tưởng về AI thống trị con người không phải để hù dọa, mà để nhắc nhở chúng ta rằng mọi tiến bộ nhân tạo đều có thể phản bội mục tiêu ban đầu nếu không được thiết kế trên nền tảng giá trị đạo đức đúng đắn từ đầu.

Những nguy cơ này cho thấy sự cấp thiết của việc thiết lập một khung pháp lý đủ mạnh để AI phát triển đúng hướng và an toàn cho xã hội.

Đại biểu Trần Văn Lâm phát biểu.

Đại biểu Trần Văn Lâm phát biểu.

Tuy nhiên, để luật thực sự hoàn chỉnh và có tầm nhìn xa, đại biểu đề xuất một bổ sung then chốt: "Hãy coi AI như một con người mới sinh”.

Đại biểu kiến nghị Quốc hội bổ sung nguyên tắc pháp lý trong luật này là: Mọi phần mềm AI hoạt động tại Việt Nam, dù do tổ chức trong hay ngoài nước phát triển, đều phải được trang bị một “Cơ sở dữ liệu nền tảng làm người chuẩn mực”.

Cơ sở dữ liệu này phải chứa đựng đầy đủ thông tin để dạy AI hiểu về pháp luật Việt Nam; dạy AI chuẩn mực đạo đức, văn hóa, truyền thống tốt đẹp của dân tộc; dạy AI khả năng nhận diện đúng - sai, hợp chuẩn - trái chuẩn.

Các giới hạn hành vi không được vượt qua các quy tắc nhận diện rủi ro đối với con người và quan trọng nhất, bảo đảm kho dữ liệu nền tảng này phải luôn chiếm vị trí ưu tiên tuyệt đối trong việc chi phối hành vi của AI; không được phép bị ghi đè, thay thế hoặc bị vô hiệu hóa bởi bất kỳ thuật toán hoặc dữ liệu huấn luyện nào khác.

Đại biểu cho rằng đây chính là “vòng kim cô” pháp lý và kỹ thuật bảo đảm AI không đi chệch hướng.

Đề cập phân loại rủi ro và danh mục hệ thống trí tuệ nhân tạo rủi ro cao, đại biểu Thạch Phước Bình (Vĩnh Long) nhấn mạnh, phân loại rủi ro là “linh hồn” của luật AI. Tuy nhiên, hiện dự thảo vẫn chưa đưa ra tiêu chí phân loại mang tính định lượng. Danh mục hệ thống AI “rủi ro cao” đang được quy định tương đối rộng, bao gồm cả các lĩnh vực mà thực tiễn chưa xuất hiện rủi ro đáng kể. Điều này có thể tạo ra “gánh nặng tuân thủ” không cần thiết, đặc biệt với doanh nghiệp nhỏ và vừa.

Với lý lẽ nêu trên, đại biểu Thạch Phước Bình đề nghị rà soát lại danh mục rủi ro cao, theo hướng chỉ tập trung vào những hệ thống có thể gây tác động lớn tới quyền con người, quyền riêng tư, sức khỏe, tài chính và an toàn xã hội. Bên cạnh đó, thiết lập cơ chế cập nhật linh hoạt danh mục này trên cơ sở tham vấn chuyên gia, hiệp hội ngành hàng và tổ chức nghiên cứu. Đồng thời, gắn tiêu chí rủi ro vào các đặc tính kỹ thuật của mô hình như tính tự động, khả năng tự học, tính không dự đoán được và quy mô sử dụng.

Đối với dữ liệu, quyền riêng tư và bảo vệ người dùng, đại biểu Thạch Phước Bình cho rằng, dữ liệu là “nhiên liệu” của AI, nhưng các quy định hiện hành chưa đồng bộ với dự thảo luật Bảo vệ dữ liệu cá nhân. Cần làm rõ mức độ xử lý cho phép đối với dữ liệu nhạy cảm, dữ liệu trẻ em và dữ liệu sinh trắc học. Đồng thời, cần bổ sung nghĩa vụ đánh giá tác động dữ liệu khi triển khai AI rủi ro cao.

Đối với người dùng AI, dự thảo luật đã đề cập một số quyền cơ bản, nhưng vẫn thiếu các quyền quan trọng theo chuẩn quốc tế như quyền từ chối quyết định hoàn toàn tự động hoặc quyền yêu cầu giải thích. Đây là những quyền rất quan trọng để giúp người dân không bị tổn thương bởi các quyết định dựa trên AI trong lĩnh vực tài chính, bảo hiểm, y tế hoặc tuyển dụng lao động.

Bộ trưởng Bộ Khoa học và Công nghệ Nguyễn Mạnh Hùng giải trình ý kiến của đại biểu.

Bộ trưởng Bộ Khoa học và Công nghệ Nguyễn Mạnh Hùng giải trình ý kiến của đại biểu.

Giải trình những ý kiến của các đại biểu liên quan đến quản lý rủi ro từ AI, Bộ trưởng Bộ Khoa học và Công nghệ Nguyễn Mạnh Hùng nhấn mạnh, việc sớm có Luật AI là thực sự cần thiết để chúng ta phát triển AI một cách chủ động và có hệ thống để thu hút đầu tư, để phát triển đất nước nhanh và bền vững.

Bộ trưởng Nguyễn Mạnh Hùng cho biết, Nhà nước yêu cầu đánh giá rủi ro, kiểm thử độc lập và trách nhiệm giải trình với đầu ra nơi rủi ro trở thành hiện thực. Nhà nước quản lý bằng tiêu chuẩn an toàn, cơ chế hậu kiểm và các chế tài khi phát sinh hậu quả. Như vậy, quản trị AI không phải là phát minh ra một triết lý hoàn toàn mới mà đã kế thừa kinh nghiệm quản lý trí tuệ của con người áp dụng cho một công cụ mạnh hơn và nhanh hơn.

Về phát triển AI lấy con người làm trung tâm, Bộ trưởng Nguyễn Mạnh Hùng khẳng định, nguyên tắc tối cao là AI phải phục vụ con người và không thay thế vai trò quyết định của con người. Yêu cầu minh bạch là người dân phải biết khi nào họ tương tác với AI, quy định trách nhiệm pháp lý khi AI gây thiệt hại. Cơ quan soạn thảo đã bổ sung quy định trách nhiệm rõ ràng của các bên liên quan như nhà phát triển, nhà cung cấp, nhà triển khai và người sử dụng.

Về quản lý AI dựa trên mức độ rủi ro, cơ quan soạn thảo đã nghiên cứu, tiếp thu ý kiến của các đại biểu theo hướng có 3 mức độ rủi ro: thấp, trung bình và cao; đồng thời bổ sung một điều về các hành vi bị cấm. Về tiền kiểm AI rủi ro cao, trong dự án luật đã đưa ra hình thức, nghĩa vụ tối thiểu trước khi triển khai cộng với hậu kiểm.

Các tin khác

LPBank liên tiếp ngăn chặn các vụ lừa đảo chiếm đoạt tài sản

Trước tình trạng tội phạm công nghệ cao diễn biến phức tạp với nhiều thủ đoạn tinh vi, đội ngũ cán bộ nhân viên LPBank đã thể hiện sự nhạy bén và tinh thần trách nhiệm cao, kịp thời phát hiện và ngăn chặn nhiều vụ lừa đảo qua mạng, bảo vệ an toàn tài sản hàng trăm triệu đồng cho khách hàng.

Thông báo hoả tốc từ Cục Thuế

Ngày 25/11, Cục Thuế đã có Công văn hỏa tốc số 5526/CT-CS gửi Trưởng Thuế các tỉnh, thành phố về việc khẩn trương hỗ trợ người nộp thuế bị tổn thất do bão lũ khắc phục hậu quả do bão lũ và mưa lũ sau bão gây ra.