Luật Trí tuệ nhân tạo: Bốn “chốt" pháp lý quan trọng với công nghệ AI
Luật Trí tuệ nhân tạo mới ban hành tạo khung pháp lý đầu tiên bảo vệ quyền con người, quản trị rủi ro công nghệ AI, với quy định nghiêm cấm thao túng thông tin và xử lý trách nhiệm pháp lý khi AI gây thiệt hại.
Luật Trí tuệ nhân tạo (AI) vừa được Quốc hội thông qua là văn bản pháp luật đầu tiên tại Việt Nam xây dựng khung pháp lý toàn diện cho hoạt động nghiên cứu, phát triển, triển khai và sử dụng AI. Luật gồm 8 chương, 35 điều và có hiệu lực từ 01/03/2026.

Lần đầu xác lập rõ các hành vi bị nghiêm cấm trong lĩnh vực AI
Một điểm nổi bật của Luật Trí tuệ nhân tạo là việc xác định cụ thể các hành vi bị nghiêm cấm trong quá trình phát triển và sử dụng AI. Theo đó, pháp luật không cho phép lợi dụng AI để xâm phạm quyền, lợi ích hợp pháp của tổ chức, cá nhân; thao túng nhận thức, hành vi con người; hoặc thực hiện các hành vi gian lận, lừa đảo, xâm phạm an ninh quốc gia, trật tự an toàn xã hội.
Đáng chú ý, luật cũng cấm việc thu thập, xử lý dữ liệu trái pháp luật để huấn luyện và vận hành hệ thống AI, qua đó tạo mối liên kết chặt chẽ giữa Luật AI với pháp luật về bảo vệ dữ liệu cá nhân, an ninh mạng và sở hữu trí tuệ. Đây là cơ sở pháp lý quan trọng để xử lý các hành vi sử dụng AI “vượt rào”, gây hệ lụy xã hội.
Luật Trí tuệ nhân tạo khẳng định rõ nguyên tắc lấy con người làm trung tâm, coi đây là nền tảng xuyên suốt trong quản lý và ứng dụng AI. Theo đó, việc phát triển và sử dụng AI phải bảo đảm quyền con người, quyền riêng tư, nhân phẩm, lợi ích hợp pháp của cá nhân, tổ chức; đồng thời không được gây tổn hại đến các nhóm yếu thế trong xã hội.
Việc luật hóa nguyên tắc này cho thấy cách tiếp cận thận trọng của nhà làm luật, nhằm tránh xu hướng “công nghệ dẫn dắt pháp luật”, đồng thời đặt AI dưới sự kiểm soát của con người và chuẩn mực pháp lý.
Trước nguy cơ lan truyền thông tin sai lệch, giả mạo bằng công nghệ AI, luật mới lần đầu tiên đặt ra yêu cầu gắn nhãn nhận biết đối với nội dung do AI tạo ra hoặc chỉnh sửa, đặc biệt là các sản phẩm mô phỏng giọng nói, hình ảnh, video, sự kiện có thật.
Quy định này không nhằm hạn chế sáng tạo, mà hướng tới bảo đảm quyền được biết của người tiếp nhận thông tin, tăng tính minh bạch và trách nhiệm của chủ thể sử dụng AI. Đây cũng là công cụ pháp lý quan trọng để phòng ngừa và xử lý hành vi “deepfake”, thao túng dư luận trong không gian số.
Trách nhiệm pháp lý và bồi thường thiệt hại
Thay vì áp dụng một cơ chế quản lý cứng nhắc, Luật Trí tuệ nhân tạo lựa chọn phương thức phân loại hệ thống AI theo mức độ rủi ro, từ thấp đến cao, để áp dụng các biện pháp quản lý tương ứng. Những hệ thống AI có nguy cơ cao ảnh hưởng đến tính mạng, sức khỏe, quyền con người hoặc an ninh quốc gia sẽ chịu sự giám sát chặt chẽ hơn.
Cách tiếp cận này vừa phù hợp thông lệ quốc tế, vừa tạo không gian pháp lý cho doanh nghiệp và tổ chức đổi mới sáng tạo trong giới hạn kiểm soát được rủi ro.
Luật cũng đặt ra nguyên tắc xác lập trách nhiệm pháp lý rõ ràng khi AI gây thiệt hại. Ngay cả trong trường hợp hệ thống AI được triển khai đúng quy định nhưng vẫn gây ra hậu quả, chủ thể triển khai vẫn có thể phải chịu trách nhiệm bồi thường. Đây là điểm mới, phản ánh quan điểm quản lý dựa trên trách nhiệm và phòng ngừa rủi ro.
Có thể thấy, Luật Trí tuệ nhân tạo không chỉ đơn thuần là một đạo luật công nghệ, mà còn là luật về quản trị rủi ro và bảo vệ quyền con người trong kỷ nguyên số.
Đối với doanh nghiệp, tổ chức và cá nhân ứng dụng AI, luật mới đòi hỏi tư duy tuân thủ sớm, coi việc quản trị pháp lý AI là một phần trong chiến lược phát triển bền vững, thay vì chỉ là nghĩa vụ đối phó khi xảy ra rủi ro.