Trang Trắng

Luật AI mới: Khuôn khổ pháp lý chặn lừa đảo công nghệ cao

  • Lừa đảo AI
  • Pháp lý
  • Bảo vệ người dùng
  • Deepfake
  • Công nghệ cao
đọc mất khoảng 7 phút

Luật AI mới: Khuôn khổ pháp lý chặn lừa đảo công nghệ cao

Luật Trí tuệ nhân tạo 2025 thiết lập cơ chế kiểm soát lừa đảo AI, cấm deepfake và yêu cầu minh bạch nội dung. Tìm hiểu cách bảo vệ bản thân trên Trang Trắng.

Trong những năm gần đây, các hình thức lừa đảo sử dụng công nghệ trí tuệ nhân tạo (AI) ngày càng trở nên tinh vi và khó nhận diện. Để đối phó với mối đe dọa này, Luật Trí tuệ nhân tạo 2025 vừa được ban hành đã thiết lập một khuôn khổ pháp lý toàn diện, lần đầu tiên trong nước, nhằm phòng ngừa, ngăn chặn và xử lý các hành vi lợi dụng AI để chiếm đoạt tài sản và thao túng nhận thức xã hội. Luật này sẽ có hiệu lực từ ngày 1/3/2026, mở ra một giai đoạn mới trong cuộc chiến chống lừa đảo công nghệ cao.

Những thủ đoạn lừa đảo AI ngày càng tinh vi

Các cơ quan chức năng liên tục cảnh báo về sự gia tăng của các hình thức lừa đảo sử dụng công nghệ AI. Phổ biến nhất là công nghệ giả mạo giọng nói, hình ảnh và video, được gọi là deepfake. Chỉ với vài giây dữ liệu thu thập từ mạng xã hội, AI có thể tái tạo gần như giống tuyệt đối giọng nói của người thân, bạn bè, lãnh đạo cơ quan hoặc đối tác làm ăn, từ đó thực hiện các cuộc gọi yêu cầu chuyển tiền khẩn cấp, phê duyệt giao dịch hoặc cung cấp thông tin nhạy cảm.

Ngoài deepfake, các kẻ gian còn sử dụng AI để tạo email, tin nhắn và website giả mạo với nội dung trau chuốt, được "cá nhân hóa" theo từng nạn nhân. Các thông báo về xác minh tài khoản, cảnh báo bảo mật, hoàn tiền hay trúng thưởng được trình bày chuyên nghiệp, dẫn dắt người dùng đến các trang web giả có giao diện gần như bản thật nhằm đánh cắp mật khẩu, mã OTP hoặc thông tin thẻ ngân hàng.

Đặc biệt, lừa đảo đầu tư và tài chính trên mạng xã hội đang bùng nổ mạnh mẽ. Những kẻ lừa đảo sử dụng AI để tạo hình ảnh, video giả mạo chuyên gia tài chính, người nổi tiếng nhằm quảng bá các dự án "siêu lợi nhuận", "cam kết không rủi ro". Thậm chí, các chatbot AI còn được lập trình để tư vấn, trò chuyện liên tục 24/7, tạo cảm giác chuyên nghiệp và đáng tin cậy, từng bước dẫn dụ nạn nhân nạp tiền.

Khuôn khổ pháp lý ngăn chặn lừa đảo công nghệ cao

Luật Trí tuệ nhân tạo 2025 đã thiết lập một hệ thống quy định chặt chẽ nhằm ngăn chặn các hành vi lừa đảo sử dụng AI. Trước hết, Luật xác định rõ những hành vi bị nghiêm cấm. Theo Điều 7, việc sử dụng AI để giả mạo, thao túng hoặc lừa dối con người bị cấm tuyệt đối. Đáng chú ý là nghiêm cấm việc sử dụng yếu tố giả mạo hoặc mô phỏng người thật, sự kiện thật nhằm lừa dối hoặc thao túng nhận thức, hành vi của con người một cách có chủ đích.

Quy định này tạo cơ sở pháp lý trực tiếp để xử lý các hành vi deepfake giọng nói, video giả mạo lãnh đạo, người thân hoặc đối tác nhằm yêu cầu chuyển tiền. Đồng thời, Luật cũng cấm việc tạo ra hoặc phổ biến nội dung giả mạo có khả năng gây nguy hại nghiêm trọng đến trật tự, an toàn xã hội, bao trùm các hình thức video, hình ảnh, thông tin giả do AI tạo ra để lừa đảo cộng đồng.

Bên cạnh việc cấm hành vi, Luật yêu cầu minh bạch đối với nội dung và hệ thống AI. Người sử dụng phải được nhận biết rõ ràng khi đang tương tác với hệ thống AI, nhất là trong các trường hợp chatbot, trợ lý ảo hoặc hệ thống chăm sóc khách hàng tự động. Luật cũng quy định âm thanh, hình ảnh, video do AI tạo ra phải được đánh dấu, gắn nhãn dễ nhận biết, đặc biệt khi nội dung đó mô phỏng ngoại hình, giọng nói của người thật hoặc tái hiện sự kiện có thật.

Cơ chế giám sát, xử lý vi phạm và bồi thường thiệt hại

Luật Trí tuệ nhân tạo tiếp cận vấn đề lừa đảo từ góc độ quản lý rủi ro. Các hệ thống AI có khả năng gây nhầm lẫn hoặc thao túng người dùng do không phân biệt được nội dung do AI tạo ra được xếp vào nhóm rủi ro trung bình. Những hệ thống này không được vận hành tự do mà phải chịu các yêu cầu về thông báo, giám sát và kiểm tra của cơ quan có thẩm quyền.

Trong trường hợp hệ thống AI gây ra hoặc có nguy cơ gây thiệt hại, Luật trao quyền cho cơ quan quản lý yêu cầu tạm dừng, thu hồi hệ thống, đồng thời buộc nhà phát triển, nhà cung cấp và đơn vị triển khai phối hợp khắc phục hậu quả và thông báo cho cơ quan có thẩm quyền. Cơ chế này cho phép can thiệp sớm, hạn chế thiệt hại lan rộng khi phát hiện công cụ AI bị lợi dụng cho lừa đảo trên diện rộng.

Luật cũng đã thiết lập cơ chế thanh tra, xử lý vi phạm và bồi thường thiệt hại. Cơ quan quản lý có quyền yêu cầu cung cấp hồ sơ kỹ thuật, nhật ký hệ thống và dữ liệu liên quan để xác định trách nhiệm. Hành vi sử dụng AI để lừa đảo có thể bị xử phạt hành chính hoặc truy cứu trách nhiệm hình sự theo quy định của pháp luật, đồng thời phải bồi thường thiệt hại cho người bị ảnh hưởng.

Lời khuyên từ Trang Trắng: Luật Trí tuệ nhân tạo 2025 là bước tiến quan trọng trong việc bảo vệ người dùng khỏi những thủ đoạn lừa đảo công nghệ cao. Tuy nhiên, pháp lý chỉ là công cụ hỗ trợ. Bạn cần trang bị kiến thức để bảo vệ bản thân bằng cách: luôn kiểm chứng thông tin trước khi hành động, đặc biệt các yêu cầu liên quan đến tiền bạc; không tin tưởng hoàn toàn vào giọng nói, video hay hình ảnh mà không xác minh qua kênh chính thức; sử dụng các dịch vụ tra cứu thông tin uy tín như Trang Trắng để kiểm tra số điện thoại, danh tính người liên hệ trước khi cung cấp thông tin cá nhân hoặc thực hiện giao dịch tài chính. Hãy luôn cảnh báo và chia sẻ kiến thức này với gia đình, bạn bè để cùng nhau xây dựng một môi trường số an toàn hơn.