Trang Trắng

Cảnh báo lừa đảo deepfake: Giả giọng, giả mặt để chiếm đoạt tiền tỷ

  • deepfake lừa đảo
  • an ninh mạng
  • cảnh báo AI
đọc mất khoảng 6 phút

Cảnh báo lừa đảo deepfake: Giả giọng, giả mặt để chiếm đoạt tiền tỷ

Tội phạm sử dụng AI tạo video deepfake giả mạo người thân, cán bộ nhà nước để lừa đảo chuyển tiền. Người dân cần cảnh giác và nâng cao kỹ năng số.

Cảnh báo chiêu lừa đảo mới: Deepfake giả người thân, chiếm đoạt tiền tỷ

Trong thời đại công nghệ phát triển mạnh mẽ, tội phạm công nghệ cao đang tận dụng trí tuệ nhân tạo (AI) để thực hiện những chiêu lừa đảo ngày càng tinh vi, đặc biệt là video giả mạo (deepfake) khiến nạn nhân khó phân biệt thật – giả.

Gần đây, nhiều người dân tại Việt Nam đã trở thành nạn nhân của hình thức lừa đảo mới: kẻ gian sử dụng công cụ AI để giả mạo hình ảnh và giọng nói của người quen, người thân, thậm chí là cán bộ nhà nước, nhằm yêu cầu chuyển tiền khẩn cấp. Chỉ trong vài phút, hàng trăm triệu đồng có thể "bốc hơi" khỏi tài khoản nạn nhân.

Deepfake – công cụ mới trong tay tội phạm mạng

Tại sự kiện Google I/O 2025, Google giới thiệu công cụ Veo 3 – một ứng dụng AI có khả năng dựng video và tái tạo giọng nói với độ chân thực cực cao. Dù chưa được triển khai chính thức tại Việt Nam, nhiều người dùng đã tìm cách truy cập qua VPN, tạo điều kiện để các đối tượng xấu lợi dụng công cụ này.

Trên mạng xã hội, đã xuất hiện hàng loạt video mang nội dung giả mạo, sử dụng gương mặt người nổi tiếng, lãnh đạo, hoặc mạo danh người thân để phát tán thông tin sai lệch, thậm chí tấn công cá nhân. Nhiều người bị đánh lừa bởi những video có hình ảnh và giọng nói y như thật, dẫn đến mất cảnh giác và sập bẫy.

Chiêu trò lừa đảo: Giả danh người thân, yêu cầu chuyển tiền

Đối tượng lừa đảo thường sử dụng video call để tiếp cận nạn nhân, mạo danh con cháu, đồng nghiệp hoặc lãnh đạo yêu cầu chuyển khoản gấp. Chỉ cần một vài đoạn video, hình ảnh hoặc bản ghi âm đăng trên mạng, chúng có thể tạo ra bản sao “ảo” gần như hoàn hảo.

Những nạn nhân thường là:

  • Người cao tuổi, không thành thạo công nghệ.
  • Cán bộ hưu trí, công chức bận rộn, dễ mất cảnh giác.
  • Người sống xa gia đình, thường xuyên liên hệ qua mạng.

Hậu quả là nhiều người đã mất từ vài chục đến hàng trăm triệu đồng chỉ trong một cuộc gọi ngắn ngủi, mà không kịp xác minh tính thật – giả.

Khủng hoảng niềm tin trong thời đại số

Các chuyên gia công nghệ nhận định, thiệt hại lớn nhất không chỉ là về tiền bạc mà còn là sự mất lòng tin vào thông tin số. Khi người dùng không còn tin vào video, giọng nói hay hình ảnh, môi trường mạng sẽ trở nên đầy bất an.

Do đó, nâng cao hiểu biết và kỹ năng số đang là yêu cầu cấp thiết với mọi người dân, đặc biệt là trong bối cảnh công nghệ AI phát triển nhanh chóng và khó kiểm soát.

Công an cảnh báo và khuyến nghị

Trước tình trạng này, Công an tỉnh Nghệ An cùng các đơn vị an ninh mạng đưa ra một số khuyến cáo quan trọng:

  • Tuyệt đối không chuyển tiền chỉ dựa vào một cuộc gọi video. Dù người gọi có hình ảnh, giọng nói giống người thân, vẫn cần xác minh lại qua số điện thoại chính chủ hoặc gọi người thứ ba kiểm tra.
  • Hạn chế chia sẻ thông tin cá nhân trên mạng xã hội. Không đăng tải hình ảnh rõ mặt, video giọng nói hay giấy tờ tùy thân – đây là nguồn dữ liệu để AI tạo bản sao giả.
  • Luôn cảnh giác với các yêu cầu chuyển tiền khẩn cấp. Những lời nói như “gấp lắm”, “bí mật nhé”, “giúp anh/chị lần này” thường là dấu hiệu dàn dựng.
  • Hướng dẫn người thân, đặc biệt là người lớn tuổi, nhận biết deepfake. Cần thường xuyên nhắc nhở, cung cấp thông tin cảnh báo, giúp họ phòng tránh bị lợi dụng.

Giải pháp công nghệ và chủ động từ người dùng

Bên cạnh biện pháp tuyên truyền, các chuyên gia khuyến nghị người dùng nên:

  • Sử dụng các ứng dụng gọi video có tính năng bảo mật cao.
  • Cài đặt phần mềm nhận diện deepfake (nếu có) hoặc cập nhật công nghệ kiểm tra hình ảnh giả.
  • Cảnh giác với các yêu cầu chia sẻ màn hình hoặc cung cấp thông tin tài chính trong các cuộc gọi video.

Hơn hết, cần xây dựng một thói quen cảnh giác và bình tĩnh trước bất kỳ tình huống bất ngờ nào trên không gian mạng. Khi bạn dành vài phút để xác minh thông tin, có thể bạn đã tự cứu mình khỏi mất mát cả trăm triệu đồng.

Lời kết

Deepfake không còn là câu chuyện viễn tưởng – nó đã và đang được tội phạm mạng sử dụng như một công cụ đắc lực để lừa đảo. Trong khi công nghệ phát triển là không thể đảo ngược, sự cảnh giác và hiểu biết chính là “lá chắn” hiệu quả nhất để bảo vệ người dân trong xã hội số.

Đừng để bản sao AI đánh lừa cảm xúc và lòng tin của bạn. Hãy xác minh, chia sẻ và cảnh giác – vì chính bạn và người thân.

Câu hỏi thường gặp

Deepfake là gì?

Deepfake là công nghệ sử dụng trí tuệ nhân tạo để tạo ra video hoặc giọng nói giả mạo giống như thật, thường được dùng để lừa đảo hoặc lan truyền thông tin sai lệch.

Tại sao deepfake lại nguy hiểm trong lừa đảo?

Vì deepfake có thể giả mạo giọng nói, hình ảnh người thân hoặc cán bộ, khiến nạn nhân tin tưởng và chuyển tiền mà không kịp xác minh.

Làm sao để nhận biết một cuộc gọi deepfake?

Hãy nghi ngờ nếu có yêu cầu chuyển tiền gấp, yêu cầu giữ bí mật, và người gọi có biểu hiện không bình thường. Nên xác minh bằng số điện thoại quen thuộc hoặc gọi người thứ ba kiểm tra.

Tôi nên làm gì khi nhận cuộc gọi đáng ngờ có hình ảnh người quen?

Không chuyển tiền ngay. Hãy gọi lại bằng số điện thoại chính chủ hoặc gặp trực tiếp để xác minh trước khi thực hiện giao dịch.

Làm sao để ngăn ngừa bị lợi dụng hình ảnh, giọng nói để tạo deepfake?

Không đăng công khai video rõ mặt, giọng nói, thông tin cá nhân nhạy cảm lên mạng xã hội; sử dụng quyền riêng tư khi chia sẻ nội dung cá nhân.

Có cách nào giúp người lớn tuổi tránh bị lừa qua video deepfake?

Nên thường xuyên hướng dẫn, cảnh báo và cập nhật thông tin cho người lớn tuổi, giúp họ nhận biết các chiêu trò lừa đảo công nghệ cao mới.