Cảnh giác cuộc gọi video DeepFake

Cảnh giác cuộc gọi video DeepFake là một trong các thủ thuật lừa đảo cực kỳ nguy hiểm mà người dùng có thể gặp phải bởi các đối tượng lừa đảo ngày càng mưu mô và tinh vi hơn, cùng lapcamerafpt.vn tìm hiểu về cách thức hoạt động của cuộc gọi video DeepFake và phương thức lừa đảo của các đối tượng tội phạm nhé .

Cảnh giác cuộc gọi video DeepFake lừa đảo nguy hiểm

=> Hiện nay cuộc gọi video Deepfake đang là mối đe dọa với người dùng khi mà sử dụng công nghệ khuôn mặt được làm bởi AI và người sử dụng sẽ giả dạng khuôn mặt, giọng nói của bạn để trò chuyện với người thân của bạn, sau đó tiền hành mời mọc, lừa chuyển tiền, lừa đảo bị tai nạn cần số tiền lớn để cấp cứu ngay , nếu không cẩn thận thì dễ dàng gặp phải lừa đảo.

# Công nghệ DeepFake là gì  ?

Công an TP Hà Nội cho biết, Deepfake là công nghệ sử dụng trí tuệ nhân tạo AI tạo ra các sản phẩm âm thanh, hình ảnh, video giả mạo đối tượng người thật một cách thuyết phục với độ chính xác cao. Deepfake sử dụng một thuật toán để tạo lại khuôn mặt và giọng nói của một cá nhân ngoài đời thực, dựa trên các đặc điểm trên khuôn mặt và giọng nói của họ, nhằm tạo ra một video giả mạo về một người hoàn toàn khác. Thông qua internet, thủ phạm thu thập hình ảnh và mẫu giọng nói của người dùng mạng xã hội rồi sử dụng công nghệ Deepfake để tạo hình ảnh chuyển động và video giả mạo người dùng trò chuyện trực tuyến với các đặc điểm khuôn mặt, ngữ điệu và phong cách nói giống nhau.

Những kẻ lừa đảo tạo các tài khoản mạng xã hội giả mạo phản ánh người dùng thực bằng cách sao chép ảnh hồ sơ và thông tin cá nhân của họ. Sau đó, chúng thêm nạn nhân vào danh sách bạn bè và sử dụng các kịch bản đã lên kế hoạch trước để thu hút các khoản vay qua trò chuyện. Trong một số trường hợp, thủ phạm chiếm đoạt tài khoản mạng xã hội của mục tiêu và gửi tin nhắn trực tiếp cho bạn bè của họ. Để có được lòng tin của nạn nhân, họ truyền các video Deepfake có sẵn trong các cuộc gọi điện video, điều này sẽ nhanh chóng nhắc họ chuyển tiền theo yêu cầu.

Theo Công an TP Hà Nội, video Deepfake có độ chính xác cao, khó phân biệt thật giả. Tuy nhiên, các video do kẻ lừa đảo tạo ra thường có nội dung chung chung, không hoàn toàn phù hợp với bối cảnh thực tế của cuộc trò chuyện với nạn nhân, khiến họ bị nghi ngờ và dễ dàng bị phát hiện hơn. Để che đậy những điểm yếu này, thủ phạm thường tạo ra các video có âm thanh chất lượng thấp và hình ảnh mờ ảo giống như các cuộc gọi được thực hiện ở khu vực có tín hiệu di động/wifi yếu. Đây là thủ đoạn lừa đảo mới và hết sức tinh vi.

Cảnh giác cuộc gọi video DeepFake lừa đảo nguy hiểm
Ghép mặt, giả giọng để lừa đảo là hình thức mới nhất mà các đối tượng thực hiện .

Mối nguy hiểm mang lại từ công nghệ DeepFake

Công nghệ deepfake mang lại nhiều mối nguy hiểm cho xã hội, đặc biệt là khi nó được sử dụng để tạo ra những video giả mạo để gây ảnh hưởng xấu đến cá nhân hoặc chính trị gia. Dưới đây là một số mối nguy hiểm chính của công nghệ deepfake:

  • Deepfake có thể dễ dàng tạo ra các video giả mạo, trong đó người xem có thể bị lừa tin vào việc các video này đang phản ánh sự thật. Khi những video này được phát tán rộng rãi, họ có thể gây ra sự hoang mang, thậm chí là phá vỡ sự tin tưởng của xã hội đối với các phương tiện truyền thông và các nhà lãnh đạo.
  • Deepfake có thể được sử dụng để tạo ra các video giả mạo với mục đích gây hại cho cá nhân hoặc chính trị gia, bằng cách tạo ra các video xúc phạm, hay thậm chí là video tống tiền.
  • Deepfake có thể được sử dụng để tạo ra các tin tức giả mạo, gây lây lan thông tin sai lệch, đặc biệt là trong các vấn đề liên quan đến chính trị và đối ngoại.
  • Deepfake có thể được sử dụng để tạo ra các video giả mạo của các nhân vật nổi tiếng, gây thiệt hại cho hình ảnh của họ và ảnh hưởng đến danh tiếng của họ. Vì vậy, việc sử dụng công nghệ deepfake đòi hỏi phải có sự quản lý chặt chẽ để đảm bảo tính toàn vẹn của thông tin và tránh được các mối nguy hiểm trên.

Tham khảo: cảnh giác lừa đảo trên sàn thương mại điện tử

Thủ đoạn sử dụng cuộc gọi video deepfake để lừa tiền

Thủ đoạn sử dụng cuộc gọi video deepfake để lừa tiền là một mối đe dọa mới và nguy hiểm đối với sự an toàn tài chính của người dùng. Theo cách thức này, kẻ lừa đảo sử dụng công nghệ deepfake để tạo ra một video giả mạo với một người nổi tiếng hoặc một người quen của nạn nhân, sau đó gửi đến nạn nhân và yêu cầu họ chuyển tiền hoặc cung cấp thông tin cá nhân.

Điều đáng ngại ở đây là công nghệ deepfake cho phép tạo ra những video giả mạo với chất lượng và độ chân thực cao, khiến cho người xem có thể dễ dàng bị lừa khi không thể phân biệt được sự khác biệt giữa video thật và video giả mạo.

Vì vậy, để bảo vệ an toàn tài chính của mình, người dùng cần phải tăng cường ý thức và cẩn trọng trong việc cung cấp thông tin cá nhân hay chuyển tiền cho người không quen biết. Ngoài ra, cần sử dụng các công cụ và phần mềm chống giả mạo để phát hiện các video giả mạo và tránh bị lừa đảo.

Cảnh giác cuộc gọi video DeepFake lừa đảo nguy hiểm

Câu chuyện lừa đảo bằng cuộc gọi video Deepfake

Một ví dụ điển hình là trường hợp của chị V.T.M, 26 tuổi ở Long Biên, TP Hà Nội, nhận được một tin nhắn từ tài khoản Facebook của một người thân bên nước ngoài, yêu cầu chuyển khoản một số tiền lên đến 75 triệu đồng. Vì chị tưởng đó là người thân của mình, nên đã không ngần ngại chuyển tiền. Tuy nhiên, một thời gian sau đó, chị nhận ra rằng tài khoản Facebook của người thân của mình đã bị hack và bị lừa. Chị đã gọi điện lại và nhận ra mình đã bị một kẻ lừa đảo chiếm đoạt tiền của mình.

Còn với tình huống của anh VĐC, 42 tuổi ở Cổ Nhuế, TP Hà Nội, anh ta đã bị lừa mất 30 triệu đồng bằng cách sử dụng cuộc gọi video Deepfake. Người lừa đảo đã giả danh người thân của anh ta và yêu cầu chuyển khoản tiền bằng cách sử dụng một cuộc gọi video qua ứng dụng Messenger của Facebook. Dù cuộc gọi chỉ diễn ra trong ít giây, anh ta đã tin tưởng vào khuôn mặt và giọng nói của người thân mình và chuyển tiền theo hướng dẫn, trước khi nhận ra rằng mình đã bị lừa đảo.

Chia sẻ của chuyên gia công nghệ Ngô Minh Hiếu, từ Trung tâm Giám sát an toàn không gian mạng quốc gia (NCSC), cho biết rằng công nghệ trí tuệ nhân tạo (AI) đang mang lại nhiều lợi ích cho cuộc sống con người. Tuy nhiên, các kẻ xấu đã tận dụng công nghệ AI để tạo ra hình ảnh sao chép giọng nói, chiếm đoạt tài khoản Facebook, Instagram và nghiên cứu tin nhắn, cách xưng hô, lịch sử giao dịch để thực hiện các cuộc gọi giả lừa tiền người thân và gia đình của nạn nhân.

Theo chuyên gia Ngô Minh Hiếu, các kẻ lừa đảo thường giả danh cơ quan điều tra, tòa án hoặc hứa hẹn phần thưởng lớn để lừa đảo người dân. Để hóa giải tình huống này, người dùng nên xác minh thông tin bằng cách gọi videocall, nhưng cũng cần phải cẩn trọng vì đối tượng lừa đảo cũng đã nghĩ ra cách để “hóa giải” kịch bản này.

Ông Ngô Tuấn Anh, Chủ tịch HĐQT, CEO Công ty cổ phần An ninh mạng thông minh Smart Cyber Security cũng chia sẻ rằng lừa đảo qua mạng có thể được chia thành hai cách thức chính, bao gồm giả danh cơ quan điều tra hoặc tòa án và lợi dụng lòng tham của người dân để lừa đảo.

Cảnh giác cuộc gọi video DeepFake lừa đảo nguy hiểm

Hạn chế dữ liệu hình ảnh khuôn mặt và giọng nói bị đánh cắp như thế nào ?

Theo chuyên gia công nghệ Ngô Minh Hiếu, để tránh bị làm giả Deepfake, người dùng cần thực hiện một số biện pháp đảm bảo an toàn trên mạng. Thứ nhất, hạn chế chia sẻ hình ảnh và video cá nhân trên mạng, đồng thời bảo vệ tài khoản mạng xã hội và email của mình bằng mật khẩu có độ khó cao. Nếu không thể tránh khỏi việc chia sẻ video hay clip trên mạng, người dùng nên làm méo tiếng của mình, thay bằng tiếng robot hoặc AI voice để tránh tiếng nói của mình bị xấu. Nếu bị làm giả Deepfake, người dùng cần thông báo ngay cho mọi người và báo cáo cho cơ quan chức năng tại địa chỉ canhbao.ncsc.gov.vn hoặc báo lên dự án chongluadao https://chongluadao.vn. Hơn nữa, người dùng cần nâng cao nhận thức về nhận biết lừa đảo trên không gian mạng tại dauhieuluadao.com.

Công an thành phố Hà Nội cũng khuyến khích người dân nâng cao cảnh giác khi nhận bất kỳ tin nhắn hoặc cuộc gọi video với nội dung vay, mượn tiền qua các ứng dụng mạng xã hội. Người dân cần bình tĩnh và liên lạc trực tiếp với người thân để xác minh thông tin trước khi chuyển tiền. Trong trường hợp nghi vấn đối tượng giả mạo người thân trên mạng xã hội để lừa đảo, người dân cần báo ngay cho cơ quan Công an gần nhất để được hỗ trợ kịp thời và để đấu tranh, ngăn chặn, xử lý nghiêm các đối tượng theo quy định pháp luật.

Chuyên gia công nghệ Ngô Minh Hiếu cũng cho biết, một số dấu hiệu để phát hiện và phòng tránh cuộc gọi Deepfake là khuôn mặt của người trong video không có tính cảm xúc và khá “trơ” khi nói, hoặc tư thế lúng túng, không tự nhiên, hoặc hướng đầu và cơ thể của người trong video không nhất quán với nhau. Người dùng cần chú ý đến các dấu hiệu này để tránh bị lừa đảo trên mạng.

Tham khảo: cảnh giác cho vay nặn lãi núp bóng công ty tài chính

5/5 - (1 bình chọn)
Hotline: 0817.625.625
0817.625.625
ZALO