+Aa-
    Zalo

    Cảnh báo chiêu ghép mặt, giọng nói giống hệt người thân để lừa đảo

    (ĐS&PL) - Các đối tượng lừa đảo ngày càng tinh vi khi cắt ghép hình ảnh, giọng nói y như người thật để lừa.

    Các đối tượng sử dụng công nghệ Deepfake AI để ghép mặt, giọng nói giống hệt người thân để lừa đảo.

    Deepfake sẽ quét video và ảnh chân dung của một người sau đó hợp nhất với video riêng biệt nhờ AI và thay thế các chi tiết trên gương mặt như mắt, miệng, mũi với chuyển động gương mặt, giọng nói như thật.

    Càng có nhiều hình ảnh gốc thì AI càng có nhiều dữ liệu để học. Deepfake có thể thay đổi khuôn mặt của người này sang người khác trong video với độ chân thực đến kinh ngạc. Hiện nay, Deepfake đang trở thành nỗi ám ảnh, là "bóng ma" trong thế giới Internet, được tội phạm dùng để lừa đảo.

    Trao đổi với VietNamNet về việc xuất hiện hành vi ghép mặt, giọng nói giống hệt người thân để lừa đảo, một lãnh đạo Công an huyện Thanh Trì (Hà Nội) cho biết: "Hành vi sử dụng công nghệ Deepfake AI, tạo ra các sản phẩm công nghệ âm thanh, hình ảnh và video với độ chính xác rất cao để lừa đảo, không hoàn toàn mới".

    Để tránh bị lừa, người dân nên kiểm tra nguồn tin, khi bạn mình hỏi vay tiền và chuyển khoản. Khi gặp trường hợp như vậy, chúng ta nên gọi điện thoại lại xem người thân, bạn bè… có đúng cần tiền không. Tiếp đến người gửi tiền, chuyển khoản cũng phải xác minh, số tài khoản đó có đúng họ và tên người thân của mình không.

    canh bao chieu ghep mat giong noi giong het nguoi than de lua dao
    Ảnh minh họa.

    Trường hợp, nếu người bạn nói tài khoản bị lỗi, phải mượn tài khoản khác... Người chuyển tiền cần kiểm tra từ bạn và số tài khoản đang nhận, xem họ quê quán ở đâu và yêu cầu gửi hình ảnh căn cước công dân cho mình xem.

    Sau đó, gọi điện nhờ ngân hàng mà số tài khoản yêu cầu gửi, xem người đó có số CCCD, trùng với số tài khoản mà họ cung cấp không.

    Trao đổi với Người lao động, anh Ngô Minh Hiếu (Hiếu PC) - người sáng lập Dự án Chống lừa đảo cho biết thêm, màu da của nhân vật trong video bất thường, ánh sáng kỳ lạ và bóng đổ không đúng vị trí. Điều này có thể khiến cho video trông rất giả tạo và không tự nhiên. Âm thanh cũng là một vấn đề có thể xảy ra trong video. Âm thanh sẽ không đồng nhất với hình ảnh, có nhiều tiếng ồn bị lạc vào clip hoặc clip không có âm thanh.

    Anh Hiếu cũng khuyến cáo, người dùng nên hạn chế chia sẻ thông tin, clip cá nhân trên mạng xã hội và luôn bảo mật tài khoản mạng xã hội, email bằng mật khẩu có độ khó cao. Cần nâng cao khả năng nhận biết các thủ đoạn lừa đảo. Nếu cẩn thận, có thể làm méo âm thanh trước khi chia sẻ trên mạng xã hội, tránh trường hợp kẻ gian dùng âm thanh để cắt ghép, chỉnh sửa rồi dùng với mục đích xấu.

    Việt Hương (T/h)

    Link bài gốcLấy link
    https://doisongphapluat.nguoiduatin.vn/dspl/canh-bao-chieu-ghep-mat-giong-noi-giong-het-nguoi-than-de-lua-dao-a570222.html
    Zalo

    Cảm ơn bạn đã quan tâm đến nội dung trên.

    Hãy tặng sao để tiếp thêm động lực cho tác giả có những bài viết hay hơn nữa.

    Đã tặng:
    Tặng quà tác giả
    BÌNH LUẬN
    Bình luận sẽ được xét duyệt trước khi đăng. Xin vui lòng gõ tiếng Việt có dấu.
    Tin liên quan