213
/
155863
Trò lừa đảo dùng video deepfake chiếm đoạt tài khoản ngân hàng
tro-lua-dao-dung-video-deepfake-chiem-doat-tai-khoan-ngan-hang
news

Trò lừa đảo dùng video deepfake chiếm đoạt tài khoản ngân hàng

Thứ 6, 03/11/2023 | 14:45:00
2,078 lượt xem

Theo cảnh báo từ một số ngân hàng, tình trạng lừa đảo mạo danh người thân để vay mượn tiền qua mạng xã hội diễn biến ngày càng phức tạp với nhiều thủ đoạn vô cùng tinh vi.

Đối tượng lừa đảo sẽ dùng tài khoản mạng xã hội (Facebook, Zalo,..) để lôi kéo nạn nhân truy cập vào các đường link có chứa mã độc. Chiêu trò quen thuộc mà kẻ gian thường sử dụng là kêu gọi đăng ký bình chọn hộ hay gửi quà tặng.

Trò lừa đảo dùng video deepfake chiếm đoạt tài khoản ngân hàng - 1

Đối tượng lừa đảo còn có thể tái tạo khuôn mặt và giọng nói của chủ tài khoản bằng công nghệ Deepfake/Swapface (Ảnh: GeoLion).

Mục đích của chúng nhằm thu thập thông tin và chiếm quyền kiểm soát tài khoản mạng xã hội. Sau đó, kẻ gian sẽ sử dụng tài khoản đã chiếm được để nhắn tin cho người thân trong danh sách bạn bè và hỏi vay tiền hoặc nhờ chuyển tiền vào tài khoản ngân hàng.

Đáng nói, đối tượng lừa đảo sẽ gửi thông tin tài khoản có họ tên trùng với chủ tài khoản mạng xã hội để nạn nhân tin tưởng và chuyển tiền. Chưa dừng lại, đối tượng lừa đảo còn có thể tái tạo khuôn mặt và giọng nói của chủ tài khoản bằng công nghệ Deepfake/Swapface.

Từ đó, kẻ gian sẽ tạo video giả mạo nhằm thực hiện những cuộc gọi video ngắn, kém chất lượng với lý do lỗi mạng để nạn nhân tin tưởng và thực hiện chuyển tiền theo yêu cầu.

Để tránh sập bẫy của kẻ gian, người dùng cần hết sức cảnh giác và luôn luôn xác thực danh tính người thân trước khi chuyển tiền bằng cách gọi điện trực tiếp thông qua số điện thoại. Người dùng không nên xác thực danh tính qua ứng dụng nhắn tin hay cuộc gọi video trên các nền tảng mạng xã hội.

Trò lừa đảo dùng video deepfake chiếm đoạt tài khoản ngân hàng - 2

Người dùng cần xác thực danh tính người thân trước khi chuyển tiền bằng cách gọi điện trực tiếp thông qua số điện thoại (Ảnh: CNN).

Đồng thời, người dùng tuyệt đối không chụp ảnh thông tin thẻ hoặc gửi mã bảo mật OTP qua bất kỳ ứng dụng nhắn tin, trang web hay gửi cho bất kỳ ai (kể cả người tự xưng là nhân viên ngân hàng).

Bên cạnh đó, người dùng cũng không cung cấp thông tin cá nhân, giấy tờ tùy thân, thông tin tài khoản ngân hàng cho bất kỳ ai. Các ngân hàng cho biết họ không bao giờ yêu cầu khách hàng cung cấp những thông tin trên.

Trong trường hợp không may rơi vào bẫy của những kẻ lừa đảo, người dùng cần nhanh chóng liên hệ đến ngân hàng đang sử dụng để có thể nhận được sự hỗ trợ kịp thời.

Theo Thế Anh/ Dân trí

https://dantri.com.vn/suc-manh-so/tro-lua-dao-dung-video-deepfake-chiem-doat-tai-khoan-ngan-hang-20231102215202031.htm

  • Từ khóa

'Cảnh sát AI' và Chatbot AI làm 'tổng đài viên' của Công an Hà Nội

Công an TP Hà Nội ra mắt 4 sản phẩm chuyển đổi số phục vụ nhân dân và nhiệm vụ công tác chuyên môn, trong đó đáng chú ý là tổng đài viên AI (1900 0113) và...
20:55 - 17/08/2025
75 lượt xem

Làm chủ AI trong phát hiện, xử phạt vi phạm giao thông

Bạn đọc đề nghị lực lượng CSGT vừa tích hợp công nghệ trí tuệ nhân tạo (AI) trong giám sát vi phạm, vừa phải thực sự làm chủ AI, tránh tình trạng xơ cứng,...
09:25 - 17/08/2025
364 lượt xem

Không chỉ Windows 10, Microsoft còn có một 'danh sách khai tử' cho năm 2025

Năm 2025 chứng kiến hàng loạt sản phẩm chủ lực của Microsoft cùng 'về hưu' với Windows 10.
09:11 - 16/08/2025
933 lượt xem

Người dùng Gmail di động đón tính năng thông minh từ Gemini

Tính năng hữu ích của Gemini trên Gmail phiên bản web đã có mặt trên di động.
10:51 - 15/08/2025
1,535 lượt xem

Tại diễu binh Quốc khánh 2.9, lần đầu tiên sử dụng AI để giảm nhiễu sóng internet

Trong lễ diễu binh, diễu hành Quốc khánh 2.9, lần đầu tiên, Viettel sử dụng các mô hình AI để dự đoán vị trí đông người nhất, thời điểm 'hot', hành vi di...
06:44 - 15/08/2025
1,539 lượt xem