Site icon Thời báo Việt Đức

Mọi người cần lưu ý: Dựa trên trí tuệ nhân tạo kẻ xấu giả giọng và mặt người thân để lừa đảo chuyển tiền

Ảnh minh họa: pixabay.com

Trong thời đại công nghệ hiện nay, các hình thức lừa đảo ngày càng tinh vi và phức tạp hơn bao giờ hết. Một trong những hình thức lừa đảo mới đang xuất hiện và ngày càng được sử dụng phổ biến đó chính là lừa đảo bằng Deepfake, kỹ thuật tự động tạo ra nội dung giả mạo dựa trên trí tuệ nhân tạo. Điều này cho phép kẻ xấu tạo ra những video, âm thanh giả mạo để lừa đảo người dùng.

Không ngờ đến việc gọi video xác thực người nhà là cách an toàn nhất, cũng bị làm giả

Trường hợp chị V.T.M, Hà Nội nhận được tin nhắn mượn tiền từ tài khoản Facebook của một người thân bên nước ngoài nhắn đến Facebook với nội dung nhờ chuyển tiền vào một số tài khoản 75 triệu đồng. Chị M cho biết, khi nhận được tin nhắn hỏi vay tiền của người thân, bản thân cũng đã cẩn thận gọi video lại để kiểm tra xác nhận thì thấy hình ảnh đúng là bạn mình. Chị M đã tin tưởng chuyển khoản luôn cho bạn vay. Nhưng đến tối, thấy trên trang cá nhân của người thân đăng bài thông báo việc bị kẻ gian hack nick facebook để hỏi vay tiền một số bạn bè và người thân. Chị M gọi điện lại cho bạn thì bạn mình xác nhận đấy chính là kẻ xấu lừa đảo.

Ngoài ra, cũng có những trường hợp lừa đảo khác bằng Deepfake, ví dụ như giả mạo giọng nói của một người lãnh đạo để yêu cầu nhân viên chuyển tiền hoặc yêu cầu mật khẩu truy cập vào các tài khoản quan trọng.

Vì sao kẻ xấu giả giọng và mặt của người thân để lừa đảo?

Deepfake là kỹ thuật tự động tạo ra nội dung giả mạo dựa trên trí tuệ nhân tạo. Điều này cho phép kẻ xấu tạo ra những video, âm thanh giả mạo để lừa đảo người dùng. Ví dụ, họ có thể sử dụng một đoạn video cũ của người dùng, cắt ghép, chỉnh sửa để tạo ra một video mới, trong đó người dùng có thể được nghe nói những điều họ chưa từng nói hoặc thực hiện những hành động mà họ không hề biết.

Điều đáng sợ là với kỹ thuật Deepfake, các video, âm thanh giả mạo có thể được tạo ra với chất lượng tốt và rất khó phát hiện.

Làm sao tránh bị lừa đảo giả mạo giọng nói khuôn mặt dựa trên trí tuệ nhân tạo

Để tránh bị lừa đảo bằng Deepfake, người dùng cần phải cẩn trọng khi chia sẻ thông tin cá nhân và các tài liệu quan trọng. Không nên tin tưởng vào những thông tin hoặc yêu cầu được gửi đến từ người thân hay bạn bè chỉ dựa trên giọng nói hoặc khuôn mặt mà không xác nhận lại thông qua các kênh liên lạc khác như điện thoại, email hay tin nhắn. Nếu có bất kỳ nghi ngờ gì, người dùng cần liên hệ với người th ân hay bạn bè bằng phương tiện khác để xác nhận lại thông tin và tránh bị lừa đảo.

Ngoài ra, người dùng cần lưu ý đến các hoạt động trên mạng xã hội của mình, hạn chế công khai thông tin cá nhân, và kiểm tra tính an toàn của tài khoản mạng xã hội bằng cách đổi mật khẩu thường xuyên, sử dụng phần mềm bảo mật và đăng nhập đúng trang chủ.

Khi thực hiện các giao dịch trực tuyến, người dùng cần kiểm tra kỹ thông tin về người bán hoặc dịch vụ, không nên chuyển khoản tiền trước khi hoàn tất các thủ tục đảm bảo tính xác thực và an toàn của giao dịch.

Trung Hiếu

Exit mobile version