A- A A+ | Chia sẻ bài viết lên facebook Chia sẻ bài viết lên twitter Chia sẻ bài viết lên google+

Vì sao "deepfake" dễ dàng giả mặt, giả giọng và trở thành công cụ lừa đảo hàng tỷ đồng?

Sử dụng các công nghệ tiên tiến phục vụ hành vì lừa đảo, chiếm đoạt tài sản đang dần trở nên phổ biến, đặc biệt từ khi công nghệ "Deepfake" được phát triển và phổ biến đến rộng rãi thì nạn nhân của những kẻ lừa đảo lại càng trở nên nhiều hơn mỗi ngày.

Deepfake là gì?

Deepfake là thuật ngữ được tạo nên từ hai khái niệm “deep learning” một công nghệ trí tuệ nhân tạo được xây dựng dựa trên mã nguồn mở của Google và “fake” ám chỉ sự giả dối. Vì là mã nguồn mở nên công nghệ trí tuệ nhân tạo này đã được rất nhiều các tổ chức sử dụng, xây dựng nên những ứng dụng phục vụ cho nhiều mục đích khác nhau.

Vì sao "deepfake" dễ dàng giả mặt, giả giọng và trở thành công cụ lừa đảo hàng tỷ đồng? - Ảnh 1.

Deepfake khả năng học hỏi các dữ liệu thông tin hình ảnh của một người dựa theo các đoạn video, hình chụp... của người đó thay thế vào một thể khác. thể hiểu đơn giản, deepfake sẽ biến khuôn mặt của người A trở nên giống người B nếu đầy đủ các dữ liệu khuôn mặt của người B.

Điều đáng sợ hơn là, không chỉ thay đổi dữ liệu hình ảnh, deepfake thậm chí còn có thể thay đổi luôn dữ liệu âm thanh (giọng nói). Chính vì điều này, rất nhiều đối tượng đã lợi dụng deepfake để thực hiện hành vi lừa đảo, chiếm đoạt đài sản.

Vì sao “deepfake” dễ dàng trở thành công cụ lừa đảo?

Vào đầu tháng 9 năm 2019, tờ Wall Street Journal đã ghi nhận trường hợp giả giọng nói để lừa đảo số tiền 243.000 USD của một công ty. Cụ thể, các tên tội phạm đã sử dụng phần mềm tạo giọng nói deepfake nhằm mạo danh ông chủ của một tập đoàn Đức và yêu cầu CEO công ty phải thực hiện chuyển tiền cho đối tác người Hungary trong vòng một giờ đồng kèo thep lời hứa số tiền sẽ được hoàn trả ngay lập tức.

Không thể nhận ra được sự tinh vi này, vị CEO đã tưởng rằng deepfake chính là ông chủ của mình, vì trí tuệ nhân tạo thông minh đến mức có thể giả giọng Đức rất giống thật, số tiền 243.000 USD (không 5.7 tỷ đồng) đã được chuyển đi và không quay trở lại.

Vì sao "deepfake" dễ dàng giả mặt, giả giọng và trở thành công cụ lừa đảo hàng tỷ đồng? - Ảnh 2.

Không chỉ giả giọng nói, khả năng học hỏi của deepfake còn được lợi giọng để làm giả hình ảnh của cả những người nổi tiếng, tỷ phú Elon Musk từng nạn nhân của công nghệ này, nhằm phục vụ mục đích chiếm đoạt tiền điện tử. Theo tờ Bleeping Computer, kẻ này đã tạo sàn tiền điện tử tên BitVex cho phép người dùng gửi tiền số thể thu về 30% lợi nhuận mỗi ngày, mức lợi nhuận thậm chí thể tăng nếu số tiền gửi đủ lớn. Để tăng độ uy tín cho hành vi của mình, đối tượng lừa đảm thậm chí còn đăng video những nhà đồng sáng lập, trong đó Elon Musk, tất nhiên vị tỷ phú của chúng ta không liên quan đến BitVex, mọi thứ đều sản phẩm của deepfake.

Trò lừa đảo của BitVex nhanh chóng đã bị phát hiện, số tiền mà kẻ giả mạo thu được chỉ khoảng 1.700 USD.

Cảnh báo: Những hành vi lừa đảo tinh vi, áp dụng công nghệ cao này cũng đã xuất hiện tại Việt Nam, dưới hình thức lừa chuyển tiền nhằm chiếm đoạt tài sản

Vừa qua, ghi nhận trường hợp chị V.T.M 26 tuổi (ngụ quận Long Biên - Hà Nội), nhận được tin nhắn mượn tiền từ tài khoản Facebook của người thân, với yêu cầu chuyển tiền vào một tài khoản ngân hàng khác.

Mặc dù đã có sự cảnh giác, chị M thực hiện cuộc gọi video với tài khoản Facebook nêu trên để xác minh, nhưng hình ảnh xuất hiện lại đúng là người bạn thân, riêng chỉ có phần âm thanh không quá rõ, dù vậy chị M vẫn không nghi ngờ và đã thực hiện chuyển 75 triệu đồng. Sau đó, người bạn của chị M đã thông báo tài khoản Facebook hiện đã bị kẻ gian chiếm đoạt và không hề nhắn tin vay tiền chị M.

Vì sao "deepfake" dễ dàng giả mặt, giả giọng và trở thành công cụ lừa đảo hàng tỷ đồng? - Ảnh 3.

Sự nguy hiểm của deepfake đã được cảnh báo từ khi công nghệ này bắt đầu phổ biến rộng rãi. Công nghệ cao kết hợp với sự tinh vi của các đối tượng xấu khiến hành lừa đảo chiếm đoạt tài sản ngày càng khó nhận biết.

Rất khó để phân biệt deepfake dù bạn có thực hiện video call để kiểm chứng, vì vậy hãy thật cẩn thận với những tin nhắn mượn tiền từ các tài khoản mạng xã hội, dù là người thân. Hãy thực hiện kiểm tra nhiều bước khi nhận ra điều bất thường.


Tổng số điểm của bài viết là: 0 trong 0 đánh giá
Click để đánh giá bài viết
Tin liên quan

Nội dung đang cập nhật...

Trang tin điện tử tổng hợp về 

Tin tức Tài chính trong nước và quốc tế

Giấy phép hoạt động số 4171/GP-TTĐT do Sở Thông tin và Truyền thông Hà Nội cấp ngày 30/08/2019

Giấy phép sửa đổi số 3928/GP-TTĐT do Sở Thông tin và Truyền thông Hà Nội cấp ngày 02/12/2020

Giấy phép sửa đổi số 3305/GP-TTĐT do Sở Thông tin và Truyền thông Hà Nội cấp ngày 08/11/2022

Chịu trách nhiệm nội dung trang thông tin điện tử tổng hợp: 

Giám đốc - Nguyễn Thanh Hà

ĐT: 024 62541423

Công ty TNHH Carvill Việt Nam

Tầng 5, Tòa nhà VIT Tower 519 Kim Mã, Phường Ngọc Khánh, 

Quận Ba Đình, Hà Nội

Email: media-booking@carvill-vietnam.com

Website: http://carvill-vietnam.com

Báo giá quảng cáo