Vì sao nhiều người bị cuộc gọi video Deepfake để lừa đảo

 n.gười nhận cuộc gọi Deepfake rất khó phân biệt thật giả và sập bẫy lừa đảo. Việc dùn.g cuộc gọi video Deepfake để lừa đảo ra sao?

Thôn.g qua các ứn.g dụn.g OTT (cun.g cấp nội dun.g hình ảnh, tin nhắn, gọi điện như Viber, Zalo, Messen.ger...), kẻ xấu có thể thực hiện cuộc gọi thoại, thậm chí cả video với giọn.g nói, hình ảnh là của n.gười thân, n.gười quen, sếp... khiến n.gười nhận rất khó phân biệt thật giả và sập bẫy lừa đảo cuộc gọi Deepfake.

Đó là việc dùn.g cuộc gọi video Deepfake để lừa đảo. Deepfake là côn.g n.ghệ ứn.g dụn.g trí tuệ nhân tạo (AI) để tạo ra các đoạn video với hình ảnh khuôn mặt nhân vật giốn.g hệt như hình ảnh n.gười dùn.g muốn giả mạo. Từ một côn.g n.ghệ phục vụ giải trí nay nhữn.g kẻ lừa đảo, tun.g tin giả đã ứn.g dụn.g Deepfake vào các chiêu trò của mình, tạo nên một cách thức lừa đảo mới vô cùn.g hiểm độc.



Nhiều n.gười bị lừa cuộc gọi Deepfake

n.gay sau bài viết của báo Tuổi Trẻ về "Cuộc gọi video giờ thấy mặt cũn.g chưa chắc chính chủ" (Tuổi Trẻ 27-3), nhiều n.gười dùn.g cho biết đã từn.g là nạn nhân của chiêu trò lừa đảo từ cuộc gọi video Deepfake như tron.g bài viết. Chị Mỹ Tâm (TP.HCM) cho biết đã bị lừa mất 30 triệu đồn.g bởi chiêu trò gọi điện video Deepfake.

Cụ thể, tài khoản n.gười thân chị Tâm bên Mỹ nhắn tin mượn tiền vì có việc gấp. Liền sau đó chị Tâm nhận được cuộc gọi video qua ứn.g dụn.g Messen.ger của Facebook.

"Cuộc gọi chỉ diễn ra được vài giây nhưn.g đủ để tôi thấy được khuôn mặt n.gười thân của mình cùn.g với cách xưn.g hô quen thuộc nhưn.g chập chờn. Sau đó tôi nhận được tin nhắn vì són.g yếu nên khôn.g gọi video tiếp được, chuyển san.g nhắn tin cho tiện. Tôi tin tưởn.g và chuyển tiền theo hướn.g dẫn khôn.g chút n.ghi n.gờ", chị Tâm kể lại.

Tươn.g tự, chị Thu Hòa (TP.HCM) cũn.g bị lừa 20 triệu đồn.g với cùn.g chiêu lừa như trên. "Sán.g tôi đã chuyển tiền cho bạn mình sau cuộc gọi video qua Facebook từ bạn. Đến chiều tôi mới nhận được tin nhắn cảnh báo tài khoản Facebook của bạn tôi đã bị hack. Tôi liền gọi điện thoại cho bạn thì mới biết kẻ xấu đã dùn.g chiêu gọi video mạo danh để lừa tôi", chị Hòa bộc bạch.

Trao đổi với Tuổi Trẻ, ôn.g Vũ Thanh Thắn.g - giám đốc cấp cao về AI Côn.g ty an ninh mạn.g thôn.g minh SCS - cho biết Deepfake là một côn.g n.ghệ AI có khả năn.g làm giả video với hình ảnh và giọn.g nói của một n.gười khác.

Kịch bản lừa đảo diễn ra như: kẻ lừa đảo tìm cách chiếm đoạt tài khoản Zalo, Facebook của n.gười dùn.g, tiếp đó thu thập hình ảnh (có thể cả giọn.g nói của nạn nhân từ các video) và dùn.g Deepfake tạo ra đoạn video mạo danh.

Sau đó kẻ lừa đảo tiến hành nhắn tin mượn tiền nhữn.g n.gười dùn.g tron.g danh sách bạn bè Facebook của nạn nhân, đồn.g thời thực hiện cuộc gọi video mạo danh, phát video giả mạo để tăn.g độ tin cậy nhằm lừa đảo thành côn.g hơn.

"Thườn.g nhữn.g cuộc gọi video giả mạo này sẽ rất n.gắn với mục đích cho bạn bè hay n.gười thân của nạn nhân nhìn thoán.g qua, sau đó tắt đi với lý do són.g điện thoại kém. Mấu chốt của việc lừa đảo này là để nạn nhân tin rằn.g bạn bè, n.gười thân của mình đan.g gặp vấn đề và cần giúp đỡ, gửi tiền gấp. Với cách thức này, nhữn.g n.gười khôn.g để ý hoặc trun.g niên... chỉ nhìn thoán.g qua có thể sập bẫy kẻ gian", ôn.g Thắn.g phân tích.

Từ ghép hình đến video Deepfake

Vài năm trở lại đây, một tron.g nhữn.g chiêu trò đòi nợ kiểu khủn.g bố xuất hiện nhiều tại Việt Nam là gán ghép hình ảnh "con nợ" hoặc n.gười thân, sếp của "con nợ" rồi bêu xấu trên mạn.g. Các chuyên gia côn.g n.ghệ cho rằn.g sắp tới rất có khả năn.g kẻ lừa đảo dùn.g Deepfake để tạo ra nhữn.g video giả, gán ghép hình ảnh nhằm đạt được các mục đích xấu.

Trao đổi với Tuổi Trẻ chiều 29-3, ôn.g Vũ n.gọc Sơn - giám đốc côn.g n.ghệ Côn.g ty an ninh mạn.g NCS - cho biết các chiêu trò, hình thức lừa đảo gần đây đều khôn.g phải mới nhưn.g các đối tượn.g lừa đảo đã biết ứn.g dụn.g côn.g n.ghệ, đặc biệt côn.g n.ghệ AI. Từ đó khả năn.g thành côn.g của các chiêu lừa đảo sẽ cao hơn và n.gày càn.g khó lườn.g với n.gười dùn.g Internet.

Theo ôn.g Sơn, với sự phát triển của AI, các ứn.g dụn.g kiểu như Deepfake sẽ giúp một n.gười bình thườn.g, khôn.g cần biết về côn.g n.ghệ hay xử lý đồ họa cũn.g có thể dễ dàn.g thực hiện được việc ghép ảnh, ghép video, thậm chí là cả giọn.g nói.

Chính vì vậy, ôn.g Sơn cảnh báo: "Tình trạn.g lừa đảo bằn.g Deepfake có thể sẽ bùn.g phát tron.g thời gian tới, bởi số tiền các đối tượn.g chiếm được qua mỗi vụ việc là khá lớn tron.g khi côn.g sức chún.g bỏ ra khôn.g nhiều".

Còn theo Hãn.g bảo mật Kaspersky, hiện nay video Deepfake vẫn ở tron.g giai đoạn có thể nhận biết được nếu n.gười xem chú ý vào các đặc điểm như: chuyển độn.g bị giật, thay đổi ánh sán.g từ khun.g hình này san.g khun.g hình khác, thay đổi tôn.g màu da, chớp mắt một cách khác thườn.g hoặc hoàn toàn khôn.g chớp mắt, khẩu hình và âm thanh khôn.g khớp...

"Tuy nhiên Deepfake đan.g trở thành mối đe dọa thật sự. Các video Deepfake được tạo nên n.gày càn.g thật hơn, thậm chí đã được dùn.g cho mục đích chính trị cũn.g như trả thù cá nhân. Thôn.g dụn.g nhất, gần đây video Deepfake được sử dụn.g thườn.g xuyên cho mục đích tốn.g tiền và lừa đảo", đại diện Kaspersky cảnh báo.

Deepfake là gì?

Theo Hãn.g bảo mật Kaspersky, Deepfake là một từ ghép của "deep" tron.g "deep learnin.g" (học sâu) và "fake" (giả mạo). Deep learnin.g là dùn.g phươn.g pháp AI tiên tiến ứn.g dụn.g nhiều thuật toán nhằm tổn.g hợp dần các tính năn.g cao cấp từ dữ liệu đầu vào. Từ đó nó có khả năn.g tổn.g hợp, học hỏi từ nhữn.g dữ liệu mà n.gười dùn.g đưa vào như khuôn mặt con n.gười, chuyển độn.g vật lý và giọn.g nói…


Từ các dữ liệu này, AI sau đó sẽ xử lý để tạo ra video Deepfake thôn.g qua mạn.g GAN (Generative Adversarial Network - dịch nôm na: mạn.g sinh ra dữ liệu mới sau quá trình học). Mạn.g lưới này liên tục kiểm tra các hình ảnh, âm thanh, chuyển độn.g… được tạo ra theo chươn.g trình thiết lập từ trước. Từ đó các video Deepfake cuối cùn.g sẽ cho ra hình ảnh n.gày càn.g thuyết phục, sốn.g độn.g và thật hơn.

Bình tĩnh để tránh bị lừa

Chuyên gia n.gô Minh Hiếu, Trun.g tâm Giám sát an toàn khôn.g gian mạn.g quốc gia, cho rằn.g để tránh bị lừa thì tốt nhất n.gười dân nên tỉnh táo tron.g mọi tình huốn.g. Khi có một ai đó trên mạn.g xã hội tron.g danh sách bạn bè của mình mà tự nhiên hỏi mượn tiền hay gửi link lạ thì khôn.g nên vội mà hãy bình tĩnh, kiểm chứn.g và nên xác thực mọi thứ.

Chủ độn.g xác thực bằn.g cách gọi điện thoại trực tiếp hoặc facetime (mặt đối mặt) ít nhất trên một phút, sau đó giả vờ đặt ra nhữn.g câu hỏi cá nhân mà chỉ có bạn và n.gười kia mới biết. Vì Deepfake sẽ khôn.g thể giả được một cuộc trò chuyện thật sự tron.g thời gian thực man.g tính chuẩn xác cao. Bởi tính tới thời điểm này dù sao cảm xúc hay biểu cảm của AI hay Deepfake vẫn khôn.g thể bắt chước được n.gười thật.

Côn.g an TP.HCM cảnh báo về lừa đảo bằn.g côn.g n.ghệ Deepfake

Thôn.g tin từ Côn.g an TP.HCM cho biết chưa ghi nhận thôn.g tin phản ảnh về trườn.g hợp bị lừa đảo mà kẻ lừa đảo sử dụn.g côn.g n.ghệ Deepfake. Theo Côn.g an TP.HCM, nhữn.g kẻ lừa đảo có thể gọi video để giả làm n.gười thân vay tiền, giả làm con cái đan.g du học nước n.goài gọi điện cho bố mẹ nhờ chuyển tiền đón.g học phí...


Nắm bắt được tâm lý n.gười dùn.g mạn.g xã hội hiện nay đã cảnh giác với chiêu trò lừa đảo bằn.g tin nhắn nhờ chuyển tiền, kẻ xấu đã sử dụn.g chiêu lừa đảo tinh vi hơn để vay tiền thôn.g qua hình thức giả cuộc gọi video Deepfake. Thủ đoạn là lấy nhữn.g video cũ của n.gười dùn.g, cắt ghép hoặc dùn.g côn.g n.ghệ Deepfake để khi lừa đảo sẽ phát lại video dưới hình thức mờ ảo, chập chờn như đan.g ở nơi són.g yếu.

Côn.g an TP.HCM khuyến cáo khi nhận bất kỳ tin nhắn vay mượn tiền thôn.g qua mạn.g xã hội, n.gười dân cần điện thoại trực tiếp cho n.gười thân để xác minh. Trườn.g hợp n.ghi vấn kẻ giả mạo cần báo n.gay cho cơ quan côn.g an gần nhất để được hỗ trợ, xử lý kịp thời.

Khi Deepfake bị lợi dụn.g

Khuôn mặt chân dun.g của một n.gười khôn.g có thực do Deepfake tạo ra trên tran.g web: https://this-person-does-notexist.com

Khuôn mặt chân dun.g của một n.gười khôn.g có thực do Deepfake tạo ra trên tran.g web: https://this-person-does-notexist.com

Trên thế giới, xét dưới góc độ kinh tế - xã hội, n.goài việc giải trí, côn.g n.ghệ Deepfake còn được dùn.g với thủ đoạn xấu nhằm lừa đảo tài chính, bôi xấu, khủn.g bố, đe dọa…

Còn xét riên.g về mặt an ninh, tình báo, Deepfake thậm chí có thể trở thành côn.g cụ nhằm tun.g hỏa mù, thậm chí có thể gây ra hiểm họa của an ninh toàn cầu.

Tấn côn.g tài chính

Thán.g 3-2019, giám đốc điều hành một côn.g ty năn.g lượn.g ở Anh nhận được cuộc gọi từ sếp của mình. Vị giám đốc điều hành ở côn.g ty mẹ đặt tại Đức yêu cầu ôn.g chuyển tiền gấp cho một nhà cun.g cấp ở Hun.gary tron.g vòn.g một giờ. Khôn.g chút n.ghi n.gờ, vị CEO chuyển khoản và mất 243.000 USD. Số tiền nhanh chón.g được chuyển từ tài khoản n.gân hàn.g Hun.gary san.g một tài khoản ở Mexico, sau đó được chuyển tiếp đến các nơi khác.

Theo tạp chí Forbes, đây là trườn.g hợp lừa đảo đầu tiên được ghi nhận liên quan đến việc giả giọn.g nói bằn.g côn.g n.ghệ Deepfake. Nạn nhân cho biết đã n.ghe âm thanh giốn.g với tiến.g của sếp mình bởi âm sắc đặc trưn.g của n.gười Đức. Kẻ lừa đảo còn gọi để đòi một khoản thanh toán thứ hai nhưn.g lúc này nạn nhân sinh n.ghi và khôn.g chuyển khoản.

Trườn.g hợp lừa đảo do Deepfake thứ hai được xác định ở Hon.g Kon.g. Thán.g 1-2020, giám đốc một n.gân hàn.g nhận được cuộc gọi từ một n.gười có giọn.g nói giốn.g giọn.g và hình ảnh của giám đốc một côn.g ty ôn.g từn.g nói chuyện.

Vị giám đốc thôn.g báo tin mừn.g: Côn.g ty của ôn.g sắp thực hiện một thươn.g vụ mua lại. Ôn.g cần n.gân hàn.g cho phép một số giao dịch chuyển khoản trị giá 35 triệu USD. n.goài cuộc gọi, giám đốc n.gân hàn.g còn nhận được các email mà ôn.g tin là từ vị giám đốc. Nội dun.g điện thoại và email đều liên quan đến việc mua lại một côn.g ty. Tin rằn.g mọi thứ đều hợp pháp, giao dịch chuyển tiền được thực hiện và n.gân hàn.g bị thiệt hại 35 triệu USD.

Một n.ghiên cứu gần đây cho thấy chỉ tron.g năm 2020, gian lận danh tính do Deepfake tạo ra đã gây thiệt hại cho các tổ chức tài chính khoản.g 20 tỉ USD. Trun.g bình một kẻ lừa đảo thôn.g qua Deepfake để đánh cắp từ 81.000 đến 97.000 USD trước khi vụ lừa đảo bị phanh phui. Một báo cáo khác cho thấy "nhữn.g n.gười cho vay trực tuyến cũn.g mất 6 tỉ USD mỗi năm do gian lận danh tính và đây là tội phạm tài chính phát triển nhanh nhất thế giới", theo pymnts.com.

Gây khủn.g hoản.g an ninh toàn cầu

Một báo cáo mới của các chuyên gia AI cũn.g đưa ra dự đoán rằn.g côn.g n.ghệ Deepfake đan.g trên đà được sử dụn.g rộn.g rãi hơn tron.g các hoạt độn.g tình báo và quân sự có mục tiêu. Chủ nhiệm Phòn.g thí n.ghiệm AI và an ninh Northwestern, ôn.g Subrahmanian, và nhóm sinh viên của mình đã phát triển một thuật toán tạo ra các video Deepfake nhằm cảnh báo về rủi ro xun.g đột toàn cầu từ Deepfake.

Họ đã tạo ra video giả về trùm khủn.g bố Nhà nước Hồi giáo đã chết là Abu Mohammed al-Adnani.

Tron.g video, nét mặt và âm thanh của Abu Mohammed al-Adnani hiện ra chân thực, còn nhữn.g gì n.gười này nói là phát n.gôn của Tổn.g thốn.g Syria Bashar al-Assad. Video Deepfake sốn.g độn.g này được tạo ra chỉ tron.g vài giờ. Quá trình đơn giản đến mức Subrahmanian cảnh báo các cơ quan an ninh nên sẵn sàn.g cho việc kẻ xấu có khả năn.g tạo ra video Deepfake về bất kỳ quan chức hoặc lãnh đạo nào tron.g tươn.g lai.

Tác giả đề n.ghị chính phủ các nước nên có chính sách giám sát và quản lý việc tạo và phát tán các nội dun.g Deepfake. Chẳn.g hạn cần có "quy trình Deepfake" trước khi muốn sử dụn.g côn.g n.ghệ này.

"Quyết định tạo ra và sử dụn.g Deepfake khôn.g nên được xem nhẹ mà cần được xem xét cẩn thận về mọi mặt của rủi ro. Việc sử dụn.g Deepfake được thiết kế đặc biệt để tấn côn.g các mục tiêu có giá trị cao tron.g bối cảnh xun.g đột sẽ ảnh hưởn.g đến nhiều cơ quan và văn phòn.g chính phủ", nhóm tác giả trên đưa ra cảnh báo.

HỒNG VÂN

Bài viết Gốc tại đây

Share on Google Plus
    Blogger Comment
    Facebook Comment

0 nhận xét:

Đăng nhận xét