Cảnh giác chiêu lừa đảo do trí tuệ nhân tạo giả giọng người thân

13/04/2023 13:16 GMT+7

Một phụ nữ đã chia sẻ rằng những kẻ lừa đảo đã sử dụng AI (trí tuệ nhân tạo) để sao chép giọng nói của con gái bà và yêu cầu khoản tiền chuộc lên đến hơn 23,4 tỉ đồng. Câu chuyện này đã khiến cộng đồng mạng lo ngại.

Theo tờ New York Post ngày 12.4, vụ việc chấn động này xảy ra trong bối cảnh các âm mưu "giả mạo ID người gọi" đang gia tăng, trong đó những kẻ lừa đảo tuyên bố rằng chúng đã bắt người thân của người nhận cuộc gọi làm con tin và sẽ làm hại họ nếu gia đình không trả một số tiền nhất định.

Người phụ nữ DeStefano (ở Mỹ) kể lại việc cô ấy nhận được một cuộc gọi từ một số điện thoại lạ. DeStefano nhớ ra rằng cô con gái 15 tuổi của mình là Brie đang đi trượt tuyết nên đã trả lời cuộc gọi để đảm bảo không có gì bất ổn.

Quyết định đơn giản đó đã đảo lộn toàn bộ cuộc sống của người mẹ: “Tôi nhấc điện thoại lên và nghe thấy giọng nói của con gái mình, nó đang khóc nức nở và gọi mẹ ơi”.

Cảnh giác chiêu lừa đảo do trí tuệ nhân tạo giả giọng người thân  - Ảnh 1.

DeStefano và con gái Brie

CHỤP MÀN HÌNH TRANG NEW YORK POST

Sau đó, một người đàn ông này bắt máy và nói: "Nghe đây, con gái bạn đang nằm trong tay tôi. Không được gọi cho cảnh sát hoặc bất kỳ ai. Tôi sẽ đưa nó đến Mexico”, người gọi bí ẩn đe dọa.

Trong suốt thời gian đó, DeStefano có thể nghe thấy tiếng con gái của mình khóc lóc cầu xin ở phía sau: “Mẹ giúp con với. Làm ơn giúp con”.

Ban đầu anh ta yêu cầu 1 triệu USD (23,4 tỉ đồng) nhưng sau đó hạ con số xuống còn 50.000 USD (khoảng 1,17 tỉ đồng) sau khi DeStefano nói rằng mình không có tiền.

Cơn ác mộng cuối cùng cũng kết thúc sau khi DeStefano gọi 911 và chồng của mình, họ xác nhận rằng Brie vẫn an toàn trong chuyến du ngoạn trượt tuyết.

Tuy nhiên, trong suốt cuộc gọi, bà tin chắc rằng con gái mình đang gặp nguy hiểm. “Đó hoàn toàn là giọng nói của cô ấy”, Arizonan mô tả.

Hiện tại vẫn chưa xác định được danh tính của kẻ lừa đảo, nhưng các chuyên gia khoa học máy tính nói rằng công nghệ nhân bản giọng nói đã phát triển đến mức giọng điệu và cách nói của ai đó có thể được tạo lại từ những đoạn âm thanh ngắn nhất.

Subbarao Kambhampati, giáo sư khoa học máy tính và cơ quan AI tại Arizona State University, giải thích: “AI có thể bắt chước sự biến đổi của một người cũng như cảm xúc của họ”

Các chuyên gia của FBI cảnh báo rằng những kẻ lừa đảo thường tìm thấy mục tiêu của chúng trên mạng xã hội.

Mayo, người phụ trách văn phòng FBI tại Phoenix cho biết: “Nếu bạn công khai thông tin của mình có nghĩa là bạn đang cho phép mình bị lừa bởi những người như thế này”.

Để tránh bị bắt cóc, anh ấy khuyên nên hỏi kẻ lừa đảo một loạt câu hỏi về người bị bắt cóc mà kẻ lừa đảo sẽ không biết.

Trong khi đó, DeStefano cảnh báo mọi người trên Facebook hãy báo cho chính quyền nếu gặp trường hợp tương tự.

“Cách duy nhất để ngăn chặn điều này là nâng cao nhận thức cộng đồng. Ngoài ra, hãy đưa ra một từ hoặc câu hỏi khẩn cấp dành cho gia đình mà chỉ bạn biết để bạn có thể xác thực rằng mình không bị lừa đảo bằng AI”, cô ấy nói.

Top

Bạn không thể gửi bình luận liên tục. Xin hãy đợi
60 giây nữa.