An ninh Mỹ báo động nguy cơ từ công nghệ siêu giả mạo

07/09/2020 07:42 GMT+7

Theo một báo cáo vừa gửi quốc hội Mỹ, các cơ quan an ninh và tình báo nước này đang lo ngại về công nghệ deepfake.

Giả mạo bằng trí tuệ nhân tạo

Theo báo cáo trên, deepfake là một khái niệm bắt đầu xuất hiện vào năm 2017 được dùng để mô tả việc hình ảnh, âm thanh, video được giả mạo trông như thật. Deepfake được xử lý phức tạp từ công nghệ máy học (một phần của trí tuệ nhân tạo - AI) để tổng hợp và xử lý hình ảnh rồi từ đó thay đổi nội dung hình ảnh phù hợp với bối cảnh để tạo ra một nội dung giả mạo khó phát hiện.
Nói nôm na, từ một đoạn clip gốc, thông qua công nghệ deepfake, chân dung hay hình ảnh nhân vật có thể được thay đổi mà các thao tác, cử chỉ đều hoàn toàn phù hợp với clip ban đầu. Hay với phần âm thanh, thì deepfake phân tích âm giọng gốc rồi kết hợp đưa vào nội dung âm thanh mới hoàn toàn phù hợp.
Thực tế, chính nhà sáng lập Facebook Mark Zuckerberg cũng từng là nạn nhân của một đoạn clip giả mạo được thực hiện bằng deepfake. Năm 2019, một clip xuất hiện với hình ảnh của tỉ phú Zuckerberg với tuyên bố đủ sức kiểm soát cuộc sống của hàng tỉ người. Sau khi làm rõ thì giới phân tích phát hiện video gốc có từ năm 2017 trong đó Zuckerberg nói về nghi án Nga can thiệp vào bầu cử Mỹ thông qua các tin giả trên mạng xã hội. Thế nhưng, đoạn clip được áp dụng deepfake để thay đổi nội dung mà Zuckerberg nói chuyện, trở thành lời tuyên bố về khả năng kiểm soát cuộc sống hàng tỉ người.
Hay Chủ tịch Hạ viện Mỹ Nancy Pelosi cũng từng xuất hiện trong một clip vào năm ngoái, mà trong đó hình ảnh bà phát biểu mà như đang say rượu. Sau khi giới chuyên gia phân tích phát hiện đoạn clip đã được xử lý từ một clip quay cảnh bà phát biểu. Nhưng bằng công nghệ deepfake thì cử chỉ của bà được thay đổi khiến có biểu hiện say xỉn.
Với công nghệ deepfake, các đoạn video có thể được thay thế từ nhân vật này thành nhân vật khác mà khó bị phát hiện.

Đe dọa an ninh

Từ thực tế trên, giới chức Mỹ lo ngại những rủi ro từ công nghệ deepfake. Chẳng hạn như cận kề ngày bầu cử tổng thống Mỹ, một video giả mạo bằng công nghệ deepfake được phát tán với nội dung là một ứng viên tổng thống thừa nhận bản thân không đủ sức khỏe, minh mẫn để lãnh đạo đất nước. Khi đó, nếu cử tri bị đánh lừa thì nhiều khả năng sẽ không bỏ phiếu cho ứng viên này. Còn để làm rõ sự thật rằng đó là clip giả mạo thì phải mất một thời gian.
Tương tự, nếu một clip được làm giả với nội dung cảnh sát có hành vi phân biệt chủng tộc hoặc hành hung vô cớ dân thường thì có thể trở thành “mồi lửa” gây nên các vụ bạo động. Khi đó, tình hình an ninh sẽ bị đe dọa nghiêm trọng.
Theo báo cáo trên, nguy cơ càng lớn hơn khi các phần mềm deepfake đang ngày càng phổ biến và được cho sử dụng miễn phí đang xuất hiện trên internet. Mặc dù để xử lý một clip với công nghệ deepfake thì cần hệ thống lưu trữ dữ liệu lớn, nhưng khó khăn này có thể được giải quyết bằng cách thuê các dịch vụ điện toán đám mây. Chính vì thế, các clip giả mạo với deepfake có thể được thực hiện bởi những người không phải “cao thủ” về công nghệ.
Trước nguy cơ trên, các cơ quan nghiên cứu về quốc phòng và an ninh của Mỹ đang đẩy nhanh việc phát triển các phần mềm để nhanh chóng phát hiện nội dung hình ảnh, âm thanh, video bị xử lý bằng deepfake.
Trong đó, Cơ quan Nghiên cứu các dự án quốc phòng tiên tiến (DARPA) thuộc Bộ Quốc phòng Mỹ đang chi ra hàng chục triệu USD để phát triển 2 chương trình chuyên dụng phát hiện deepfake là MediFor và SemaFor. Dự kiến, hai chương trình này sẽ được hoàn thiện vào năm tài chính 2021 để đưa vào phục vụ công tác an ninh, tình báo. Bên cạnh đó, các cơ quan nghiên cứu tham mưu chính sách cho quốc hội Mỹ đề nghị xem xét ban hành các đạo luật yêu cầu các nhà cung cấp mạng xã hội trên internet phải có trách nhiệm kiểm tra, phát hiện deepfake đối với các nội dung được đăng tải.
Ngoài ra, một biện pháp phòng ngừa là tuyên truyền người sử dụng internet cần cẩn trọng xem xét, đối chiếu các nội dung xuất hiện trên mạng xã hội để đảm bảo không bị đánh lừa bởi deepfake.
Top

Bạn không thể gửi bình luận liên tục. Xin hãy đợi
60 giây nữa.