Nỗ lực chống lại video 'deepfake' của Facebook bị nghi ngờ

Thành Luân
Thành Luân
10/01/2020 09:14 GMT+7

Facebook cho biết sẽ gỡ bỏ các hình ảnh và video “deepfake” khỏi nền tảng của mình để chống lại thông tin sai lệch trước cuộc chạy đua tổng thống Mỹ năm nay. Tuy nhiên, các nhà lập pháp nước này lại không tin tưởng điều này.

Theo Reuters, các nhận định này được đưa ra trong phiên điều trần do Ủy ban Năng lượng và Thương mại Hạ viện Mỹ tổ chức, đánh dấu nỗ lực mới nhất của các nhà lập pháp phía Hạ viện nước này nhằm thăm dò các biện pháp phòng vệ kỹ thuật số của Facebook trước cuộc bầu cử tháng 11 tới.
Thời điểm nói trên được xem là đúng 4 năm sau khi Nga sử dụng chính mạng xã hội này để truyền bá thông tin sai lệch trong cuộc bầu cử tổng thống Mỹ vào năm 2016.
Giới lập pháp lo ngại Facebook không thể giải quyết các vấn đề về bảo mật dữ liệu, thông tin sai lệch và các hành vi can thiệp nước ngoài trước cuộc bầu cử.
Một bản ghi nhớ nội bộ công ty của một giám đốc điều hành cấp cao Facebook gửi cho các nhân viên yêu cầu giải quyết các thiếu sót của công ty đã bị rò rỉ và đăng tải lên thời báo New York Times vào đầu tuần, cho thấy mạng xã hội này đang tìm mọi cách ứng dụng các thuật toán học sâu và trí tuệ nhân tạo để dẹp nạn tin giả cũng như các video sử dụng công nghệ “deepfake” đang ngày càng bành trướng trên mạng.
Deepfake là các video clip hay hình ảnh trông giống thật do máy tính tạo ra dựa trên đoạn video hoặc ảnh gốc nhằm phục vụ mục đích và ý đồ của người sử dụng chúng.
Phần mềm AI tạo ra deepfake chủ yếu nhắm vào các chính trị gia hoặc người nổi tiếng - bằng cách cắt ghép video theo cách khiến nó trông thật.
Tháng 9 năm ngoái, Facebook tuyên bố họ đã đóng góp 10 triệu USD cho một quỹ để phát triển công nghệ phát hiện deepfake. Các công ty khác như Google và Microsoft cũng đang cố gắng chống lại deepfake. Facebook cho biết họ có kế hoạch hợp tác với các học viện, chính phủ và các doanh nghiệp để vạch trần những người đứng sau các vụ deepfake.
Top

Bạn không thể gửi bình luận liên tục. Xin hãy đợi
60 giây nữa.