Facebook đang quá phụ thuộc vào thuật toán AI?

07/10/2021 19:49 GMT+7

Facebook rơi vào khủng hoảng vì chạy theo lợi nhuận, lạm dụng các thuật toán khuếch đại những gì tiêu cực nhất trên mạng xã hội để tối đa hóa lượng tương tác.

Đứng trước Quốc hội Mỹ ngày 5.10, cựu nhân viên Facebook Frances Haugen chỉ trích các thuật toán và thiết kế nền tảng của Facebook là nguyên nhân khiến nội dung kích động thù hận, tin giả tràn lan trên mạng xã hội. Lời khai của Haugen có nhiều điểm tương đồng với những phát hiện từ cuộc điều tra của MIT Technology Review (tạp chí của Viện Công nghệ Massachusetts) vào đầu năm nay.

Thuật toán Facebook hoạt động như thế nào?

Thực tế Facebook có hàng trăm, hàng nghìn thuật toán để nhắm mục tiêu quảng cáo và xếp hạng nội dung. Một số thuật toán nhận biết sở thích của người dùng và đẩy những bài đăng phù hợp lên bảng tin của họ. Các thuật toán khác lại có nhiệm vụ phát hiện những nội dung vi phạm điều khoản. Nhìn chung, chúng được gọi là thuật toán học máy (machine learning).

Rất khó kiểm soát nội dung trên Facebook

CHỤP MÀN HÌNH

Khác với thuật toán truyền thống, thuật toán học máy được đào tạo bằng cách phân tích dữ liệu đầu vào, sau đó nó có thể tự đưa ra các quyết định riêng. Ví dụ, một thuật toán được huấn luyện nhờ phân tích dữ liệu nhấp chuột vào quảng cáo sẽ nghiệm ra rằng phụ nữ xem quảng cáo quần tập yoga nhiều hơn đàn ông. Cuối cùng, mô hình học máy đó sẽ phân phát những quảng cáo tương tự cho phụ nữ nhiều hơn.

Nhờ lượng người dùng khổng lồ, thuật toán có thể phân loại các nhóm đối tượng rất chi tiết, chẳng hạn "phụ nữ từ 25 - 34 tuổi thường thích các trang liên quan đến yoga". Nhắm mục tiêu càng chi tiết, các hãng quảng cáo càng dễ tạo nhiều lợi nhuận hơn.

Tương tự, Facebook cũng có thể đào tạo những thuật toán để dự đoán từng nhóm đối tượng sẽ thích loại bài đăng nào và tiến hành xếp hạng. Ví dụ bạn thích xem ảnh thú nuôi thì các bài đăng như vậy sẽ được đẩy lên cao hơn trên News Feed của bạn.

Người cũ tố cáo Facebook "chọn lợi nhuận" mà không ngăn chặn nội dung độc hại

Ai điều hành thuật toán Facebook?

Không có bộ phận nào phụ trách toàn bộ hệ thống xếp hạng nội dung trên Facebook, thay vào đó, mỗi nhóm kỹ sư đều có mục tiêu riêng, có nhóm xây dựng mô hình học máy để phát hiện nội dung xấu, có nhóm phụ trách chạy quảng cáo...

Công ty phát triển một bộ công cụ gọi là FBLearner Flow giúp các kỹ sư không có kinh nghiệm về học máy có thể phát triển bất cứ mô hình nào theo ý họ. Khi một mô hình không có hiệu quả, mức độ tương tác không cao, họ sẽ loại bỏ ngay.

Facebook ảnh hưởng tiêu cực đến thanh thiếu niên

chụp màn hình

Vài nhân viên Facebook cho rằng đây là một phần lý do tại sao Facebook không thể kiểm soát nội dung trên nền tảng, bởi các nhóm kỹ sư có mục tiêu riêng, cạnh tranh nhau, còn hệ thống ngày càng phức tạp đến nỗi không ai đủ sức theo dõi từng thành phần riêng lẻ nữa.

Facebook có thực sự ảnh hưởng đến sức khỏe tinh thần của trẻ em?

Một nhóm nghiên cứu của Facebook từng phát hiện những người dùng hay đăng bài viết u sầu, buồn bã thì sẽ tương tác với nội dung tiêu cực nhiều hơn và rơi vào vòng luẩn quẩn không lối thoát.

Nhóm này đề xuất lãnh đạo thay đổi thuật toán. Một người cho biết: "Câu hỏi dành cho lãnh đạo là: Chúng ta có nên tối ưu hóa tương tác khi thấy ai đó đang trong trạng thái dễ tổn thương hay không?".

Mark Zuckerberg bị tố chỉ quan tâm lợi nhuận

CHỤP MÀN HÌNH

Nhưng đề xuất của họ bị phớt lờ. Mức lương của nhân viên Facebook dựa vào đánh giá hiệu suất làm việc cũng như các dự án mà họ hoàn thành, vậy nên họ nhanh chóng học được cách bỏ qua những điều tiêu cực, tiếp tục làm theo chỉ thị từ cấp trên.

Tại sao việc xếp hạng nội dung lại là nguồn cơn gây kích động thù hận?

Các mô hình học máy giúp tăng tối đa tương tác, mà những bài có nội dung tranh cãi, thông tin sai lệch và cực đoan lại thu hút nhiều lượt tương tác nhất.

Điều này làm bùng phát những căng thẳng chính trị. Trường hợp tiêu biểu nhất là tin giả trên Facebook về nhóm thiểu số Hồi giáo Rohingya ở Myanmar đã khiến xung đột tôn giáo leo thang tại đất nước này.

Facebook không chỉ dung túng cho các nhóm cực đoan mà còn quảng bá những nhóm này tới người dùng. 64% người tham gia các nhóm cực đoan sau khi dùng tính năng đề xuất nhóm hay tính năng Khám phá của Facebook.

Năm 2017, Chris Cox - giám đốc sản phẩm của Facebook thành lập một nhóm nhân viên để tìm hiểu xem việc tối đa hóa tương tác của người dùng có góp phần vào sự phân cực chính trị hay không, rồi nhận thấy đúng là có mối tương quan giữa hai thành tố. Họ đưa ra một số đề xuất giải quyết vấn đề nhưng không được thực hiện, cuối cùng nhóm này giải tán.

Cựu nhân viên Frances Haugen

reuters

Một nhà nghiên cứu AI, nhân viên cũ của Facebook cho biết mình đã tiến hành nhiều nghiên cứu tương tự, nhưng kết quả chỉ có một: các mô hình tối đa hóa tương tác làm tăng sự phân cực, và các mô hình học máy khiến người dùng có quan điểm ngày càng cực đoan hơn.

Cựu nhân viên Frances Haugen nói rằng hiện tượng này còn tồi tệ hơn ở những khu vực không nói tiếng Anh, vì Facebook quá phụ thuộc vào các mô hình AI để tự động hóa việc kiểm duyệt nội dung trên toàn cầu.

Khi chiến tranh nổ ra ở vùng Tigray (Ethiopia), nhà nghiên cứu đạo đức AI Timnit Gebru nhận thấy Facebook thất bại trong kiểm soát thông tin sai lệch. Các cộng đồng nói thứ ngôn ngữ không được Thung lũng Silicon ưu tiên thường phải gánh chịu hậu quả nặng nề nhất từ môi trường internet thù địch.

Như thế chưa phải đã hết. Khi tin giả, ngôn từ thù hận không được kiểm duyệt, chúng sẽ được lấy làm dữ liệu đào tạo để xây dựng các mô hình học máy tiếp theo.

Biểu tình chống Facebook ở thủ đô Jakarta, Indonesia vào năm 2018

CHỤP MÀN HÌNH

Những gì mà Haugen nói trước Quốc hội Mỹ càng củng cố thêm lập luận của nhiều chuyên gia và nhân viên Facebook trong nhiều năm qua: nếu công ty không thay đổi thiết kế của các thuật toán, các vấn đề trên nền tảng sẽ không được giải quyết.

Frances Haugen kêu gọi Facebook nên từ bỏ thuật toán xếp hạng nội dung và quay lại với dạng News Feed xếp theo trình tự thời gian.

Theo lời Ellery Roberts Biddle - giám đốc dự án của tổ chức Xếp hạng Quyền kỹ thuật số, chuyên nghiên cứu các hệ thống xếp hạng trên mạng xã hội và tác động của chúng đối với quyền con người, nhà lập pháp cần yêu cầu các công ty minh bạch công khai cách thức hoạt động của những thuật toán, hệ thống quảng cáo và xếp hạng nội dung, dù việc này không hề đơn giản.

Top

Bạn không thể gửi bình luận liên tục. Xin hãy đợi
60 giây nữa.