Hiểm họa đằng sau AI điều tra tội phạm

0 Thanh Niên Online

Đánh giá tác giả

Hàng trăm nghìn cảnh sát Mỹ đang lạm dụng quyền lực để truy cập các hệ thống AI (trí tuệ nhân tạo) điều tra tội phạm và bắt giữ nghi phạm bừa bãi dựa trên kết luận vô căn cứ từ AI.
AI có thể khiến nhiều người bị bắt oan /// Ảnh: AFP/Getty Images AI có thể khiến nhiều người bị bắt oan - Ảnh: AFP/Getty Images
AI có thể khiến nhiều người bị bắt oan
Ảnh: AFP/Getty Images
Theo The Next Web, các công ty phát triển hệ thống AI giám sát ban đầu sẽ cho một số cảnh sát quyền dùng thử sản phẩm. Nếu ưng ý, những cảnh sát này có thể gợi ý với cấp trên để đưa vào sử dụng chính thức trên quy mô lớn. Cách chào hàng này đem lại lợi ích cho cả đôi bên. 

Giám sát trên smartphone

Khác với tưởng tượng của chúng ta, những hệ thống AI giám sát không chạy trên dàn máy tính đồ sộ mà tồn tại dưới dạng một ứng dụng Android hay iOS bình thường, có thể dễ dàng cài đặt trên điện thoại. Bất kỳ cảnh sát ở thứ bậc nào cũng có thể dễ dàng truy cập mà không cần xin phép cấp trên. 
Cảnh sát Mỹ có thể cài phần mềm từ những công ty như Clearview AI trên smartphone, rồi chụp hình bất kỳ người nào mà họ cần điều tra. Sau đó, họ tìm hiểu danh tính của đối tượng thông qua ứng dụng do công ty Palantir cung cấp. Ứng dụng sẽ hiển thị thông tin cá nhân của người mà họ muốn tìm.  
Không cần trát điều tra, cảnh sát vẫn có quyền truy cập vào hồ sơ từ nhà cung cấp dịch vụ điện thoại, internet và email của bạn. Họ cũng dễ dàng tìm ra hồ sơ y tế, lịch sử nghĩa vụ quân sự, hồ sơ tòa án, pháp lý, lịch sử du lịch và tài sản của bạn. Mọi thứ dễ dàng như dùng Netflix hay Spotify.
Các sĩ quan cảnh sát Mỹ dùng hệ thống của bên thứ ba để giúp công việc dễ dàng hơn, bỏ qua quy trình trát lệnh phức tạp và tự mình hành động.

Hộp đen AI

Tuy nhiên, sẽ như thế nào nếu cảnh sát quá phụ thuộc vào hệ thống AI và bắt nhầm người? The Next Web cho rằng các cơ quan thực thi pháp luật ở Mỹ mỗi năm chi hàng tỉ USD cho các dịch vụ AI. Trong đó có những hệ thống AI không hoạt động đối với người da đen, hay hệ thống "predictive policing" (dùng toán học, AI để dự báo, điều tra tội phạm) gián tiếp tạo điều kiện nhắm tới các cộng đồng thiểu số.
Hệ thống Predictive Policing gây ra rất nhiều tranh cãi. Chúng có thể xác định vị trí diễn ra tội ác nhưng không thể đưa ra lý do tại sao và được xem là một dạng "hộp đen AI". Hộp đen AI là cách gọi những hệ thống AI cho phép người dùng xem đầu vào và đầu ra, nhưng ta không thể biết nó hoạt động theo quy trình nào để đi đến kết luận.

Tại sao sinh viên Hàn Quốc đi học cách đối phó trí tuệ nhân tạo?

Gần đây, Vice đưa tin về việc cảnh sát Chicago dùng ShotSpotter - hệ thống AI với mục đích phát hiện tiếng súng. Hệ thống này được giới thiệu có thể phát hiện tiếng súng với độ chính xác lên đến 95%. Nhưng đứng trước tòa, đại diện công ty lại nói rằng đó chỉ là lời giới thiệu, tiếng ồn xung quanh vẫn có thể ảnh hưởng đến độ chính xác của hệ thống. Các nhân viên của ShotSpotter còn có thể thay đổi bằng chứng theo lời yêu cầu của các sĩ quan, làm như hệ thống đã phát hiện ra tiếng súng nhằm tạo điều kiện thuận lợi cho việc bắt giữ nghi phạm. Như vậy, các hệ thống như ShotSpotter là ví dụ của "hộp đen AI". 
Nếu có người bị vu oan vì lỗi của hệ thống AI, ta không thể bắt ai chịu trách nhiệm, càng không thể kết tội máy móc. Còn nếu nhân chứng là con người, tòa án có thể trừng phạt người nào khai man. 
Bất chấp chỉ trích, những hệ thống AI hình sự vẫn tồn tại vì mang lại lợi nhuận khủng khiếp. Trang The Next Web ví hệ thống AI hộp đen là mỏ vàng cho các công ty khởi nghiệp, Big Tech lẫn chính trị gia. 

Bình luận

User
Gửi bình luận
Hãy là người đầu tiên đưa ra ý kiến cho bài viết này!

VIDEO ĐANG XEM NHIỀU