Microsoft ra mắt công cụ tự động kiểm tra bảo mật các hệ thống AI

Thành Luân
Thành Luân
05/05/2021 07:25 GMT+7

Microsoft vừa công bố công cụ mới có tên Counterfit nhằm giúp các tổ chức có thể dễ dàng hơn trong việc bảo mật các hệ thống trí tuệ nhân tạo (AI) của họ.

Theo Neowin, Counterfit là một công cụ mã nguồn mở do Microsoft tạo ra để tự động hóa việc kiểm tra bảo mật hệ thống AI của một tổ chức. Mục tiêu cuối cùng là tạo sự tin tưởng cao cho các công ty rằng hệ thống AI của họ là mạnh mẽ và đáng tin cậy, cho dù chúng được sử dụng nhiều như thế nào trong các ngành công nghiệp khác nhau.
Microsoft lưu ý trong số 28 tổ chức được khảo sát, 25 tổ chức cảm thấy họ không có các cơ chế phù hợp để bảo vệ các hệ thống AI và các chuyên gia bảo mật của họ cũng không được trang bị tốt kỹ năng để xử lý các mối đe dọa chống lại chúng.
Counterfit chứa một tập hợp các tập lệnh để giúp phát hiện các mô hình tấn công AI. Microsoft lần đầu tiên sử dụng nó trong thử nghiệm nội bộ của riêng mình trước khi phát triển nó để hoạt động như một công cụ tự động hóa kiểm tra bảo mật nhiều mô hình AI trên quy mô lớn. Nó đã được Microsoft sử dụng làm công cụ chính trong các hoạt động cảnh báo bảo mật AI tại công ty.
Lợi ích của việc sử dụng Counterfit là nó phù hợp với môi trường, mô hình và dữ liệu. Điều này có nghĩa là nó có thể được sử dụng tại chỗ, bên ngoài và trong đám mây để kiểm tra bất kỳ loại mô hình AI nào phụ thuộc vào dữ liệu đầu vào ở hầu hết hình thức bao gồm cả văn bản và hình ảnh.
Microsoft đã chỉ ra Counterfit rất dễ sử dụng cho các nhóm bảo mật sử dụng Metasploit hoặc PowerShell Empyre. Nó có thể được sử dụng để kiểm tra thâm nhập và quét lỗ hổng, cũng như ghi lại các cuộc tấn công vào mô hình AI để các nhà khoa học dữ liệu có thể sử dụng phép đo từ xa của nó để nâng cao hơn nữa tính bảo mật cho hệ thống AI của họ.
Top

Bạn không thể gửi bình luận liên tục. Xin hãy đợi
60 giây nữa.