Nguy cơ robot sát thủ hủy diệt nhân loại

03/08/2015 08:25 GMT+7

Trí thông minh nhân tạo (AI) khi được vũ trang là một sai lầm khủng khiếp, đó là cảnh báo của các chuyên gia hàng đầu về công nghệ.

Trí thông minh nhân tạo (AI) khi được vũ trang là một sai lầm khủng khiếp, đó là cảnh báo của các chuyên gia hàng đầu về công nghệ.

Nhà vật lý học Stephen Hawking cảnh báo nhân loại bị giới hạn bởi quá trình tiến hóa chậm chạp, không thể theo kịp tốc độ phát triển của công nghệ - Ảnh: Flickr
Nhà vật lý học Stephen Hawking cảnh báo nhân loại bị giới hạn bởi quá trình tiến hóa chậm chạp,
 không thể theo kịp tốc độ phát triển của công nghệ - Ảnh: Flickr
Nỗi lo sợ về viễn cảnh AI phát triển vượt tầm kiểm soát của con người đã thúc đẩy hơn 1.000 học giả và các nhân vật của công chúng ký vào một bức thư mở, nêu bật quan ngại về cuộc chiến vũ khí tự điều khiển. Cuộc chạy đua này không những là một ý tưởng tồi tệ mà còn đẩy nhân loại đến một mối đe dọa to lớn. Được công khai tại Hội nghị hợp tác quốc tế về AI do Viện Tương lai của sự sống tổ chức tại Buenos Aires, bức thư cảnh báo về mối đe dọa cao độ từ các hệ thống robot hiện đại.
Trong số những người ký vào lá thư trên có nhà lý thuyết vật lý học Stephen Hawking, nhà sáng lập Hãng SpaceX Elon Musk, nhà ngôn ngữ học và triết gia Noam Chomsky, đồng sáng lập Apple Steve Wozniak... Những bộ óc ưu việt nhất hiện nay cho rằng trong 20 năm qua, chúng ta đã quá bận tâm đến việc thúc đẩy việc phát triển AI tự điều khiển theo hướng được trang bị năng lực quyết định. Không như vũ khí hạt nhân, vũ khí AI không quá tốn kém hoặc cần phải được lắp ráp bằng các nguyên liệu thuộc dạng hiếm, do vậy chúng sẽ tồn tại khắp nơi và được liệt vào dạng rẻ tiền để mọi cường quốc quân sự có thể sản xuất hàng loạt. Chuyện những vũ khí nguy hiểm như vậy bị tuồn ra thị trường chợ đen hoặc lọt vào tay bọn khủng bố chỉ là chuyện sớm muộn, theo cảnh báo trong lá thư.
Trong khi AI có thể hứa hẹn mang lại lợi ích thực sự cho con người theo nhiều cách, công nghệ này cần phải được quản lý chặt chẽ, và có lẽ nên cấm sử dụng ở một số lĩnh vực nào đó. Các chuyên gia khoa học và người nổi tiếng trong mảng công nghệ còn nhấn mạnh rằng các hệ thống vũ khí tự điều khiển, hay nói đơn giản hơn là robot sát thủ, có thể bắn vào mục tiêu mà không cần sự can thiệp của con người. Và nếu phát triển theo hướng này, chúng không khác gì những dòng vũ khí hủy diệt hàng loạt. Được biết, LHQ hồi đầu năm đã có phiên tranh luận về khả năng cấm sử dụng robot sát thủ trên phạm vi toàn cầu.
Stuart Russell, Giáo sư khoa học máy tính tại Đại học California ở Berkeley và là một trong những người ký vào bức thư, đã công bố một báo cáo trên chuyên san uy tín Nature với nội dung cảnh báo 2 chương trình thuộc Cơ quan Các dự án nghiên cứu quốc phòng hiện đại (DARPA) của Mỹ. Cụ thể là dự án Tự lái trọng lượng nhẹ tốc độ nhanh (FLA) và Các hoạt động hợp tác trong môi trường thù địch (CODE). Theo chuyên gia Russell, 2 dự án này có thể là điềm báo trước cho việc sử dụng có kế hoạch các robot sát thủ, vi phạm Hiệp ước Geneva. “Dự án FLA sẽ lập trình các máy bay lên thẳng kích thước nhỏ và di chuyển không cần hỗ trợ ở tốc độ cao trong khu vực dân cư thành thị và bên trong các tòa nhà. CODE nhằm mục tiêu phát triển các đội thiết bị bay tự lái với nhiệm vụ triển khai mọi khâu của một sứ mệnh không kích, bao gồm tìm, phát hiện, theo dõi, khoanh vùng mục tiêu, giao chiến, đánh giá, trong các trường hợp tín hiệu phá sóng của phe địch gây cản trở cho việc liên lạc với chỉ huy là con người”, theo Giáo sư Russell.
Hồi đầu tháng, ông Elon Musk thông qua Viện Tương lai của sự sống đã trao khoảng 7 triệu USD cho 37 dự án nghiên cứu trên toàn cầu nhằm rút ra kết luận về cơ hội mà AI mang lại, cũng như những mối nguy hiểm từ các cỗ máy có thể tiêu diệt con người.
Top

Bạn không thể gửi bình luận liên tục. Xin hãy đợi
60 giây nữa.