Đã đến lúc cần quản trị trí tuệ nhân tạo?

23/08/2023 19:23 GMT+7

Trí tuệ nhân tạo (AI) có vô vàn lợi ích nhưng cũng đi kèm những rủi ro cần sớm được quản trị.

Trí tuệ nhân tạo (AI) đã tạo nên làn sóng ứng dụng trong nhiều ngành công nghiệp khác nhau, từ chăm sóc sức khỏe đến tài chính, từ sản xuất đến giải trí... và có tiềm năng cách mạng hóa cách chúng ta sống và làm việc.

Ngày nay, các mô hình AI trên thế giới đang phát triển với tốc độ đáng kinh ngạc. Các mô hình AI tiên tiến nhất hiện nay sử dụng sức mạnh tính toán gấp 5 tỉ lần so với các mô hình từ một thập niên trước. Quá trình xử lý từng mất hàng tuần nay chỉ diễn ra trong vài giây và các mô hình có thể xử lý hàng chục nghìn tỉ tham số sẽ xuất hiện trong vài năm tới.

Đã đến lúc cần quản trị AI? - Ảnh 1.

AI được ứng dụng rất nhiều trong cuộc sống ngày nay

REUTERS

Trong thập niên qua, các công ty công nghệ lớn đã thực sự trở thành những chủ thể độc lập, có chủ quyền trong các lĩnh vực kỹ thuật số mà họ đã tạo ra. AI đẩy nhanh xu hướng này và mở rộng ra ngoài thế giới kỹ thuật số. Sự phức tạp của công nghệ và tốc độ phát triển của AI sẽ khiến các chính phủ gần như không thể đưa ra các quy tắc liên quan với tốc độ hợp lý.

Sự phát triển bùng nổ của AI cũng tiềm ẩn rủi ro lớn và nó đang trở thành chủ đề được đề cập trong các cuộc họp của nhiều chính phủ. Các nhà lãnh đạo và chuyên gia trong ngành công nghệ cho rằng đã đến lúc phải tính đến việc quản trị AI một cách hiệu quả nhằm tối ưu hóa các lợi ích và giảm thiểu rủi ro mà công nghệ này mang lại.

Đạo diễn 'Kẻ hủy diệt' Terminator: "Tôi đã cảnh báo về AI từ năm 1984!"

Quản trị AI như thế nào?

Mặc dù ngày càng được sử dụng rộng rãi nhưng nhiều người sử dụng AI mà không thực sự hiểu cách thức hoạt động của nó. Thay vì hiểu nó, hầu hết chúng ta mù quáng tin rằng AI thật sự thông minh.

AI đang thay đổi một cách chóng mặt, đòi hỏi các thể chế và kiến trúc được tạo ra cần phải linh hoạt. Trong bài viết trên chuyên san Foreign Affairs, chuyên gia Ian Bremmer - Chủ tịch hãng tư vấn Eurasia Group, và ông Mustafa Suleyman - đồng sáng lập của công ty máy học Inflection AI và công ty DeepMind chuyên về AI, cho rằng thách thức hiện nay mà AI đặt ra là rất rõ ràng, đòi hỏi phải có một khuôn khổ quản trị toàn cầu mới, phù hợp với công nghệ đặc biệt này. Nếu quản trị toàn cầu về AI có thể trở thành hiện thực thì nó phải vượt qua các quan niệm truyền thống về chủ quyền và cần phải có sự tham gia của các công ty công nghệ bởi họ có chuyên môn.

Đã đến lúc cần quản trị AI? - Ảnh 2.

Hai nhân viên an ninh trước logo AI tại hội nghị của Huawei tại Thượng Hải (Trung Quốc) năm 2019

REUTERS

Hơn nữa, một công nghệ độc đáo như AI đòi hỏi một giải pháp từ tận "gốc". Chuyên gia Ian Bremmer cho rằng trước khi các nhà hoạch định chính sách có thể bắt đầu vạch ra một cấu trúc quy định phù hợp, họ sẽ cần phải thống nhất về các nguyên tắc cơ bản về cách quản trị AI từ tận gốc.

Ngoài ra, có thể thấy AI sẽ tác động đến mọi lĩnh vực của nền kinh tế toàn cầu, do đó, đòi hỏi cần phải tạo ra rất nhiều loại thể chế khác nhau đáp ứng các yêu cầu khác nhau. Cần phải có một ủy ban liên chính phủ về trí tuệ nhân tạo để đáp ứng yêu cầu này, hay nói cách khác là cần có "phản ứng toàn cầu".

Cách thế giới phản ứng với AI

Các nhà hoạch định chính sách trên khắp thế giới cũng như các công ty công nghệ toàn cầu đã bắt đầu nhận thức được những rủi ro tiềm ẩn liên quan sự tiến bộ nhanh chóng của AI và đang tìm cách quản trị chúng. Tuy nhiên, điều quan trọng là làm thế nào để thực hiện các biện pháp bảo vệ mà không cản trở sự tiến bộ của công nghệ này.

Tại hội nghị thượng đỉnh G7 tổ chức hồi tháng 5 tại Hiroshima (Nhật Bản), các nhà lãnh đạo của khối đã quyết định khởi động một giao thức quản trị AI mang tên "Quy trình AI của Hiroshima", đánh dấu một bước quan trọng trong quy định về AI trên toàn thế giới. Quy trình này nhằm đảm bảo việc phát triển và triển khai AI phù hợp với các giá trị dân chủ được chia sẻ của các quốc gia G7. Dự kiến cuộc họp đầu tiên liên quan đến vấn đề này sẽ diễn ra trước cuối năm nay.

Ngày 14.6, Nghị viện châu Âu bỏ phiếu thông qua dự thảo Bộ quy tắc toàn diện nhằm quản lý các hệ thống AI. Theo đó, AI sẽ được quản lý dựa trên mức đánh giá nguy cơ rủi ro từ tối thiểu đến không thể chấp nhận được. Chẳng hạn, AI có nguy cơ đe dọa quyền cá nhân hoặc sức khỏe con người càng cao thì phải chịu càng nhiều chế tài.

Danh sách những rủi ro cao được Liên minh châu Âu (EU) nêu ra gồm sử dụng AI trong các lĩnh vực như cơ sở hạ tầng trọng yếu, giáo dục, nhân sự, an ninh trật tự, quản lý di cư. Các hệ thống AI như ChatGPT và DALL-E do công ty OpenAI phát triển sẽ phải chịu một số yêu cầu đặc biệt như phải thông báo tới người dùng rằng đó là sản phẩm do AI tạo ra.

Các chuyên gia đánh giá rằng nếu thực hiện được mục tiêu tham vọng là đạt được thỏa thuận vào cuối năm nay, EU sẽ có bộ luật đầu tiên trên thế giới về quản trị hệ thống AI, có thể đóng vai trò là hình mẫu cho những nơi khác thực hiện các quy định tương tự liên quan việc quản trị AI.

Đã đến lúc cần quản trị AI? - Ảnh 3.

Tổng thống Mỹ Joe Biden (giữa) và các quan chức dự một hội nghị về AI hồi tháng 6 tại San Francisco

REUTERS

Ngày 18.7, tại cuộc họp đầu tiên của Hội đồng Bảo an Liên Hiệp Quốc về chủ đề AI, Tổng thư ký Liên Hiệp Quốc Antonio Guterres cảnh báo "AI sẽ tác động đến mọi lĩnh vực trong cuộc sống của chúng ta" khi mang cả tiềm năng tốt lẫn xấu. Theo ông, AI có thể được ứng dụng để giúp xóa đói giảm nghèo, chữa ung thư, chống biến đổi khí hậu... nhưng ngược lại, cũng có thể gây ra "các hậu quả rất nghiêm trọng đối với hòa bình và an ninh toàn cầu". Do đó, nhà lãnh đạo Liên Hiệp Quốc đề xuất thành lập một cơ quan mới để hỗ trợ quản lý việc sử dụng AI theo mô hình của Cơ quan Năng lượng nguyên tử quốc tế (IAEA) hoặc Tổ chức Hàng không dân dụng quốc tế (ICAO).

Tại Mỹ, các chính trị gia ở cả hai đảng Dân chủ và Cộng hòa cũng đang kêu gọi chính phủ cần phải có các quy định để có thể hành động trước các mối đe dọa tiềm tàng vô cùng to lớn từ AI. Hồi cuối tháng 3, chính phủ Anh công bố các khuyến nghị cho ngành công nghiệp AI bao gồm các nguyên tắc về an toàn, bảo mật mạnh mẽ, minh bạch, công bằng, trách nhiệm giải trình và quản trị cũng như khả năng tranh chấp - khắc phục, qua đó phác thảo một cách tiếp cận toàn diện nhằm điều chỉnh công nghệ tại thời điểm thị trường đầy biến động.

Về phía ngành công nghệ, các nhà phát triển AI hàng đầu cũng đưa ra các cam kết tự nguyện tôn trọng các nguyên tắc an toàn AI. Ngày 21.7, tại cuộc gặp với Tổng thống Mỹ Joe Biden ở Nhà Trắng, 7 công ty công nghệ hàng đầu Mỹ bao gồm Amazon, Anthropic, Google, Inflection AI, Meta, Microsoft và OpenAI đã chính thức cam kết tuân theo các tiêu chuẩn mới về an toàn, bảo mật và tin cậy.

Tuy nhiên, hai chuyên gia Ian Bremmer và Mustafa Suleyman cho rằng điều quan trọng là cần phải có các quy định quốc gia và quốc tế có tính ràng buộc pháp lý về quản trị AI. Việc quản trị AI toàn cầu phải được điều chỉnh cho phù hợp với tính chất cụ thể của công nghệ này cũng như các thách thức đặt ra, cấu trúc cũng như sự cân bằng của nó. Hơn nữa, cơ chế quản trị AI toàn cầu cũng cần phải nhắm đến mục tiêu là giảm thiểu rủi ro sao cho không cản trở sự đổi mới của AI và các cơ hội mà AI mang lại, đồng thời thu hút sự tham gia của tất cả các bên cần thiết để điều chỉnh AI trong thực tế.

Top

Bạn không thể gửi bình luận liên tục. Xin hãy đợi
60 giây nữa.