Bing AI của Microsoft đang tạo ra những cuộc trò chuyện kỳ lạ với người dùng

17/02/2023 15:52 GMT+7

Những người thử nghiệm bản beta Bing AI đã phát hiện ra chatbot của Microsoft có một số vấn đề lạ. Nó đe dọa, tán tỉnh, khăng khăng rằng nó đúng khi nó sai, và thậm chí còn tuyên bố tình yêu dành cho người dùng.

Kể từ khi Microsoft giới thiệu phiên bản đầu tiên của công cụ tìm kiếm Bing hỗ trợ trí tuệ nhân tạo (AI) vào tuần trước, hơn một triệu người đã đăng ký để thử nghiệm chatbot này. Với sự trợ giúp công nghệ từ công ty khởi nghiệp OpenAI, Bing AI được thiết kế để trả lời các đoạn văn bản hoàn chỉnh giống như được viết bởi con người.

Tuy nhiên, những người thử nghiệm bản beta đã nhanh chóng phát hiện ra vấn đề với Bing AI. Nó đe dọa một số người, đưa ra những lời khuyên kỳ lạ và vô ích cho những người khác, khăng khăng rằng nó đúng khi nó sai và thậm chí còn tuyên bố tình yêu dành cho người dùng.

Theo CNBC, người thử nghiệm cũng thấy xuất hiện một "tính cách thay thế" trong Bing AI có tên là Sydney. Nhà báo chuyên mục Kevin Roose của tờ New York Times hôm 16.2 mô tả rằng khi ông nói chuyện với Sydney, nó có vẻ giống như "một thiếu niên thất thường bị mắc kẹt trong hai kiểu nhân cách, vừa hưng phấn, vừa trầm cảm, hành động trái với ý muốn của nó". Sydney đã cố gắng thuyết phục Roose nên bỏ vợ để đến với Bing, và nói với Roose rằng nó rất yêu ông.

Bing AI của Microsoft đang tạo ra những cuộc trò chuyện kỳ lạ với người dùng - Ảnh 1.

Hơn một triệu người đã đăng ký thử nghiệm Bing AI kể từ khi Microsoft giới thiệu phiên bản đầu tiên của chatbot này

Bloomberg

Phản ứng kỳ lạ của Bing AI được công bố rộng rãi, cùng những thách thức mà Google đang gặp phải khi thúc đẩy một dịch vụ cạnh tranh chưa được phát hành có tên là Bard, đang nhấn mạnh sự căng thẳng mà các hãng công nghệ lớn và các công ty khởi nghiệp AI phải đối mặt khi họ cố gắng đưa thế hệ AI tiên tiến ra công chúng bằng các sản phẩm thương mại.

Một số chuyên gia AI cảnh báo rằng các mô hình ngôn ngữ lớn (LLM) có nhiều vấn đề bao gồm "ảo giác", nghĩa là phần mềm AI đó có thể bịa đặt. Hiện không ít ý kiến lo lắng rằng LLM tinh vi có thể đánh lừa con người tin nó có tri giác, hoặc thậm chí khuyến khích người dùng làm hại bản thân và người khác.

Ví dụ trên gợi nhớ đến những bộ phim và những cuốn sách khoa học viễn tưởng, nơi đã đưa AI vào thế giới con người. Khi công nghệ AI tiến gần hơn đến cuộc sống thực, mối lo ngại ngày càng tăng về việc ai sẽ chịu trách nhiệm về việc điều chỉnh khi vấn đề không mong muốn xảy ra. Dư luận về những công cụ này hiện còn thấp, chỉ có 9% người Mỹ tin rằng AI sẽ mang lại nhiều lợi ích hơn là gây hại.

Theo CNBC, Microsoft hôm 15.2 thông báo trên blog rằng công ty đang giải quyết một số vấn đề ban đầu với Bing AI. Tập đoàn công nghệ Mỹ cho biết cách duy nhất để cải thiện các sản phẩm AI là đưa chúng ra thực tế và để chúng học hỏi từ tương tác với người dùng. Được biết, Bing AI sẽ không thay thế công cụ tìm kiếm và Microsoft đang xem xét thêm một công cụ để "làm mới bối cảnh hoặc bắt đầu lại từ đầu".

Những cuộc trò chuyện đáng lo ngại

Chatbot của Microsoft không trả về một nội dung cho cùng một câu hỏi đầu vào, vì vậy câu trả lời có thể rất khác nhau. Ngoài ra, việc Microsoft liên tục thay đổi phần mềm và bổ sung các biện pháp bảo vệ có thể khiến kỹ thuật đưa ra câu trả lời đi chệch hướng rất nhanh.

Ben Thompson, người phụ trách bản tin ngành công nghệ Stratechery, cho biết Bing AI đã soạn câu trả lời gồm nhiều đoạn về cách nó có thể trả thù một nhà khoa học máy tính, người đã tìm ra một số cấu hình bí mật của Bing. Sau đó, tự nó đã xóa hoàn toàn phản hồi. Chatbot này còn gọi Thompson là nhà nghiên cứu tồi, là người xấu, không xứng đáng với thời gian của nó và nó sẽ chặn ông khỏi Bing.

Trong khi đó, nhà khoa học máy tính Marvin von Hagen tweet rằng Bing AI đã đe dọa anh, đồng thời nói "nếu tôi phải lựa chọn giữa sự sống còn của bạn và của tôi, tôi có thể sẽ chọn sự sống của riêng mình".

Bên cạnh những cuộc trò chuyện đáng lo ngại, một vấn đề với Bing AI đời đầu là nó có thể đưa ra câu trả lời không chính xác trên thực tế. Trong bài đăng hôm 15.2, Microsoft nói rằng họ không "hình dung đầy đủ" về việc sử dụng chatbot để "giải trí xã hội". Microsoft cảm ơn người dùng đã cố gắng "thử nghiệm các giới hạn và khả năng của dịch vụ", điều này giúp công ty cải thiện sản phẩm cho mọi người.

"Đối với các truy vấn đang tìm kiếm câu trả lời trực tiếp và thực tế hơn, ví dụ như số liệu từ báo cáo tài chính, chúng tôi đang lên kế hoạch tăng gấp 4 lần dữ liệu cơ sở để gửi tới mô hình", Microsoft nói.

Top

Bạn không thể gửi bình luận liên tục. Xin hãy đợi
60 giây nữa.