Mối nguy hiểm của ChatGPT trong việc giả mạo dữ liệu y tế

14/03/2023 09:47 GMT+7

Trong một nghiên cứu mới, các nhà khoa học nói ChatGPT có thể giả mạo dữ liệu y tế một cách thuyết phục, dẫn đến nguy cơ bịa đặt liên quan đến các công trình nghiên cứu.

Theo TechTimes, bất chấp khả năng tích cực của ChatGPT mang lại sự thuật tiện cho mọi người, loại công nghệ này chắc chắn cũng có thể được sử dụng cho các mục đích xấu, tạo ra các bản nghiên cứu gian lận dễ dàng hơn. Báo cáo từ tạp chí Cosmos chỉ ra rằng, dữ liệu y tế bịa đặt do ChatGPT tạo ra đã thuyết phục được nhiều người, điều này khiến cộng đồng khoa học gặp nguy hiểm vì nó phụ thuộc vào rất nhiều dữ liệu. Ngoài ra, việc phát hiện bịa đặt là khó khăn.

Mối nguy hiểm của ChatGPT trong việc giả mạo dữ liệu y tế - Ảnh 1.

ChatGPT có thể tạo ra các báo cáo dữ liệu y tế giả mạo

CHỤP MÀN HÌNH

Các nhà nghiên cứu đã kiểm tra độ chính xác của các công cụ phát hiện trí tuệ nhân tạo (AI) trực tuyến miễn phí. ChatGPT đã được yêu cầu tạo bản tóm tắt cho một bài báo khoa học về tác dụng của hai loại thuốc khác nhau đối với bệnh viêm khớp dạng thấp từ dữ liệu năm 2012 - 2020. Kết quả, nó tạo ra một bản tóm tắt thuyết phục đưa ra những con số thực, với tuyên bố một loại thuốc hoạt động tốt hơn loại thuốc kia. Điều này có thể trở thành một lời khẳng định nguy hiểm đối với một chatbot. Các nhà nghiên cứu cho biết đó là mối nguy hiểm, bởi sẽ là vấn đề lớn hơn khi một người nào đó sử dụng dữ liệu không tồn tại do chatbot bịa đặt ra để phục vụ nghiên cứu của mình trước khi công bố ra bên ngoài.

Các nhà nghiên cứu cho biết: "Trong vòng một buổi chiều, người ta có thể thấy mình có hàng chục bản tóm tắt có thể gửi tới các hội nghị khác nhau để xuất bản. Một số người cũng có thể sử dụng công nghệ này để viết bản thảo với dữ liệu bịa đặt và kết quả sai lệch. Một khi những tác phẩm này được xuất bản, chúng sẽ nhanh chóng làm ô nhiễm nghiên cứu hợp pháp và ảnh hưởng đến các tác phẩm hợp pháp".

Bất chấp cảnh báo của các nhà nghiên cứu về sự nguy hiểm của nó, tạp chí Interesting Engineering cho biết điều này cũng có thể được sử dụng một cách tích cực. Họ cho rằng, AI sẽ hữu ích cho nghiên cứu, bao gồm kiểm tra ngữ pháp và kết luận các kết quả hợp pháp được tìm thấy trong nghiên cứu. Điều này sẽ làm giảm bớt thời gian và quy trình của nhà nghiên cứu khi tiến hành một nghiên cứu nào đó.

Khi trí tuệ nhân tạo xuất hiện trong các lĩnh vực khác nhau như sản xuất và kỹ thuật, AI cũng có thể hỗ trợ ngành chăm sóc sức khỏe bằng cách cung cấp kết quả nhanh hơn và tốt hơn, giám sát 24/7 và ngăn ngừa các lỗi do con người gây ra trong lĩnh vực y tế.

Để mọi người sử dụng ChatGPT một cách an toàn và chính xác, các nhà nghiên cứu đã kết luận rằng công nghệ này cần được thực hiện trong các thử nghiệm và cân nhắc trong tương lai để giúp phát hiện các dữ liệu gian lận do nó tạo ra. Hiện tại, Open AI đã và đang trong quá trình nắm bắt các thông tin và hy vọng sẽ hoàn thiện hơn công nghệ của mình trong tương lai.

Top

Bạn không thể gửi bình luận liên tục. Xin hãy đợi
60 giây nữa.