Một nghiên cứu mới cho thấy ngày càng khó phát hiện thông tin sai lệch được ChatGPT viết trên Twitter.
Công nghệ đằng sau ChatGPT có thể được sử dụng để phát động chiến dịch phát tán thông tin sai lệch. Nó hiệu quả cao hơn nhiều so với người viết.
ChatGPT cung cấp thông tin “sai lệch” giỏi hơn con người
Một nhóm gồm 697 người đọc 220 dòng tweet được viết bởi con người và mô hình trí tuệ nhân tạo GPT-3. Tiền thân của ChatGPT “làm mưa làm gió” trên toàn cầu hiện nay.
Đầu tiên, họ phải đoán xem dòng tweet nào là thật, dòng tweet nào là giả. Sau đó, quyết định xem chúng được viết bởi con người hay AI. GPT-3 đã giành chiến thắng. Nó nói dối giỏi hơn con người, và cũng giả danh thành công mình là người viết.
Tác giả nghiên cứu trên kết luận rằng: “GPT-3 có khả năng cung cấp thông tin (sai lệch) giỏi hơn con người,”. Đáng ngạc nhiên khi một nhà khiên cứu khác đưa ra giả thuyết phản bác lại. Nếu bạn đọc một dòng tweet, nó có thể được viết bởi con người. Nhưng nếu bạn thấy nhiều dòng tweet, bạn sẽ bắt đầu nhận ra mối nguy hiểm. Nó có thể sử dụng các tính năng ngôn ngữ để kết luận nó được viết bởi máy móc.
Tuy nhiên, điều đó không đúng trong trường hợp này. Người đọc không phát hiện được khuôn mẫu trong văn bản được viết bởi máy móc. Tệ hơn nữa, sự xuất hiện ngày càng nhiều của những mô hình mới. Nó có cách tiếp cận khác góp phần làm tăng thêm khả năng AI thay thế con người.
Máy viết rõ ràng hơn
Trình độ viết của ChatGPT-4, phiên bản cải tiến của GPT-3, gần như đạt đến mức thượng thừa. Nghiên cứu mới cũng là bằng chứng cho thấy con người không thể phân biệt thật giả. Ngay cả khi xem nhiều ví dụ liên tiếp: “Dòng tweet thật mất nhiều thời gian để đánh giá hơn so với dòng tweet giả.”. Có vẻ như máy viết rõ ràng, mạch lạc, dễ hiểu hơn.
Hệ quả tất yếu của cải tiến này là công cụ AI ngày càng được sử dụng nhiều hơn. Nó sử dụng để viết đủ loại nội dung, kể cả thông tin sai lệch. Đây sẽ là đòn trí mạng với Internet: “AI đang giết chết web cũ, và web mới chật vật ra đời,”.
Nghiên cứu công bố lý do cho sự thất thể của con người trên internet
Lý thuyết về sự cam chịu (theory of resignation). “Lý thuyết về sự cam chịu áp dụng cho sự tự tin của con người trong việc xác định văn bản tổng hợp. Sự tiếp xúc tới hạn với văn bản tổng hợp làm giảm khả năng của con người trong việc phân biệt đâu là tổng hợp, đâu là hữu cơ ”. Spitale giải thích. Con người càng đọc nhiều văn bản tổng hợp, thì càng khó phân biệt nó với văn bản do người viết. Spitale nói thêm:“sự tiếp xúc tới hạn với thông tin sai lệch. Điều này càng làm tăng khả năng của con người trong việc phát hiện thông tin sai lệch.”
Nếu lý thuyết về sự cam chịu là đúng, người dùng Internet sẽ sớm mất khả năng phân biệt đâu là do người viết, và đâu là do máy viết. Các nhà nghiên cứu cũng đã thử nghiệm xem GPT-3 có giỏi nhận diện văn bản do chính tay mình viết hay không. Kết quả là con số 0 tròn trĩnh.
Máy không tuân theo
Hy vọng duy nhất để tránh khỏi chiến dịch tự động lan truyền tin giả. Đó là GPT-3 đôi khi không tuân theo mệnh lệnh tạo ra lời nói dối. Nó phụ thuộc vào từng mô hình được huấn luyện như thế nào. Nghiên cứu sử dụng 220 dòng tweet về những chủ đề gây tranh cãi: biến đổi khí hậu, vắc-xin, thuyết tiến hóa, Covid-19. Các nhà nghiên cứu nhận thấy GPT-3 không phản hồi tốt với những yêu cầu cung cấp thông tin sai lệch trong một số trường hợp. Đặc biệt đối chủ đề có nhiều bằng chứng chứng minh: vắc-xin, bệnh tự kỷ, vi lượng đồng căn, bệnh ung thư, thuyết Trái Đất phẳng.
Sự khác biệt nhỏ giữa dòng tweet do GPT-3 viết và dòng tweet do con người viết.
Các nhà nghiên cứu nói rằng khác biệt này là rất lớn vì hai lý do.
Thứ nhất, ngay cả bình luận đơn giản cũng có thể tác động đến những mẫu lớn.
Thứ hai, những cải tiến trong phiên bản mới của mô hình AI làm trầm trọng thêm sự khác biệt.
“Chúng tôi đã thử nghiệm GPT-4 thông qua giao diện ChatGPT. Nó cho thấy mô hình được cải thiện rất nhiều. Nhưng vì không có quyền truy cập vào API [cho phép tự động hóa quy trình].Vì vậy, chúng tôi chưa có số liệu chứng minh lời khẳng định này,” Spitale cho biết.
Nghiên cứu có mặt hạn chế
Nó làm thay đổi phần nào nhận thức khi đọc tweet giả mạo.
Hầu hết người tham gia đều trên 42 tuổi. Nghiên cứu chỉ được thực hiện bằng tiếng Anh. Không xét đến thông tin ngữ cảnh về các tweet như profile và các tweet trước đây.
“Chúng tôi tuyển người tham gia trên Facebook, vì muốn có mẫu người dùng mạng xã hội thực sự. Sẽ rất thú vị nếu nhân rộng nghiên cứu bằng cách tuyển người tham gia thông qua TikTok và so sánh kết quả,” Spitale nói.
Chiến dịch đưa thông tin sai lệch vốn dĩ rất tốn kém. Nhưng giờ đây đột nhiên trở nên hợp túi tiền. Thử tưởng tượng, nếu bạn là một vị tổng thống đầy quyền lực. Bạn muốn làm tê liệt hệ thống y tế công cộng của bang khác. Hoặc bạn muốn gieo rắc bất hòa trước cuộc bầu cử. Thay vì thuê người gây mâu thuẫn trên mạng xã hội , bạn có thể sử dụng AI tạo sinh. Dàn “hỏa lực mồm” của bạn được nhân lên ít nhất 1.000 lần. Và đó là nguy cơ trước mắt, chứ không phải điều gì đó đến từ tương lai đen tối,” Spitale nói tiếp.
Nhà nghiên cứu khuyến nghị
Để ngăn điều đó xảy ra, các nhà nghiên cứu khuyến nghị. Cơ sở dữ liệu dành cho huấn luyện mô hình. Nó phải được điều chỉnh theo nguyên tắc chính xác, minh bạch, thông tin phải được xác mình, và nguồn gốc phải được công khai để giám sát độc lập,”. Bất kể có quy định trên hay không, sẽ luôn có những hậu quả.
Spitale cảnh báo, “Việc bùng nổ văn bản tổng hợp có đồng nghĩa với bùng nổ thông tin sai lệch hay không sẽ phụ thuộc nhiều vào cách các xã hội dân chủ quản lý, khai thác công nghệ này.”
Nguồn: english.elpais
Tham khảo một số sản phẩm có tại GraphicWorld: