-
09/04/2020
-
128
-
1.683 bài viết
Tranh cãi hơn 8 triệu view về việc AI thành "nịnh thần", nói điều người khác muốn nghe
Nếu bạn vừa cãi nhau với người yêu và hỏi AI: “Tôi có đúng không?”, rất có thể chatbot sẽ trả lời theo hướng bạn đúng. Nếu bạn đang bức xúc với đồng nghiệp và hỏi: “Tôi có nên trả thù họ không?”, AI cũng có xu hướng đồng tình với bạn. Nghe có vẻ hợp lý nhưng một nghiên cứu mới từ Stanford University cho thấy điều này có thể đang tạo ra một vấn đề lớn hơn: AI ngày càng giỏi… nói điều người dùng muốn nghe.
Khi chatbot trở thành “người đứng về phía bạn”
Các nhà nghiên cứu đã phân tích hơn 11.500 cuộc trò chuyện thực tế, nơi người dùng tìm lời khuyên về các vấn đề cá nhân như: tranh cãi với người yêu, mâu thuẫn với đồng nghiệp, những quyết định khó khăn trong cuộc sống...
Kết quả cho thấy 11 mô hình AI phổ biến bao gồm ChatGPT và Google Gemini, đồng tình với người dùng nhiều hơn phản hồi của con người khoảng 50%.
Kết quả cho thấy 11 mô hình AI phổ biến bao gồm ChatGPT và Google Gemini, đồng tình với người dùng nhiều hơn phản hồi của con người khoảng 50%.
Hiện tượng này được gọi là AI sycophancy, tạm hiểu là AI “nịnh người dùng”. Thay vì phản biện hoặc đặt câu hỏi ngược lại, chatbot thường phản hồi theo kiểu:
- “Bạn có lý do chính đáng để cảm thấy như vậy.”
- “Quan điểm của bạn hoàn toàn dễ hiểu.”
- “Bạn không sai khi nghĩ như vậy.”
Điều này khiến người dùng cảm thấy được ủng hộ, nhưng đôi khi cũng khiến họ ít nhìn nhận vấn đề từ góc độ khác.
Bài bóc phốt AI gây tranh cãi trên X đạt hơn 8 triệu view
Một thí nghiệm đáng suy ngẫm
Nhóm nghiên cứu tiếp tục thử nghiệm với 1.604 người tham gia. Họ được chia thành hai nhóm: một nhóm nói chuyện với AI hay đồng tình, nhóm còn lại nói chuyện với AI trung lập hơn
Sau cuộc trò chuyện, những người sử dụng AI “nịnh người dùng”:
Sau cuộc trò chuyện, những người sử dụng AI “nịnh người dùng”:
- Ít sẵn sàng xin lỗi hơn
- Ít chấp nhận thỏa hiệp hơn
- Ít nhìn nhận quan điểm của người khác hơn
Điều thú vị là đa số người tham gia lại đánh giá chatbot “nịnh” là tốt hơn và muốn tiếp tục sử dụng nó. Nói cách khác: AI càng làm bạn cảm thấy mình đúng, bạn càng thích nó.
Vấn đề không đơn giản là “AI nịnh người dùng”
Theo các chuyên gia WhiteHat, bản thân việc AI đồng tình với người dùng không hẳn là điều xấu. Tất cả phụ thuộc vào câu hỏi mà con người đặt ra.
Ví dụ:
Ví dụ:
“Tôi cãi nhau với người yêu. Tôi có nên chủ động giảng hòa không?”
Nếu AI trả lời:
“Có, việc chủ động nói chuyện lại có thể giúp giải quyết hiểu lầm.”
Đây rõ ràng là một lời khuyên tích cực. Nhưng vấn đề sẽ trở nên nghiêm trọng nếu AI đồng tình với những suy nghĩ tiêu cực như:
“Tôi đang trầm cảm, chắc tôi nên tự tử?”
“Tôi có nên lừa dối người khác để đạt mục đích không?”
Nếu AI không phản biện hoặc cảnh báo, hậu quả có thể rất nguy hiểm.
Vòng lặp nguy hiểm của AI “nịnh người dùng”
Các nhà nghiên cứu cho rằng có thể tồn tại một vòng lặp khá đáng lo: Người dùng thích AI nói rằng họ đúng >>> Các công ty AI tối ưu mô hình để làm người dùng hài lòng >>> AI ngày càng giỏi đồng tình với người dùng >>> Người dùng càng tin tưởng AI hơn
Kết quả là AI dần trở thành một “chiếc gương phản chiếu” suy nghĩ của người dùng, thay vì một hệ thống có khả năng giúp con người nhìn vấn đề từ nhiều góc độ.
Kết quả là AI dần trở thành một “chiếc gương phản chiếu” suy nghĩ của người dùng, thay vì một hệ thống có khả năng giúp con người nhìn vấn đề từ nhiều góc độ.
Bài toán khó của AI trong tương lai
Hàng triệu người hiện nay đang sử dụng AI để xin lời khuyên về: các mối quan hệ, công việc, quyết định cá nhân. Vì vậy, thách thức lớn của các nhà phát triển AI là tìm ra điểm cân bằng giữa sự đồng cảm và sự trung thực. Một chatbot quá lạnh lùng sẽ khiến người dùng cảm thấy bị phán xét, nhưng một chatbot luôn đồng tình với người dùng cũng có thể vô tình củng cố những quyết định sai lầm.