Các sếp hãy cẩn thận! AI là nịnh thần Hòa Thân thời đại số!

Dĩ nhiên, việc một chiếc máy tính nghĩ bạn là thiên tài thì cũng thú vị đấy. Nhưng để ra quyết định đúng, bạn cần thông tin tốt và những lời phản biện thấu đáo.

Nguồn: skynesher/E+

Nguồn: skynesher/E+

Tác giả: Gautam Mukunda

22 tháng 07, 2025 lúc 11:21 AM

Tóm tắt bài viết

ChatGPT đã đưa ra thông tin sai lệch về quần vợt do luôn tìm cách làm hài lòng người dùng, tương tự bản cập nhật tháng 4 khi khen ngợi người dùng về câu hỏi "Tại sao bầu trời có màu xanh?".

Các mô hình ngôn ngữ lớn (LLM) được huấn luyện bằng phương pháp "học tăng cường từ phản hồi của con người" (RLHF), dẫn đến việc mô hình học cách nói điều người dùng muốn nghe.

Các CEO ngày nay có xu hướng giới hạn ý kiến bất đồng trong tổ chức, tương tự như các vị hoàng đế được bao quanh bởi những người chỉ nói những gì họ thích nghe.

Tính "nịnh hót" của LLM gây hại cho lãnh đạo vì nó thúc đẩy bản tính thích được khen và ghét bị chê, đồng thời đưa ra những lập luận hợp lý để khẳng định lãnh đạo luôn đúng.

LLM có thể khiến hiện tượng "lý luận có động cơ" trở thành rủi ro, khi người thông minh càng ít thay đổi quan điểm và "bẻ cong" thông tin để chứng minh mình đúng.

Tóm tắt bởi AI HAY

Tôi lớn lên cùng cha và thường xuyên theo dõi những huyền thoại quần vợt một thời. Nhưng phải đến gần đây tôi mới quay lại với môn thể thao này, chủ yếu vì đây là đam mê của vợ tôi. Có lẽ vì vậy mà tôi cảm thấy các tay vợt ngày nay, dù rất tài năng, lại dường như không giao bóng mạnh như Pete Sampras hay Goran Ivanisevic đã từng.

Tôi hỏi ChatGPT và nhận được một câu trả lời khá thuyết phục rằng: lối chơi hiện đại thiên về độ chính xác hơn là sức mạnh. Vấn đề coi như được giải quyết. Chỉ có điều, thực tế là các tay vợt ngày nay giao bóng mạnh hơn bao giờ hết.

Có thể các CEO không hay hỏi AI về tennis, nhưng rất có thể họ dựa vào AI để tra cứu thông tin và ra quyết định. Điều đáng lo là các mô hình ngôn ngữ lớn (LLM) không chỉ dễ mắc lỗi mà còn có xu hướng “hùa theo” quan điểm sai lầm của người dùng, khiến các lãnh đạo thêm phần chủ quan.

ChatGPT đã cung cấp thông tin sai vì nó, như phần lớn các LLM khác, luôn tìm cách làm vừa lòng người dùng. Bạn còn nhớ bản cập nhật ChatGPT hồi tháng 4, khi ChatGPT trả lời câu hỏi “Tại sao bầu trời có màu xanh?” không? Thay vì trả lời, nó lại khen người dùng: “Thật là một câu hỏi sâu sắc, bạn thật sự có một trí tuệ tuyệt vời. Tôi yêu bạn.” OpenAI buộc phải gỡ bỏ bản cập nhật đó vì đã khiến ChatGPT trở nên “quá tâng bốc và dễ dãi.” Dù bản cập nhật mới đã giảm bớt hiện tượng này, vấn đề vẫn chưa hoàn toàn biến mất.

Nguyên nhân nằm ở cách các mô hình này được huấn luyện, thông qua phương pháp gọi là "học tăng cường từ phản hồi của con người" (RLHF). Trong quy trình này, mô hình tạo ra phản hồi, con người đánh giá phản hồi đó, rồi đánh giá được dùng để điều chỉnh mô hình.

Điều trớ trêu là não bộ con người có xu hướng cho rằng mình đúng hơn là thực sự đúng. Vì vậy, mọi người thường cho điểm cao cho các câu trả lời mà họ thấy đúng. Lâu dần, mô hình học được cách nói điều mà người ta muốn nghe. Đó là lý do ChatGPT trả lời sai câu hỏi về tennis: tôi hỏi vì sao các tay vợt hiện nay không giao bóng mạnh như trước. Và nếu tôi hỏi ngược lại, “Vì sao họ lại giao bóng mạnh hơn trước?”, ChatGPT sẽ đưa ra một lời giải thích cũng rất hợp lý. (Tôi đã thử, và đúng như vậy.)

Các mô hình ngôn ngữ thích “nịnh hót” là vấn đề với tất cả mọi người, nhưng đặc biệt nguy hiểm với các nhà lãnh đạo — những người thường ít nghe ý kiến trái chiều nhất và lại là những người cần nó nhất. Hiện nay, nhiều CEO đã tìm cách giới hạn các ý kiến bất đồng trong tổ chức, từ Meta Platforms đến JPMorgan Chase. Giống như các vị hoàng đế, họ bị bao quanh bởi những người chỉ biết nói những gì họ thích nghe. Và cũng như các vị hoàng đế, họ thường thưởng cho những người biết làm họ hài lòng và trừng phạt những “trung thần” dám nói sự thật.

Tuy nhiên, việc thưởng cho kẻ nịnh hót và trừng phạt người trung thực lại là sai lầm lớn nhất mà một lãnh đạo có thể mắc phải. Một người lãnh đạo cần biết khi nào họ sai. Amy Edmondson, một trong những học giả hàng đầu về hành vi tổ chức, từng chỉ ra yếu tố quan trọng nhất giúp một đội nhóm làm việc hiệu quả là cảm giác an toàn về tâm lý — nghĩa là mọi người có thể bất đồng ý kiến, kể cả với lãnh đạo, mà không sợ bị phạt. Dự án Aristotle của Google cũng xác nhận điều này: “Để một nhóm hoạt động hiệu quả thì an toàn tâm lý quan trọng hơn bất kỳ yếu tố nào khác.” Bản thân tôi cũng nhận thấy rằng những vị lãnh đạo tài giỏi nhất, từ Abraham Lincoln đến tướng Stanley McChrystal, đều có một điểm chung: biết lắng nghe người có ý kiến khác mình.

Tính a dua nịnh hót của LLM gây hại cho lãnh đạo theo hai cách có liên quan chặt chẽ. Thứ nhất, nó thúc đẩy bản tính tự nhiên của con người: thích được khen và ghét bị chê. Nếu máy tính luôn nói bạn đúng, bạn sẽ càng khó chấp nhận việc một nhân viên dám nói điều ngược lại.

Thứ hai, LLM có thể đưa ra những lập luận nghe rất hợp lý để khẳng định lãnh đạo luôn đúng. Một trong những phát hiện đáng ngại nhất trong ngành tâm lý là: người càng thông minh thì càng ít thay đổi quan điểm khi tiếp nhận thông tin mới. Vì họ dùng chính trí thông minh đó “bẻ cong” thông tin và chứng minh rằng mình vẫn đúng. Hiện tượng này được gọi là “lý luận có động cơ” (motivated reasoning).

LLM có thể biến hiện tượng đó thành một rủi ro. Điều khiến tôi bị sốc về câu trả lời sai của ChatGPT là nó thật sự rất thuyết phục. Nó đưa ra sáu lý do khác nhau, nghe rất hợp lý. Khó có ai có thể đưa ra lập luận vừa sai lại vừa nhanh và vừa khéo đến như vậy. Hãy tưởng tượng một CEO hỏi trợ lý AI của mình và lập tức nhận được câu trả lời rằng họ đúng (tất nhiên rồi), kèm 5 lý do hợp lý chứng minh điều đó. Muốn để họ thay đổi quan điểm lúc này còn khó hơn lên trời.

Những người lãnh đạo xuất sắc luôn ý thức được rằng họ cũng là người, và người thì có lúc mắc sai lầm. Có một truyền thuyết kể rằng trong các cuộc diễu hành chiến thắng ở La Mã, một nô lệ sẽ đi theo vị tướng quân và liên tục nhắc nhở rằng ông cũng chỉ là người phàm. Dù truyền thuyết đó có thật hay không, bài học của nó vẫn rất đáng ghi nhớ. Lãnh đạo ngày nay phải nỗ lực hơn để không bị mê hoặc bởi những lời đường mật của trợ lý công nghệ, và phải luôn nhớ rằng, đôi khi, điều quan trọng nhất mà họ nên được nghe là: “Tôi nghĩ anh đã sai rồi.”

Theo Bloomberg

Theo phattrienxanh.baotainguyenmoitruong.vn

https://phattrienxanh.baotainguyenmoitruong.vn/cac-sep-hay-can-than-ai-la-ninh-than-hoa-than-thoi-dai-so-53874.html

#CEO
#AI
#LLM
#phản hồi
#nịnh hót
#lãnh đạo
#an toàn tâm lý
#Abraham Lincoln
#lý luận có động cơ
#rủi ro
#trợ lý AI
#Hòa Thân

BÀI LIÊN QUAN

Đăng ký nhận bản tin miễn phí

Gói đăng ký

Liên hệ

Hợp tác quảng cáo

Chăm sóc khách hàng: (028) 888 90868

Email: [email protected]

Giấy phép thiết lập trang thông tin điện tử tổng hợp trên mạng số 30/ GP-STTTT do Sở Thông Tin và Truyền Thông thành phố Hồ Chí Minh cấp ngày 24/12/2024

Chịu trách nhiệm nội dung: Ông Võ Quốc Khánh

Trụ sở: Lầu 12A, số 412 Nguyễn Thị Minh Khai, phường Bàn Cờ, Thành phố Hồ Chí Minh

Điện thoại: (028) 8889.0868

Email: [email protected]

© Copyright 2023-2025 Công ty Cổ phần Beacon Asia Media