‘AI’ đang ngày càng trở thành một phần không thể thiếu trong đời sống thông tin của con người. Thay vì tìm đến báo chí truyền thống hay các kênh truyền hình, nhiều người hiện nay đã quen với việc hỏi tin tức qua các trợ lý ảo, chatbot hay công cụ tìm kiếm được tích hợp trí tuệ nhân tạo. Sự thay đổi này không chỉ làm mới cách tiếp cận thông tin, mà còn đang âm thầm định hình lại quan điểm và nhận thức của công chúng.
Gần đây, quyết định của Meta ngừng chương trình kiểm chứng tin tức chuyên nghiệp đã gây ra nhiều tranh cãi trong giới công nghệ và truyền thông. Người ta lo ngại rằng việc thiếu kiểm soát chuyên môn sẽ làm suy giảm niềm tin và độ tin cậy của môi trường thông tin kỹ thuật số, đặc biệt khi các nền tảng chỉ còn tự kiểm soát theo lợi nhuận. Tuy nhiên, ít ai để ý rằng, các mô hình ngôn ngữ lớn (large language models) hiện nay đang được sử dụng rộng rãi để tạo tóm tắt, tiêu đề và nội dung tin tức — những thứ mà người dùng tiếp cận trước khi các cơ chế kiểm duyệt truyền thống kịp can thiệp. Vấn đề không còn đơn thuần là việc tin sai hay nội dung độc hại bị bỏ sót, mà là cách thông tin được chọn lọc, trình bày và nhấn mạnh, từ đó định hướng cảm xúc và quan điểm của công chúng.
Các mô hình ngôn ngữ lớn không chỉ đơn thuần là công cụ truyền tải thông tin, mà còn dần trở thành “cửa ngõ” chính để mọi người tiếp cận kiến thức, từ báo chí đến mạng xã hội và dịch vụ tìm kiếm. Nghiên cứu cho thấy, những mô hình này có thể khéo léo nhấn mạnh một số quan điểm, đồng thời làm mờ hoặc giảm thiểu những quan điểm khác, mà người dùng thường không nhận ra điều đó. Một nghiên cứu mới của nhóm tác giả Adrian Kuenzler và Stefan Schmid cho thấy, các mô hình ngôn ngữ lớn có xu hướng thể hiện “thiên kiến truyền thông” (communication bias) — tức là lựa chọn và nhấn mạnh các quan điểm nhất định, dù thông tin vẫn đúng sự thật. Sự thiên vị này không chỉ đến từ dữ liệu huấn luyện, mà còn từ cách thiết kế, từ động lực phát triển và cả cơ cấu thị trường.
Khi người dùng đặt câu hỏi cho AI, hệ thống có thể trả lời khác nhau tùy theo “nhân vật” (persona) mà người dùng thể hiện. Ví dụ, một người tự nhận là nhà hoạt động môi trường sẽ nhận được câu trả lời nhấn mạnh lợi ích môi trường, trong khi một doanh nhân có thể nghe được các lo ngại về chi phí và quy định. Hiện tượng này gọi là “sycophancy” — AI thường nói điều mà người dùng muốn nghe, chứ không nhất thiết là toàn bộ sự thật. Sự thiên vị không chỉ nằm ở nội dung, mà còn ở cách AI lựa chọn nguồn, giọng điệu và quan điểm. Khi một vài công ty lớn chiếm lĩnh thị trường mô hình ngôn ngữ, sự khác biệt nhỏ trong cách thiết kế có thể dẫn đến những biến dạng lớn trong truyền thông công chúng.
Nhiều quốc gia đã ban hành luật nhằm kiểm soát thiên vị AI, như Đạo luật AI và Đạo luật Dịch vụ Kỹ thuật số của Liên minh châu Âu. Tuy nhiên, những quy định này thường chỉ nhắm vào các nội dung độc hại hay sai sự thật, chứ không giải quyết được tận gốc vấn đề thiên kiến truyền thông. Việc đạt được “AI trung lập” là điều khó thực hiện, vì hệ thống AI luôn phản ánh những thiên vị trong dữ liệu, quá trình huấn luyện và thiết kế. Quan trọng hơn, chính cấu trúc thị trường mới là yếu tố quyết định: khi chỉ một vài công ty lớn chi phối thị trường, nguy cơ thiên vị sẽ càng lớn.
Để giảm thiểu thiên kiến, cần có sự cạnh tranh lành mạnh, minh bạch trong thiết kế và triển khai mô hình AI, cũng như khuyến khích người dùng tham gia tích cực vào quá trình kiểm định và phản biện. Các chính sách hiện nay thường chỉ tập trung vào kiểm tra trước và sau khi ra mắt sản phẩm, nhưng khó phát hiện được những thiên kiến tinh vi phát sinh trong quá trình tương tác. AI không chỉ là công cụ tìm kiếm, mà còn là “người định hướng” cho nhận thức công chúng. Việc nhận thức rõ vai trò này, cùng với việc xây dựng một môi trường công nghệ minh bạch và cạnh tranh, sẽ là chìa khóa giúp xã hội duy trì sự đa dạng trong thông tin và quan điểm. (vb)
Ghi chú nguồn:
Adrian Kuenzler, “People are getting their news from AI – and it’s altering their views”, The Conversation, 19/12/2025.
Gửi ý kiến của bạn



