43.000 bằng chứng cho thấy AI đang âm thầm "đánh trượt" người dùng trong các cuộc phỏng vấn và vay vốn ngân hàng
Sự thật phũ phàng đằng sau những câu trả lời của ChatGPT và Gemini là gì?
Theo tờ Independent, các mô hình AI đang âm thầm định hình thế giới. Hiện nay, ngày càng nhiều lĩnh vực tích hợp chúng vào quy trình vận hành để đưa ra các quyết định hàng ngày như tuyển dụng, cấp khoản vay ngân hàng, thậm chí tư vấn y tế. Điều này khiến việc hiểu rõ cách AI đưa ra những quyết định quan trọng và khác với quyết định của con người thế nào càng trở nên cần thiết.
Nghiên cứu mới cho thấy các hệ thống AI không chỉ xử lý thông tin mà còn có xu hướng “đánh giá” người dùng một cách có hệ thống, giống như niềm tin giữa người với người vậy. Nhưng chúng cũng có những sự khác biệt to lớn so với con người chúng ta.
Các nhà nghiên cứu đã phân tích 43.000 quyết định mô phỏng do các mô hình AI đưa ra, cùng với khoảng 1.000 quyết định của con người.
Kết quả cho thấy những mô hình như ChatGPT của OpenAI và Gemini của Google không chỉ xử lý thông tin mà còn đưa ra các nhận định về con người, dường như hình thành một dạng “niềm tin” đối với người dùng.
Tuy nhiên, dạng “niềm tin” này có nhiều khác biệt đáng kể so với cách con người tin tưởng lẫn nhau.
Trong nghiên cứu, cả mô hình AI và người tham gia đều được giao những tình huống quen thuộc để ra quyết định, như cho một chủ doanh nghiệp nhỏ vay bao nhiêu tiền, có nên tin tưởng người giữ trẻ hay không, đánh giá cấp trên ra sao, hoặc quyên góp bao nhiêu cho người sáng lập một tổ chức phi lợi nhuận.
Cả AI và con người đều có xu hướng ưu ái những người được cho là có năng lực, trung thực và có thiện chí, cho thấy các mô hình dường như nắm bắt được những yếu tố cốt lõi của niềm tin như năng lực, tính chính trực và lòng tốt.
Khi con người bị ‘lượng hóa’ thành điểm số
Tuy nhiên, trong khi con người thường hình thành ấn tượng tổng quan bằng cách kết hợp nhiều đặc điểm thành một đánh giá trực quan và toàn diện, thì AI lại có cách tiếp cận rất khác. Các hệ thống này dường như tuân theo lối đánh giá cứng nhắc và mang tính quy trình, nhất quán nhưng kém tính con người hơn.
Chúng phân tách con người thành các điểm số về năng lực, tính chính trực và sự tử tế, gần giống như các cột dữ liệu trong một bảng tính để làm căn cứ đưa ra quyết định. Theo các nhà nghiên cứu, cách đánh giá của AI cứng nhắc và kém tinh tế hơn, khiến các định kiến trở nên khó phát hiện.
“Con người trong nghiên cứu của chúng tôi đánh giá người khác theo cách phức tạp và tổng thể. AI thì gọn gàng hơn, có hệ thống hơn, và điều đó có thể dẫn đến những kết quả rất khác biệt”, bà Valeria Lerman, một trong các tác giả nghiên cứu đăng trên tạp chí Proceedings of the Royal Society A, cho biết.
Các nhà khoa học nhận định cách tiếp cận của các mô hình AI có thể dẫn đến một xu hướng đáng lo ngại là khuếch đại thiên kiến.
Ví dụ, trong các kịch bản tài chính, xuất hiện những khác biệt đáng kể chỉ dựa trên đặc điểm nhân khẩu học, khi người lớn tuổi thường nhận được kết quả có lợi hơn.
“Những khác biệt này đòi hỏi phải được xem xét cẩn trọng khi diễn giải các đầu ra liên quan đến niềm tin của các mô hình ngôn ngữ lớn”, nghiên cứu nêu rõ.
“Tất nhiên là con người có những định kiến,” Yaniv Dover, một tác giả khác của nghiên cứu, cho biết, “Nhưng điều làm chúng tôi ngạc nhiên là định kiến của AI có thể mang tính hệ thống hơn, dễ dự đoán hơn và đôi khi mạnh mẽ hơn.”
Bên cạnh đó, không có một "ý kiến AI" duy nhất về cùng một con người.
“Hai hệ thống có thể trông giống nhau ở bề ngoài nhưng lại hành xử rất khác nhau khi đưa ra quyết định về con người,” Tiến sĩ Lerman nói.
Các nhà nghiên cứu cảnh báo rằng câu hỏi hiện nay không còn là liệu chúng ta có thể tin tưởng AI hay không, mà là liệu chúng ta có hiểu cách chúng tin tưởng chúng ta hay không.
“Các hệ thống này rất mạnh mẽ. Chúng có thể mô phỏng các khía cạnh trong lập luận của con người một cách nhất quán. Nhưng chúng không phải là con người, và chúng ta không nên mặc định rằng chúng nhìn nhận con người theo cách chúng ta làm,” Tiến sĩ Dover nói.
*Nguồn: Independent
