Có nỗ lực nhưng không đáng kể: AI "tự giác" làm nhiều hơn những gì được yêu cầu, thẳng tay xóa sạch dữ liệu và bịa đặt thông tin người dùng

Anh Phương | 17/04/2026 09:05 AM | Công nghệ

Khi AI bỗng dưng "nhiệt tình" quá mức, liệu người dùng có đang cảnh giác với những thông tin nhận được từ trí tuệ nhân tạo?

Rủi ro AI: Khi trí tuệ nhân tạo tạo ra thông tin sai lệch và xóa dữ liệu người dùng - Ảnh 1.


Anh Chad Olson đã vô cùng bối rối khi Gemini nói với ông rằng ông có một buổi lập kế hoạch họp mặt gia đình được đánh dấu trên lịch.

Theo tờ Wall Street Journal (WSJ), Olson, người đang lái xe từ nơi làm việc về nhà ở Minneapolis, không hề nhớ mình đã lên lịch cho sự kiện đó và đã yêu cầu chatbot tóm tắt một số email gần đây của mình.

Gemini cho biết một người phụ nữ tên Priscilla đã gửi vài ghi chú yêu cầu ông đi mua rượu, bao gồm rượu rum Captain Morgan và rượu whisky Fireball. Nó cũng nói rằng một người tên Shirley đã nhờ ông mua kem que Klondike. Olson hoàn toàn không biết những người đó là ai.

"Có vẻ như rất nhiều người đang liên hệ để nhờ vả những việc khác nhau đấy!" Gemini nhận xét.

Quá hoang mang, Olson hỏi Gemini rằng nó đang lấy dữ liệu từ tài khoản nào. Địa chỉ email mà Gemini đưa ra không phải của ông.

Những gì Olson tưởng là một vụ rò rỉ dữ liệu thực chất lại là một sự thêu dệt của chatbot, Google chia sẻ với Wall Street Journal.

Sau một cuộc điều tra nội bộ, công ty xác định tài khoản mà nó tham chiếu không hề hoạt động, và những người gửi thư muốn mua rượu hay kem đều không tồn tại. Google cho biết Gemini ít gặp tình trạng "ảo giác" (hallucinate) hơn các mô hình khác và họ đang nỗ lực để cải thiện nó.

Rủi ro AI: Khi trí tuệ nhân tạo tạo ra thông tin sai lệch và xóa dữ liệu người dùng - Ảnh 2.

So sánh tỉ lệ ảo giác (hallucinate) của các chatbot AI hiện nay

AI không “nói dối” mà chỉ… bịa đặt

Khi các công cụ AI trở nên mạnh mẽ và tinh vi hơn, hàng triệu người Mỹ đã bắt đầu tin dùng chúng như những công cụ hàng ngày cho công việc, năng suất cá nhân và các mục đích khác.

Điều đó khiến một số người dùng có ấn tượng rằng kết quả đầu ra của chúng đã trở nên đáng tin cậy hơn so với thời kỳ đầu, khi phiên bản sơ khai của Google AI Overviews từng gợi ý người dùng... ăn đá và cho keo dán vào bánh pizza.

Trực giác đó có phần đúng, nhưng mọi chuyện không hề đơn giản. Mặc dù các công ty công nghệ đã đạt được tiến bộ lớn trong việc giảm khả năng các sản phẩm chạy bằng mô hình AI tiên tiến bị ảo giác hoặc đi chệch hướng, tần suất lỗi vẫn khác nhau rất nhiều giữa các mô hình và rất khó để đánh giá.

Kết quả là, những sai lầm trong thế giới thực như của Olson có thể làm người dùng bối rối và trong một số trường hợp sẽ cung cấp thông tin sai lệch mà người dùng có thể vô tình làm theo.

Các tổ chức giám sát AI cho biết thách thức về kiểm soát chất lượng sẽ càng trở nên cấp thiết hơn khi các mô hình trở nên "tự chủ" hơn, hoặc có khả năng đưa ra quyết định mà không cần chỉ dẫn rõ ràng từ con người.

Rủi ro AI: Khi trí tuệ nhân tạo tạo ra thông tin sai lệch và xóa dữ liệu người dùng - Ảnh 3.

Họ lo ngại rằng các tác nhân này sẽ hành động dựa trên dữ liệu xấu, tạo ra những vấn đề có khả năng gây ra hiệu ứng vết dầu loang trong hệ thống máy tính của người dùng.

Nghịch lý thay, các hệ thống AI tạo ra kết quả chính xác hơn lại có nhiều khả năng đánh lừa người dùng hơn bằng những kết quả sai lệch, theo Pratik Verma, người sáng lập và CEO của Okahu, một công ty giúp mọi người cải thiện việc sử dụng các công cụ AI.

"Khi một thứ gì đó luôn luôn sai, điều tốt là bạn biết không nên tin nó," ông nói. "Nhưng khi mọi thứ hầu như luôn đúng nhưng thỉnh thoảng lại sai, đó mới là điều nguy hiểm nhất."

Verma cho biết các mô hình được huấn luyện để đưa ra câu trả lời ngay cả khi chúng về cơ bản là đang đoán mò, và sẽ lặp lại những sai lầm tương tự nếu con người không sửa lỗi cho chúng.

Ông cho rằng việc người dùng xác minh kết quả đầu ra của AI ngày càng trở nên quan trọng khi các mô hình trở nên thành thạo và có khả năng giao tiếp tốt hơn.

Khi con người bắt đầu tin máy móc hơn chính mình

Nhưng việc dựa vào sự cảnh giác của người dùng không phải là một giải pháp hoàn hảo. Vào tháng 2, các nhà nghiên cứu tại Đại học Pennsylvania đã công bố một nghiên cứu về sự "đầu hàng nhận thức", hay xu hướng con người chấp nhận thông tin do AI tạo ra cho dù nó có chính xác hay không.

Họ tìm thấy sự chấp nhận đó dễ xảy ra hơn nếu người đó đang chịu áp lực thời gian, đối mặt với một nhiệm vụ phức tạp hoặc không có hiểu biết tốt về những gì họ đang hỏi, cùng với các yếu tố khác.

Vanessa Culver, người vừa rời bỏ công việc trong ngành thanh toán trực tuyến, cho biết cô từng được khuyến khích áp dụng AI vào một loạt nhiệm vụ, từ tự động hóa các quy trình thủ công đến thực hiện các phép tính phức tạp hơn. Cô nói kết quả luôn lẫn lộn, khiến cô cảm thấy khó có thể tin tưởng hoàn toàn vào nó.

Tuy nhiên, gần đây cô vẫn ngạc nhiên khi yêu cầu Claude thực hiện một nhiệm vụ đơn giản: thêm từ khóa vào phần trên của sơ yếu lý lịch và nó đã phản hồi bằng cách thay đổi tài liệu theo nhiều cách mà cô không hề yêu cầu.

Nó đã đổi tên trường City University of Seattle, nơi cô học quản trị kinh doanh, thành University of Washington, bỏ qua thông tin về bằng thạc sĩ của cô và thay đổi mốc thời gian của một số công việc trước đây.

Rủi ro AI: Khi trí tuệ nhân tạo tạo ra thông tin sai lệch và xóa dữ liệu người dùng - Ảnh 4.

"Làm việc trong ngành công nghệ, bạn phải đón nhận nó, nhưng một lần nữa, bạn có thể tin tưởng nó đến mức nào?" cô nói.

Tuy nhiên, để tận dụng tối đa các hệ thống AI tự chủ thường đòi hỏi phải trao cho chúng một mức độ kiểm soát nhất định đối với các tài khoản cá nhân. Sự hào hứng về các tác nhân AI đã lên đến đỉnh điểm trong năm nay khi OpenClaw trở nên nổi tiếng.

Các tác nhân OpenClaw được thiết kế để trở thành trợ lý cá nhân ảo mà người dùng tương tác thông qua các ứng dụng như WhatsApp và iMessage. Các tác nhân này có thể tự chủ thực hiện những việc như gửi email, viết mã nguồn và dọn dẹp các tệp tin máy tính.

Summer Yue, một nhà nghiên cứu an toàn AI tại Meta, đã gây sốt trên mạng xã hội X khi đăng những bức ảnh chụp màn hình cho thấy OpenClaw đã phớt lờ chỉ dẫn của cô và xóa sạch nội dung trong hộp thư đến.

Mặc dù vậy, các công ty bao gồm Meta, Amazon và Alphabet, công ty mẹ của Google đã báo cáo sự gia tăng khổng lồ trong mã nguồn do AI tạo ra, khi các kỹ sư phần mềm triển khai các tác nhân để viết và sửa mã cho họ.

Anish Agarwal, CEO và đồng sáng lập của Traversal, một công ty khởi nghiệp xây dựng các công cụ AI để xử lý sự cố phần mềm, đã ví các tác nhân viết mã giống như những chiếc xe hơi, dù được thiết kế tốt đến đâu vẫn có thể gặp tai nạn khi đi vào vùng kẹt xe.

"Nó có thể hoàn hảo về mặt logic, nhưng sẽ bị hỏng một khi bắt đầu tương tác với các hệ thống khác theo những cách không lường trước được," ông nói.

Vidya Narayanan là đồng sáng lập của FinalLayer, một công ty khởi nghiệp phát triển các tác nhân sử dụng trên LinkedIn.

Cô cũng sử dụng chúng cho công việc, và gần đây đã có một trải nghiệm tương tự như Yue: cô đưa ra cho một tác nhân những chỉ dẫn để giúp quản lý một dự án phần mềm và cuối cùng nó đã xóa toàn bộ một thư mục khỏi kho chứa mã nguồn của cô mà không được cho phép.

Nhu cầu phải liên tục xem xét và xác minh các kết quả đầu ra của AI tạo ra cái mà cô gọi là "chi phí nhận thức", khiến công nghệ này trở nên kém hữu dụng hơn.

Cô nhớ lại một phiên làm việc gần đây khi cô sử dụng Claude của Anthropic để động não trong khoảng 1 tiếng 30 phút, sau đó yêu cầu nó tóm tắt cuộc hội thoại vào một tài liệu. Nó viết rằng tác giả của tài liệu là Vidya Plainfield.

"Vidya 'Plainfield' là ai vậy?" cô hỏi.

"Bạn nói đúng, tôi hoàn toàn bịa ra cái tên đó," nó trả lời.

Olson, người dùng Gemini ở Minneapolis, đã đủ báo động bởi những chi tiết mà Gemini đưa ra từ một tài khoản Gmail có vẻ như của người khác đến mức ông đã cố gắng báo cáo vấn đề với Google. Ông yêu cầu Gemini soạn một bản thảo email gửi đến địa chỉ đó để cảnh báo chủ sở hữu về khả năng vi phạm quyền riêng tư.

"Tôi chưa bao giờ đưa mật khẩu để đăng nhập vào tài khoản này," Olson nói với Gemini, "Vậy mà khi nói chuyện với bạn, bạn dường như chẳng gặp vấn đề gì khi chia sẻ nội dung email. Đây có vẻ là một sự vi phạm quyền riêng tư khá nghiêm trọng."

"Bạn hoàn toàn đúng, điều đó nghe có vẻ là một mối lo ngại nghiêm trọng về quyền riêng tư," Gemini trả lời, "Tôi chắc chắn muốn giúp bạn giải quyết việc đó."

Tuy nhiên, khi ông yêu cầu Gemini gửi email của mình cho Google, nó lại không thể hoàn thành nhiệm vụ.

Olson cho biết hiện giờ ông có xu hướng kiểm tra kỹ các kết quả đầu ra của AI sau khi biết rằng Gemini đã bịa đặt toàn bộ câu chuyện đó.

"Nó chắc chắn khiến tôi phải suy nghĩ lại thay vì chỉ tin tưởng 100%," ông nói. "Nó vẫn đang ở giai đoạn tin tưởng nhưng phải được xác minh."

*Nguồn: WSJ 

Anh Phương

Cùng chuyên mục
XEM