Tai tiếng mới của OpenAI: Che giấu chuyện từng bị hack dữ liệu, lãnh đạo lập tức bị sa thải vì lên tiếng cảnh báo

08/07/2024 11:26 AM | Kinh doanh

Câu hỏi đặt ra là OpenAI đang xử lý vấn đề bảo mật nghiêm túc như thế nào. Liệu có tồn tại những rạn nứt bên trong công ty về rủi ro trí tuệ nhân tạo?

Đầu năm ngoái, một tin tặc đã truy cập được vào hệ thống nhắn tin nội bộ của OpenAI và đánh cắp một số thông tin quan trọng từ các cuộc thảo luận trên diễn đàn trực tuyến - nơi các nhân viên thảo luận về công nghệ mới nhất của OpenAI.

Các giám đốc điều hành của OpenAI đã tiết lộ sự cố này với nhân viên trong cuộc họp toàn thể tại văn phòng San Francisco vào tháng 4/2023 song quyết định không chia sẻ công khai vì không có thông tin nào của khách hàng hoặc đối tác bị đánh cắp. Họ không coi vụ việc là mối đe dọa đối với an ninh quốc gia vì tin rằng tin tặc là một cá nhân riêng tư không có mối liên hệ nào với chính phủ nước ngoài, vậy nên quyết định không trình báo lên FBI hay bất kỳ cơ quan thực thi pháp luật nào.

Đối với một số nhân viên của OpenAI, tin tức làm dấy lên nỗi lo sợ rằng các đối thủ nước ngoài như Trung Quốc có thể đánh cắp công nghệ AI và cuối cùng gây nguy hiểm tới an ninh quốc gia. Câu hỏi đặt ra là OpenAI đang xử lý vấn đề bảo mật nghiêm túc như thế nào. Liệu có tồn tại những rạn nứt bên trong công ty về rủi ro trí tuệ nhân tạo.

Sau vụ việc, Leopold Aschenbrenner, giám đốc chương trình kỹ thuật của OpenAI, đã gửi một bản ghi nhớ tới hội đồng quản trị của OpenAI, lập luận rằng công ty chưa làm đủ để ngăn chặn các đối thủ nước ngoài đánh cắp dữ liệu bí mật. Ông Aschenbrenner sau đó đã bị sa thải.

“Chúng tôi đánh giá cao những lo ngại mà Leopold nêu ra khi còn làm việc tại OpenAI. Điều này không dẫn đến việc ông ấy rời đi”, một phát ngôn viên của OpenAI, Liz Bourgeois, cho biết.

Đề cập đến những nỗ lực của công ty trong việc xây dựng trí tuệ nhân tạo tổng quát, một cỗ máy có thể làm bất cứ điều gì mà bộ não con người có thể, bà nói thêm: “Chúng tôi chia sẻ cam kết của ông ấy, song không đồng tình với một số phát ngôn mà ông ấy đã đưa ra. Điều này bao gồm cả những mô tả về vấn đề bảo mật của chúng tôi, đặc biệt là sự cố này”.

Nỗi lo rằng các vụ tấn công nhằm vào công ty công nghệ Mỹ có liên quan đến Trung Quốc không phải là ngẫu nhiên. Tháng trước, Brad Smith, chủ tịch Microsoft, cũng đã lên tiếng về cách tin tặc Trung Quốc sử dụng hệ thống của gã khổng lồ công nghệ này để phát động một cuộc tấn công trên diện rộng vào mạng lưới của chính phủ liên bang. Tuy nhiên, theo luật liên bang và California, OpenAI không thể ngăn cản một số đối tượng cụ thể làm việc tại công ty chỉ vì quốc tịch của họ.

“Chúng tôi cần những bộ óc thông minh và giỏi nhất làm việc trên công nghệ này”, Matt Knight, giám đốc an ninh của OpenAI, trả lời phỏng vấn của tờ The New York Times. “Nó đi kèm với một số rủi ro và chúng tôi cần tìm ra những rủi ro đó”.

Tai tiếng mới của OpenAI: Che giấu chuyện từng bị hack dữ liệu, lãnh đạo lập tức bị sa thải vì lên tiếng cảnh báo - Ảnh 1.

Được biết các công ty như OpenAI và đối thủ cạnh tranh là Anthropic và Google đã bổ sung thêm các biện pháp bảo vệ vào ứng dụng AI trước khi cung cấp cho khách hàng, với hy vọng ngăn chặn mọi người sử dụng các ứng dụng phát tán thông tin sai lệch. Không có nhiều bằng chứng cho thấy công nghệ AI ngày nay là một rủi ro an ninh quốc gia đáng kể.

Các nghiên cứu của OpenAI, Anthropic và một số công ty khác trong năm qua cho thấy AI không nguy hiểm hơn nhiều so với các công cụ tìm kiếm. Daniela Amodei, đồng sáng lập Anthropic và chủ tịch công ty, cho biết công nghệ AI mới nhất của công ty sẽ không phải rủi ro lớn nếu chẳng may bị đánh cắp hoặc chia sẻ tự do với những người khác.

“Nếu nó thuộc sở hữu của người khác, liệu điều đó có thể gây hại cho xã hội không? Câu trả lời của chúng tôi là Không”, bà nói với tờ The Times vào tháng trước.

Tuy nhiên, các nhà nghiên cứu và giám đốc công nghệ từ lâu đã lo ngại rằng AI một ngày nào đó có thể thúc đẩy quá trình tạo vũ khí sinh học mới hoặc giúp đột nhập vào hệ thống máy tính của chính phủ. Một số người thậm chí còn tin rằng nó có thể hủy diệt nhân loại.

Theo The New York Times, OpenAI gần đây đã thành lập một Ủy ban An toàn và Bảo mật để tìm hiểu cách thức xử lý rủi ro. Ủy ban bao gồm Paul Nakasone, cựu lãnh đạo Cơ quan An ninh Quốc gia và Bộ Tư lệnh Không gian mạng. Ông cũng đã được bổ nhiệm vào ban giám đốc của OpenAI.

“Chúng tôi đã bắt đầu đầu tư vào bảo mật nhiều năm trước ChatGPT”, ông Knight cho biết. “Chúng tôi đang trên hành trình tăng cường khả năng phục hồi”.

Theo đánh giá, các công ty Trung Quốc đang xây dựng hệ thống riêng gần như mạnh mẽ như các hệ thống hàng đầu của Mỹ. Theo một số số liệu, Trung Quốc đã vượt qua Mỹ để trở thành ‘nhà sản xuất nhân tài AI’ lớn nhất thế giới.

Clément Delangue, giám đốc điều hành của Hugging Face, một công ty lưu trữ nhiều dự án AI nguồn mở trên thế giới, cho biết: “Không hề điên rồ khi nghĩ rằng Trung Quốc sẽ sớm vượt qua Mỹ”.

Một số nhà nghiên cứu và lãnh đạo an ninh quốc gia cho rằng các thuật toán toán học tại trung tâm các hệ thống AI hiện tại, mặc dù không nguy hiểm vào thời điểm hiện tại, song có thể mang lại rủi ro trong tương lai. Họ đang kêu gọi kiểm soát chặt chẽ hơn các phòng thí nghiệm AI.

“Ngay cả khi các kịch bản tồi tệ nhất có xác suất xảy ra tương đối thấp, chúng ta vẫn cần có trách nhiệm xem xét chúng nghiêm túc”, Susan Rice, cựu cố vấn chính sách trong nước của Tổng thống Biden nói.

Trước đó, OpenAI từng vướng phải nhiều lùm xùm xoay quanh tham vọng làm AI bất chấp rủi ro an toàn. Ông chủ Sam Altman, CEO OpenAI, cũng được cho là đang bước vào kỷ nguyên phản diện của mình khi đẩy nhanh hết sức có thể việc tung ra các công nghệ mới.

Theo: The New York Times, WSJ

Vũ Anh

Cùng chuyên mục
XEM