OpenAI siết an ninh sau khi tố DeepSeek sao chép mô hình AI
OpenAI, công ty khởi nghiệp trí tuệ nhân tạo (AI) phát triển ChatGPT, đã bổ sung công nghệ quét vân tay và thuê cả chuyên gia quân sự để bảo vệ dữ liệu quan trọng.
OpenAI đã cải tổ toàn bộ hoạt động an ninh nhằm bảo vệ tài sản trí tuệ khỏi các hành vi gián điệp công nghiệp sau khi từng bị cáo buộc là mục tiêu của các đối thủ đến từ Trung Quốc, trang Financial Times đưa tin.
Những thay đổi vài tháng gần đây của OpenAI, bao gồm cả việc kiểm soát nghiêm ngặt hơn thông tin nhạy cảm và kiểm tra kỹ lưỡng với nhân viên, được tiết lộ bởi một số người thân cận với công ty AI đình đám trị giá 300 tỉ USD, có trụ sở tại thành phố San Francisco (Mỹ).
OpenAI đã tăng cường nỗ lực an ninh từ năm ngoái, nhưng việc siết chặt được đẩy nhanh sau khi công ty khởi nghiệp DeepSeek (Trung Quốc) phát hành mô hình suy luận nguồn mở R1 vào tháng 1. Điểm đáng chú ý là R1 có hiệu suất ngang ngưỡng mô hình AI của các công ty Mỹ như OpenAI, Google, Anthropic nhưng được đào tạo với chi phí thấp hơn rất nhiều.
OpenAI cho rằng DeepSeek đã sao chép trái phép mô hình AI của họ bằng kỹ thuật "chưng cất", để tung ra sản phẩm AI cạnh tranh. Kể từ đó, OpenAI đã bổ sung các biện pháp bảo mật để chống lại những chiến thuật như vậy.
DeepSeek chưa đưa ra bình luận về cáo buộc từ OpenAI.
Sự việc đó “khiến OpenAI bảo vệ dữ liệu quan trọng nghiêm ngặt hơn rất nhiều”, một người thân cận với đội an ninh của công ty cho biết. Người này nói thêm công ty do Sam Altman điều hành đã ráo riết mở rộng đội ngũ nhân sự và quy trình bảo mật, gồm cả các nhóm an ninh mạng.
Cuộc chạy đua AI toàn cầu đã làm dấy lên lo ngại ngày càng lớn về các nỗ lực đánh cắp công nghệ, vốn có thể đe dọa đến an ninh kinh tế và quốc gia. Vào năm ngoái, giới chức Mỹ đã cảnh báo các công ty khởi nghiệp công nghệ rằng đối thủ nước ngoài, trong đó có Trung Quốc, đang tăng cường tìm cách thu thập dữ liệu nhạy cảm.
Hạn chế quyền truy cập của nhân viên vào thuật toán và sản phẩm mới
Người trong nội bộ OpenAI cho biết công ty đã triển khai các chính sách nghiêm ngặt hơn tại văn phòng ở San Francisco từ mùa hè năm ngoái để hạn chế quyền truy cập của nhân viên vào các thông tin công nghệ quan trọng như thuật toán và sản phẩm mới.
Các chính sách này, được gọi là information tenting (tạm dịch “dựng lều quanh thông tin”), đã giảm đáng kể số lượng người có thể tiếp cận các thuật toán mới đang được phát triển, theo tiết lộ từ người trong cuộc với Financial Times.
Ví dụ, khi OpenAI đang phát triển mô hình suy luận o1 vào năm ngoái, có tên mã nội bộ là Strawberry, các nhân viên tham gia dự án được yêu cầu xác nhận xem đồng nghiệp có thuộc nhóm Strawberry tent hay không trước khi thảo luận về dự án tại không gian chung trong văn phòng.
Cách tiếp cận nghiêm ngặt này đã khiến công việc trở nên khó khăn với một số nhân viên. “Tình hình bảo mật trở nên rất nghiêm ngặt - hoặc là bạn biết tất cả, hoặc không biết gì”, nguồn tin tiết lộ. Tuy nhiên, người này nói thêm rằng theo thời gian, “ngày càng nhiều nhân viên được chia sẻ đúng phần thông tin họ cần mà không được đọc các phần khác”.

Sam Altman, Giám đốc điều hành OpenAI, cho biết an ninh tại công ty đã trở nên “nghiêm ngặt hơn rất nhiều” kể từ khi cáo buộc DeepSeek sao chép trái phép các mô hình AI của họ - Ảnh: Financial Times
Lưu trữ phần lớn công nghệ độc quyền trong môi trường cách ly
Hiện tại, OpenAI lưu trữ phần lớn công nghệ độc quyền trong môi trường cách ly -tức là các hệ thống máy tính được giữ ngoại tuyến và tách biệt khỏi các mạng khác, theo những người am hiểu quy trình. Nguồn tin cũng cho biết công ty đã áp dụng kiểm tra sinh trắc học tại văn phòng, chỉ những ai quét vân tay thành công mới được vào các phòng nhất định.
Để bảo vệ trọng số mô hình (các tham số ảnh hưởng đến cách mô hình AI phản hồi các yêu cầu hay lời nhắc), OpenAI áp dụng chính sách “chặn kết nối ra ngoài theo mặc định”, nghĩa là không có hệ thống nào được phép kết nối internet trừ khi được phê duyệt cụ thể.
"Cha đẻ ChatGPT" cũng đã tăng cường an ninh vật lý tại các trung tâm dữ liệu của mình, các nguồn tin cho biết. Trang Financial Times từng đưa tin năm ngoái rằng OpenAI là một trong số các công ty ở Thung lũng Silicon (Mỹ) siết chặt quy trình sàng lọc nhân sự và ứng viên, do lo ngại ngày càng gia tăng về hoạt động gián điệp từ Trung Quốc.
Mỹ và Trung Quốc đang trong một cuộc cạnh tranh chiến lược ngày càng gay gắt. Vài năm qua, Mỹ áp đặt các biện pháp kiểm soát xuất khẩu chip AI nhằm gây khó khăn cho Trung Quốc trong việc tiếp cận và phát triển các công nghệ tiên tiến. Song cũng có những lo ngại về việc chủ nghĩa bài ngoại gia tăng trong các hãng công nghệ Mỹ, khi nhiều lao động là người gốc Á có tay nghề cao.
Vào tháng 10.2024, OpenAI đã thuê Dane Stuckey làm giám đốc an ninh thông tin mới. Ông từng giữ vị trí tương tự tại Palantir - công ty tình báo dữ liệu nổi tiếng Mỹ với các dự án quân sự và chính phủ quy mô lớn.
Dane Stuckey làm việc cùng Matt Knight, Phó chủ tịch mảng sản phẩm an ninh của OpenAI. Theo một người nắm rõ vấn đề, Matt Knight đang phát triển các phương pháp sử dụng mô hình ngôn ngữ lớn của chính OpenAI để tăng cường khả năng phòng thủ trước các cuộc tấn công mạng.
Tướng Paul Nakasone, vị tướng Lục quân Mỹ đã nghỉ hưu, được bổ nhiệm vào hội đồng quản trị của OpenAI vào năm ngoái nhằm hỗ trợ giám sát các nỗ lực phòng vệ an ninh mạng.
OpenAI cho biết đang đầu tư mạnh vào các chương trình bảo mật và quyền riêng tư, vì muốn dẫn đầu ngành công nghiệp. Công ty cũng nói thêm rằng các thay đổi này không nhằm phản ứng với một sự cố cụ thể nào.
Paul Nakasone là cựu tướng 4 sao của Lục quân Mỹ, nổi tiếng với sự nghiệp lâu năm trong lĩnh vực an ninh mạng và tình báo. Ông từng đảm nhiệm các vị trí cấp cao và quan trọng nhất trong hệ thống an ninh quốc gia Mỹ, gồm:Giám đốc Cơ quan An ninh quốc gia (NSA); Tư lệnh Bộ Chỉ huy Không gian mạng Mỹ (US Cyber Command); Chỉ huy Cơ quan Dịch vụ an ninh trung ương (CSS), một bộ phận của NSA.
Với kinh nghiệm sâu rộng về an ninh mạng, công nghệ và phòng thủ không gian mạng, Paul Nakasone từng đóng vai trò then chốt trong việc định hình các chiến lược an ninh quốc gia của Mỹ trong kỷ nguyên số. Ông cũng được biết đến là người tiên phong trong chiến lược "tương tác bền bỉ" để chủ động đối phó với các đối thủ trên không gian mạng.
Sau khi nghỉ hưu vào tháng 2.2024, Paul Nakasone tham gia vào hội đồng quản trị OpenAI vào tháng 6.2024. Tại đây, ông đóng vai trò giúp tăng cường khả năng phòng thủ của công ty trước các mối đe dọa an ninh mạng ngày càng tinh vi; đồng thời đóng góp vào việc đảm bảo an toàn và bảo mật cho AI khi công nghệ này tiếp tục phát triển. Ông cũng là thành viên của Ủy ban An toàn và An ninh mới được thành lập tại OpenAI.
Việc OpenAI bổ nhiệm Paul Nakasone đã gây tranh luận, với một số người lo ngại về sự giao thoa giữa các tổ chức tình báo và công nghệ AI. Tuy nhiên, nhiều ý kiến khác nhấn mạnh tầm quan trọng về chuyên môn của ông trong việc bảo vệ các hệ thống AI.