Tại sao AI chưa thể tin cậy cho các công việc quan trọng?
Mỗi thông báo lớn về trí tuệ nhân tạo (AI) đều đi kèm với những chỉ trích từ những người lo ngại chúng ta có thể đang xây dựng công cụ dẫn đến sự diệt vong.
Chưa hiểu cách AI vận hành
Một câu trong tuyên bố của Viện Tương Lai Sự Sống, đáp lại việc ra mắt GPT-5 hôm thứ Năm, gây chú ý: "Đây là một bước đi nguy hiểm hướng tới mục tiêu đã công bố của OpenAI về việc xây dựng siêu trí tuệ, thứ mà họ đang tiến gần hơn tới việc tạo ra so với việc tìm cách kiểm soát nó".

Chừng nào chúng ta chưa hiểu được cách các mô hình AI vận hành, chúng ta không thể tin rằng chúng sẽ tuân theo hướng dẫn.
Câu nói này làm nổi bật một sự thật trong cuộc đua AI chưa được chú ý đủ: Các mô hình AI hiện nay đã đủ mạnh. Lý do chúng chưa thể thay thế con người trong các công việc đơn điệu hay thúc đẩy năng suất kinh tế là vì không ai có thể kiểm soát chúng một cách chắc chắn, dù chỉ gần đúng.
Đây không chỉ là vấn đề an toàn AI. Nó còn là một vấn đề kinh doanh dài hạn. Chúng ta liên tục cải tiến các mô hình AI, nhưng tiến bộ trong việc hiểu cách chúng hoạt động bên trong lại rất ít. Việc OpenAI không đề cập đến khoa học về "tính giải thích" - tức là hiểu cách hoạt động của AI - trong buổi ra mắt là một dấu hiệu rõ ràng.
Chừng nào chúng ta chưa hiểu được cách các mô hình AI vận hành, chúng ta không thể tin rằng chúng sẽ tuân theo hướng dẫn. Nếu chỉ có 1% khả năng chúng có thể "ảo giác", đi lệch hướng hoặc trở thành nạn nhân của một cuộc tấn công "phá khóa" (jailbreaking), thì chúng không thể được tin cậy cho các nhiệm vụ quan trọng.
Giải pháp duy nhất là tạo ra các hệ thống và biện pháp kiểm soát phức tạp để buộc các mô hình AI tuân thủ. Đây là cách chúng ta quản lý con người, những bộ não mà chúng ta cũng chưa hiểu hết. Chúng ta biết con người có thể hành động lệch lạc, nên chúng ta có luật để ngăn chặn hành vi gây hại và biết cách hạn chế thiệt hại khi họ không tuân thủ.
Có thể chúng ta sẽ áp dụng cách tương tự cho các mô hình AI. Hoặc, chúng ta cần tìm cách giải mã tập hợp neuron khổng lồ, khó hiểu khiến AI hoạt động như hiện tại.
AI không thể thay thế các nhà phân tích
Tương tự như vậy, trong lĩnh vực an ninh mạng, có một giấc mơ thường xuyên được nhắc đến: một trung tâm điều hành an ninh (SOC) không cần nhà phân tích. AI sẽ lo hết mọi thứ, họ nói. Không còn mệt mỏi vì cảnh báo, không còn hàng dài ticket chờ xử lý, không còn "mỏi tay" vì click chuột. Chỉ có những hệ thống thông minh phát hiện, quyết định và phản hồi. Đó là giấc mơ. Nhưng cũng chỉ là giấc mơ… vì thực tế phức tạp hơn nhiều.

AI là công cụ, không phải đồng đội. Nó giúp con người tập trung vào công việc giá trị cao. Nó không thay thế họ.
Sự thật là: AI không thể thay thế các nhà phân tích con người. Không thể, trừ khi bạn đơn giản hóa công việc của một nhà phân tích chỉ là bấm nút - điều đó cho thấy một sự hiểu lầm cơ bản về những gì hoạt động an ninh thực sự đòi hỏi.
Các nhà phân tích an ninh mang lại sự tinh tế. Họ hiểu ngữ cảnh cụ thể của môi trường làm việc. Họ biết phân biệt giữa "lạ nhưng bình thường" và "điều này không nên xảy ra." Họ nắm được động lực con người, biết ai dễ mắc sai lầm, hệ thống nào là quan trọng, hay tổ chức đang đối mặt với những gì có thể ảnh hưởng đến quyết định rủi ro. AI không có ký ức tổ chức. Nó không biết điều gì quan trọng với bạn.
Những gì AI làm tốt là khuếch đại. Nó hỗ trợ tìm kiếm mẫu trong các tập dữ liệu khổng lồ. Nó có thể phát hiện các mối tương quan mà con người có thể bỏ qua, đặc biệt khi dữ liệu nằm rải rác ở nhiều nguồn. Nó giúp giảm thời gian đào bới log hoặc dựng dòng thời gian sự kiện. Ở khía cạnh đó, AI không phải là sự thay thế mà là một công cụ nhân sức mạnh. Nhưng nó không hoàn hảo, vì các hệ thống này có thể "ảo giác". Chúng tóm tắt sai. Chúng bỏ lỡ ngữ cảnh. Chúng không hiểu rủi ro.
Vấn đề thực sự xuất hiện khi mọi người tin rằng công cụ thông minh hơn thực tế. Nếu nó nói "mọi thứ ổn" và bạn tin tưởng mù quáng, bạn đang đặt tổ chức vào rủi ro. Ngược lại, nếu nó làm ngập đội ngũ của bạn với thông báo thừa hoặc phân loại sai sự cố, con người sẽ trở nên chai lỳ hoặc mất niềm tin vào hệ thống. Kịch bản tệ nhất là một đội ngũ bị phụ thuộc vào "AI bảo thế" đến mức ngừng suy nghĩ một cách phản biện.
Thực tế, chúng ta cần con người hơn bao giờ hết, nhưng theo những cách khác. Ít thời gian đào bới nhật ký, nhiều thời gian phân tích ngữ cảnh hơn. Ít phải phân loại sự cố bằng tay, nhiều chiến lược xử lý tình huống hơn. AI là công cụ, không phải đồng đội. Nó giúp con người tập trung vào công việc giá trị cao. Nó không thay thế họ.