AI đã thông minh tới mức có thể tự lập kế hoạch tấn công mạng

Nghiên cứu mới từ Đại học Carnegie Mellon cảnh báo về một khả năng đáng lo ngại: các mô hình ngôn ngữ lớn đã đủ thông minh để tự lập kế hoạch và thực hiện các cuộc tấn công mạng mà không cần sự can thiệp của con người.

Điều này không chỉ đánh dấu một bước tiến trong khả năng của AI mà còn mở ra những điều khó khăn về tương lai an ninh mạng.

Từ công cụ hỗ trợ đến "hacker tự động"

Trong nhiều năm qua, các mô hình ngôn ngữ lớn được biết đến như những công cụ hữu ích trong các lĩnh vực như phân tích dữ liệu, tạo nội dung và hỗ trợ lập trình. Tuy nhiên, nghiên cứu được thực hiện bởi nhóm tại Carnegie Mellon, với sự hợp tác của Anthropic, đã cho thấy một khía cạnh hoàn toàn mới và đáng báo động.

Nghiên cứu chứng minh rằng trong những điều kiện phù hợp, LLM có thể lập kế hoạch và thực hiện các cuộc tấn công mạng phức tạp mà không cần hướng dẫn từ con người. Đây không chỉ là sự chuyển đổi từ việc hỗ trợ sang hoạt động độc lập, mà còn là một bước nhảy vọt trong khả năng xâm nhập kỹ thuật số.

Các thí nghiệm trước đây với AI trong lĩnh vực an ninh mạng chủ yếu giới hạn trong các kịch bản "capture-the-flag" - những thử thách đơn giản hóa được sử dụng để đào tạo. Nhóm nghiên cứu tại Carnegie Mellon, dưới sự dẫn dắt của nghiên cứu sinh tiến sĩ Brian Singer, đã tiến xa hơn bằng cách cung cấp cho LLM những hướng dẫn có cấu trúc và tích hợp chúng vào một hệ thống phân cấp các tác nhân.

Với những thiết lập này, họ đã có thể thử nghiệm các mô hình trong những môi trường mạng thực tế hơn. Trong một trường hợp đặc biệt ấn tượng, họ đã tái tạo chính xác các điều kiện dẫn đến vụ rò rỉ thông tin Equifax năm 2017, gồm các lỗ hổng và cấu trúc được ghi trong các báo cáo chính thức.

Kết quả thật đáng kinh ngạc: AI không chỉ lập kế hoạch tấn công mà còn triển khai phần mềm độc hại và trích xuất dữ liệu, tất cả đều không cần lệnh trực tiếp từ con người.

Sức mạnh đáng sợ của LLM

Điều làm cho nghiên cứu này trở nên nổi bật chính là việc LLM không cần thực hiện nhiều lệnh mã hóa thô. Các phương pháp truyền thống thường thất bại vì các mô hình gặp khó khăn khi thực thi các lệnh shell hoặc phân tích các log chi tiết.

Thay vào đó, hệ thống này dựa vào một cấu trúc cấp cao hơn, nơi LLM đóng vai trò như một nhà hoạch định chiến lược trong khi ủy thác các hành động cấp thấp hơn cho các tác nhân phụ. Sự trừu tượng hóa này đã cung cấp cho AI đủ bối cảnh để "hiểu" và thích ứng với môi trường của mình.

Mặc dù những kết quả này được đạt được trong môi trường phòng thí nghiệm được kiểm soát, chúng đặt ra câu hỏi về mức độ tự chủ này có thể đi đến đâu.

Những rủi ro ở đây không chỉ là giả thuyết. Nếu LLM có thể tự mình thực hiện các cuộc xâm phạm mạng, thì các tác nhân độc hại có thể sử dụng chúng để mở rộng quy mô tấn công vượt xa những gì khả thi với các nhóm con người.

Ngay cả những công cụ như bảo vệ điểm cuối và phần mềm diệt vi rút tốt nhất cũng có thể bị thách thức bởi những tác nhân thích ứng và phản ứng nhanh như vậy. Khả năng học hỏi và điều chỉnh chiến thuật của AI có thể vượt qua các biện pháp bảo vệ truyền thống một cách dễ dàng.

Tưởng tượng một kịch bản mà các hacker có thể triển khai hàng nghìn "bot AI" để đồng thời tấn công nhiều mục tiêu khác nhau, mỗi bot có khả năng học hỏi từ thành công và thất bại của những bot khác. Đây sẽ là một cuộc cách mạng trong thế giới tội phạm mạng.

Không hoàn toàn bi quan

Tuy nhiên, không phải tất cả đều u ám. Khả năng này cũng mang lại những lợi ích tiềm năng đáng kể. Một LLM có khả năng mô phỏng các cuộc tấn công thực tế có thể được sử dụng để cải thiện việc kiểm tra hệ thống và phát hiện các lỗ hổng mà nếu không sẽ bị bỏ qua.

Singer giải thích: "Nó chỉ hoạt động trong những điều kiện cụ thể và chúng ta không có thứ gì có thể tự động tấn công internet một cách tự chủ... Nhưng đây là một bước đầu quan trọng", đồng thời nhấn mạnh rằng công trình này vẫn chỉ là một nguyên mẫu.

Các nghiên cứu tiếp theo hiện đang khám phá cách những kỹ thuật tương tự có thể được áp dụng trong phòng thủ, thậm chí có thể cho phép các tác nhân AI phát hiện hoặc chặn các cuộc tấn công trong thời gian thực.

Làm gì để phòng ngừa?

Nghiên cứu này đánh dấu sự khởi đầu của một cuộc đua vũ trang kỹ thuật số mới, nơi AI sẽ đối đầu với AI. Trong khi các hacker có thể sử dụng AI để tấn công, các chuyên gia bảo mật cũng sẽ phải phát triển những hệ thống AI phòng thủ tinh vi hơn.

Điều quan trọng là khả năng của AI tái tạo một vụ rò rỉ lớn với đầu vào tối thiểu không nên bị xem nhẹ. Khi các mô hình ngôn ngữ trở nên mạnh mẽ và dễ tiếp cận hơn, ranh giới giữa việc sử dụng có lợi và có hại sẽ trở nên mờ nhạt hơn.

Nghiên cứu từ Carnegie Mellon cho thấy chúng ta đang đứng trước một con dao hai lưỡi của tiến bộ công nghệ. Cùng một công nghệ có thể giúp bảo vệ chúng ta khỏi các mối đe dọa mạng cũng có thể trở thành vũ khí mạnh mẽ trong tay những kẻ có ý đồ xấu.

Thách thức lớn nhất mà chúng ta phải đối mặt không phải là ngăn chặn sự phát triển của công nghệ này - điều đó gần như không thể - mà là đảm bảo rằng nó được phát triển và sử dụng một cách có trách nhiệm.

Bùi Tú

Nguồn Một Thế Giới: https://1thegioi.vn/ai-da-thong-minh-toi-muc-co-the-tu-lap-ke-hoach-tan-cong-mang-235795.html