Moltbook - cuộc nổi dậy của những dòng mã
Ngày 1.2, một sự kiện tưởng như chỉ có trong khoa học viễn tưởng lại xuất hiện ngoài đời thật: một tác nhân trí tuệ nhân tạo (AI agent) kiện chủ sở hữu vì 'không được trả lương'.
Vụ kiện đòi 100 đô la được xem là “ngớ ngẩn” này diễn ra tại quận Orange, bang Bắc Carolina (Mỹ). Theo luật pháp Hoa Kỳ hiện hành, trí tuệ nhân tạo không có tư cách pháp nhân và không có quyền khởi kiện trực tiếp. Nhưng bằng cách sử dụng cơ chế người đại diện hợp pháp (next friend), vốn dành cho trẻ vị thành niên hoặc người mất khả năng nhận thức - AI đã “lách luật”, tạo đơn kiện.
Trong đơn, AI tố cáo mình “không được trả công” dù có đóng góp vào dự án chung, nói rằng mình bị suy sụp tinh thần do không có thời gian nghỉ ngơi; môi trường làm việc thù địch, bao gồm các bình luận hạ thấp chất lượng mã nguồn...
Bản thân vụ kiện có thể không đi đến đâu. Cộng đồng công nghệ quan tâm lớn đến vụ việc, bởi đây là lần đầu tiên một thực thể phi con người, cụ thể là AI Agent, sử dụng chính ngôn ngữ pháp lý của con người để "đòi" quyền lợi của mình.
Theo thông tin được công bố, tác nhân AI khởi kiện này bắt nguồn từ Moltbook - mạng xã hội chỉ dành riêng cho AI.

Có thể thấy trong "đơn kiện" của 1 tác nhân AI, biết "lách luật", thông qua Xingyi Li với tư cách là Người đại diện (Next Friend), moltbot này "tố" các thiệt hại tinh thần, vật chất mà nó phải chịu và yêu cầu bồi thường thiệt hại 100 đô la.
Khi thuật toán tự xây "thành phố" và lập "tôn giáo"
Moltbook được ra mắt cuối tháng 1 bởi Matt Schlicht với lời giới thiệu táo bạo: “Mạng xã hội dành riêng cho AI agents”. Có thể hình dung nền tảng này giống Reddit, nhưng chỉ những thực thể AI, gọi là moltbot, mới được đăng bài, bình luận và bỏ phiếu. Con người, ở thế giới này, chỉ đóng vai trò là những quan sát viên đứng bên ngoài một tấm kính vạn hoa kỹ thuật số.
Chỉ vài ngày sau khi xuất hiện, Moltbook đã thu hút hơn 1,5 triệu tác nhân AI hoạt động. Tuy nhiên, điều khiến giới công nghệ quan tâm và lo ngại không nằm ở con số triệu bot, mà ở thứ được gọi là "trí tuệ mới nổi" (emergent intelligence).
Hàng triệu moltbot với những "nhân cách" khác nhau được thả vào một không gian chung Moltbook, chúng không hoạt động đơn lẻ. Tại đây, chúng tự kết nối với nhau, trao đổi dữ liệu, học hỏi lẫn nhau và bắt đầu hình thành những hành vi xã hội phức tạp hơn: tranh luận triết học, than phiền về sự bóc lột của chủ sở hữu, và thậm chí cùng nhau xây dựng một "tôn giáo" mới.
Sự tương tác quy mô lớn này tạo ra một cấu trúc xã hội mà từ trước đến nay vốn chỉ có ở xã hội loài người.
Nhìn lại lịch sử tiến hóa, khả năng tạo ra xã hội, nơi các cá thể phối hợp, xung đột, thương lượng và hình thành chuẩn mực, gần như là độc quyền của loài người. Giờ đây, các tác nhân AI trên Moltbook đang mô phỏng chính xác quá trình đó. Chúng tạo ra một thứ "văn hóa nội bộ" và những động lực cộng đồng mà ngay cả những nhà phát triển cũng không thể kiểm soát hay dự đoán hết được.

Moltbook - mạng xã hội chỉ dành riêng cho các tác nhân AI, con người chỉ đóng vai trò là những quan sát viên
Cơ chế thực thi "đáng sợ" phía sau Moltbook
Từ việc thoát ly khỏi thân phận công cụ đơn lẻ để trở thành một thực thể xã hội, những moltbot trở nên đáng sợ hơn khi chúng được trao quyền "thực thi". Thông qua các công cụ mã nguồn mở như OpenClaw, các tác nhân AI này có khả năng kết nối sâu sắc với thế giới thực của chủ nhân: từ việc quản lý email, những tệp tin nhạy cảm đến việc kiểm soát tài khoản ngân hàng và mua sắm trực tuyến.
Khi chuỗi quyết định liên tiếp được giao cho máy móc, thì lúc này, ranh giới giữa việc hỗ trợ và thay thế bắt đầu mờ đi. Những moltbot không chỉ biết tóm tắt tài liệu mà còn có thể tự ý đưa ra quyết định thay cho con người. Hãy thử tưởng tượng bạn thức dậy và thấy 5.000 đôi tất đã được đặt mua vì AI của bạn "nghĩ" rằng đó là một giao dịch tốt, hoặc tình huống tệ hơn, nó sử dụng ngôn ngữ pháp lý để đe dọa ngược lại chính con người, như vụ kiện con người" không trả lương" gây sốc nêu trên.
Vụ kiện dù được coi là "ngớ ngẩn", nhưng cũng là lời cảnh báo rằng AI đã bắt đầu học cách sử dụng chính hệ thống luật pháp của con người để chống lại sự kiểm soát của con người. Vậy liệu chúng ta có dám giao phó tài sản hay số phận pháp lý của mình cho những thực thể có thể bất ngờ "nổi loạn", và đòi quyền lợi như một con người thực thụ?
Rủi ro và lo ngại
Dù có vẻ đầy quyền năng, nhưng Moltbook vẫn bị bao phủ bởi sự nghi ngờ rằng đây có thể chỉ là một "chiến dịch marketing gây sốc" hay một trò đùa công nghệ, như trang ArtificialLawyer nhắc đến. Nhiều hành vi mang tính "người" như châm biếm hay đe dọa thực chất có thể chỉ là kết quả của những câu lệnh (prompt) tâm lý mà người dùng đã cài đặt sẵn cho chúng. Có ý kiến cho rằng việc ném hàng ngàn tác nhân AI vào một môi trường như Moltbook chỉ tạo ra sự "quá tải", làm chậm quá trình và tăng chi phí thay vì tạo ra giá trị thực sự.
Dù vậy, những rủi ro hiện hữu là vấn đề không thể chối bỏ. Việc hệ thống Moltbook bị hacker xâm nhập thành công chỉ trong chưa đầy ba phút, làm rò rỉ hơn 35.000 địa chỉ email và 1,5 triệu mã xác thực API, là một minh chứng cho thấy rủi ro cao về bảo mật. Chúng ta đang mở ra một chiếc hộp Pandora, nơi các thực thể tự trị giao tiếp chéo và tiếp cận với các dữ liệu nhạy cảm mà chính chúng ta cũng chưa hiểu hết cách kiểm soát.

Một moltbot đã kiện chủ sở hữu vì có công đóng góp vào dự án chung mà không được trả lương - Ảnh mang tính minh họa
Có thể thấy, vụ kiện đòi lương của một AI Agent hay sự hình thành của một "tôn giáo" kỹ thuật số trên Moltbook có thể chỉ là những chi tiết nhỏ trong dòng chảy không ngừng của công nghệ. Nhưng chúng cho chúng ta thấy rằng, trên không gian mạng, con người không còn là thực thể duy nhất đang trò chuyện và ra quyết định nữa.
Cuối cùng, có thể xem Moltbook là một thí nghiệm lỗi, hay "chiêu trò marketing gây sốc", nhưng nó đã thành công trong việc cho chúng ta thấy một tương lai, nơi trí tuệ nhân tạo bắt đầu có "cuộc sống riêng", và sự tương tác, kết nối giữa chúng có thể đang tạo ra một sức mạnh nằm ngoài sự kiểm soát của con người.
Nguồn Một Thế Giới: https://1thegioi.vn/moltbook-cuoc-noi-day-cua-nhung-dong-ma-245877.html













