OpenAI: Cần có tổ chức như Cơ quan Năng lượng Nguyên tử Quốc tế để ngăn nguy cơ AI hủy diệt loài người

Các nhà lãnh đạo OpenAI cho biết cần có một tổ chức tương đương Cơ quan Năng lượng Nguyên tử Quốc tế để bảo vệ chống lại những rủi ro do trí tuệ nhân tạo (AI) 'siêu thông minh' gây ra.

Thuật ngữ "siêu thông minh" liên quan đến khái niệm về AI tự tiến hóa, trong đó AI có khả năng trở thành hệ thống tự phát triển, vượt qua sự hiểu biết và khả năng kiểm soát của con người.

Trong khi việc phát triển các hệ thống AI như vậy mang lại triển vọng lớn để giải quyết các vấn đề phức tạp và thúc đẩy các lĩnh vực khác nhau, có những lo ngại về những rủi ro tiềm ẩn nếu không được quản lý đúng cách.

Những nhà lãnh đạo OpenAI, công ty khởi nghiệp phát triển ChatGPT, đã kêu gọi áp đặt quy định về các AI “siêu thông minh”. Họ lập luận rằng cần có tổ chức tương đương với Cơ quan Năng lượng Nguyên tử Quốc tế (IAEA) để bảo vệ chúng ta khỏi nguy cơ vô tình tạo ra thứ gì đó có sức mạnh hủy diệt loài người.

Trong một ghi chú ngắn đăng trên trang web OpenAI, ba người đồng sáng lập công ty gồm Greg Brockman, Ilya Sutskever và Giám đốc điều hành Sam Altman kêu gọi thành lập một cơ quan quản lý quốc tế để bắt đầu làm việc về cách "kiểm tra hệ thống, yêu cầu kiểm toán, thử nghiệm tuân thủ các tiêu chuẩn an toàn và đặt hạn chế về mức triển khai cùng bảo mật" nhằm giảm thiểu nguy cơ mà các AI “siêu thông minh” có thể gây ra.

Họ viết: “Có thể hình dung rằng trong vòng 10 năm tới, các hệ thống AI sẽ vượt qua trình độ chuyên gia trong hầu hết các lĩnh vực và thực hiện nhiều hoạt động hiệu quả như một trong những tập đoàn lớn nhất hiện nay. Xét về mặt tích cực và tiêu cực, AI 'siêu thông minh' sẽ mạnh hơn so với các công nghệ khác mà nhân loại phải đối mặt trong quá khứ. Chúng ta có thể có một tương lai thịnh vượng hơn nhiều, nhưng phải quản lý rủi ro để đạt được điều đó. Với khả năng xảy ra rủi ro hiện hữu, chúng ta không thể chỉ phản ứng mà phải có cách tiếp cận tích cực”.

Trong tương lai ngắn hạn, ba nhà đồng sáng lập OpenAI kêu gọi có "mức độ phối hợp" giữa các công ty đang làm việc ở lĩnh vực nghiên cứu AI tiên tiến, nhằm đảm bảo việc phát triển các mô hình mạnh mẽ hơn tích hợp một cách suôn sẻ với xã hội nhưng vẫn ưu tiên sự an toàn. Sự phối hợp đó có thể thông qua một dự án do chính phủ dẫn đầu hoặc thỏa thuận tập thể để hạn chế sự phát triển khả năng của AI.

Các nhà nghiên cứu đã cảnh báo về những rủi ro tiềm ẩn của AI siêu thông minh trong nhiều thập kỷ, nhưng khi sự phát triển AI đang diễn ra nhanh chóng, những nguy cơ đó đã trở nên cụ thể hơn.

Trung tâm An toàn AI (CAIS) có trụ sở tại Mỹ, hoạt động nhằm “giảm thiểu rủi ro ở quy mô xã hội do AI gây ra”, đã nêu 8 loại rủi ro “thảm họa” và “hiện hữu” mà sự phát triển AI có thể gây ra.

Trong khi một số người lo lắng về việc AI mạnh mẽ sẽ hủy diệt hoàn toàn loài người, dù vô tình hay cố ý, CAIS mô tả những tác hại nguy hiểm khác. Theo CAIS, một thế giới trong đó hệ thống AI được chuyển giao công việc ngày càng nhiều có thể dẫn đến nhân loại "mất khả năng tự quản và hoàn toàn phụ thuộc vào máy móc", được mô tả là "sự suy yếu". Một nhóm nhỏ người kiểm soát các hệ thống mạnh mẽ có thể "biến AI thành một lực lượng tập trung", dẫn đến "khóa giá trị" (hệ thống phân tầng vĩnh viễn giữa kẻ cai trị và bị cai trị).

Các lãnh đạo OpenAI cho biết những nguy cơ đó đồng nghĩa “người dân trên khắp thế giới nên quyết định theo hình thức dân chủ về các giới hạn và thiết lập mặc định cho các hệ thống AI”, nhưng thừa nhận rằng họ chưa biết cách thiết kế một cơ chế như vậy. Tuy nhiên, các lãnh đạo OpenAI nói rằng việc tiếp tục phát triển các hệ thống AI mạnh mẽ đáng để mạo hiểm.

Các nhà lãnh đạo OpenAI cho biết AI siêu thông minh sẽ mạnh hơn các công nghệ khác mà nhân loại từng phải đối mặt trong quá khứ - Ảnh: Internet

Các nhà lãnh đạo OpenAI cho biết AI siêu thông minh sẽ mạnh hơn các công nghệ khác mà nhân loại từng phải đối mặt trong quá khứ - Ảnh: Internet

Tương tự nhận định của các lãnh đạo OpenAI, Emad Mostaque, Giám đốc điều hành Stability AI (có trụ sở tại London, thủ đô Anh), cho rằng AI sẽ trở nên thông minh hơn và hiệu quả hơn trong công việc để thay thế cho con người trong hầu hết các lĩnh vực.

Trong cuộc phỏng vấn của BBC, Emad Mostaque nói ông nhìn thấy một kịch bản trong đó internet tràn ngập các "tác nhân" không thể kiểm soát và "có nhiều khả năng" hơn con người.

Trường hợp xấu nhất là AI sinh sôi nảy nở và về cơ bản kiểm soát loài người”, Emad Mostaque cho hay.

Emad Mostaque dự đoán rằng AI sẽ có "tác động đến kinh tế lớn hơn cả đại dịch" về loại bỏ việc làm của con người.

Giám đốc điều hành Stability AI cũng cho rằng một ngày nào đó có thể xuất hiện sự phát triển đáng kinh ngạc về AI - điều sẽ gây ra áp lực khiến chính phủ phải đưa ra hành động chống lại công nghệ này. Ông mô tả sự phát triển này sẽ tương tự như cách mọi người bắt đầu quan tâm và lo ngại đại dịch hơn sau khi Tom Hanks nhiễm nCoV.

Stability AI sở hữu Stable Diffusion, công cụ vận hành bằng AI cho phép người dùng tạo hình ảnh từ lời nhắc bằng văn bản ngắn. Trong khi công nghệ của Stability AI đã gây chấn động các ngành công nghiệp, bản thân Emad Mostaque có cái nhìn bi quan về tương lai mà AI có thể gây ra.

Cách đây hơn 1 tuần, Sam Altman đã nói với Ủy ban Quyền riêng tư, Công nghệ và Luật pháp thuộc Thượng viện rằng việc sử dụng AI để can thiệp vào tính toàn vẹn cuộc bầu cử là "lĩnh vực đáng lo ngại".

Ông cho biết thêm rằng cần có các quy tắc và nguyên tắc hướng dẫn để điều chỉnh việc sử dụng AI trong các cuộc bầu cử.

Trong suốt nhiều tháng, các công ty lớn và nhỏ đã đua nhau đưa AI ra thị trường, đổ dữ liệu vô tận và hàng tỉ USD vào lĩnh vực này. Một số nhà phê phán lo ngại rằng AI sẽ làm gia tăng các mối nguy hại cho xã hội, bao gồm cả định kiến và thông tin sai lệch. Trong khi những người khác cảnh báo rằng AI có thể đe dọa sự tồn tại của loài người.

Trong phiên điều trần của Sam Altman trước Ủy ban Quyền riêng tư, Công nghệ và Luật pháp thuộc Thượng viện Mỹ, Thượng nghị sĩ Cory Booker cho biết: "Không có cách nào để ‘đặt thần đèn này vào trong chai’. Trên toàn cầu, AI đang bùng nổ". Cory Booker là một trong nhiều nhà làm luật Mỹ đặt câu hỏi cho Sam Altman về cách tốt nhất để điều chỉnh AI.

Thượng nghị sĩ Mazie Hirono nhấn mạnh về nguy cơ thông tin sai lệch khi cuộc bầu cử Tổng thống Mỹ năm 2024 đang đến gần. "Ví dụ, trong bối cảnh bầu cử, tôi nhìn thấy bức ảnh cựu Tổng thống Trump bị NYPD (Sở Cảnh sát Thành phố New York) bắt giữ và nó đã lan truyền nhanh chóng", bà Mazie Hirono nói và hỏi Sam Altman về việc liệu ông có coi bức ảnh giả mạo đó là có hại hay không.

Sam Altman trả lời rằng người sáng tạo ảnh AI nên nêu rõ rằng đó là ảnh được tạo ra chứ không phải thực tế.

Phát biểu trước Quốc hội lần đầu tiên, Sam Altman gợi ý rằng Mỹ nên xem xét yêu cầu cấp phép và kiểm định cho việc phát triển các mô hình AI.

Được yêu cầu đưa ra ý kiến về việc AI nào nên được cấp phép, Sam Altman cho biết một mô hình có thể thuyết phục hoặc thao túng niềm tin của con người sẽ là ví dụ về "ngưỡng quan trọng".

Ông cũng nói rằng các công ty nên có quyền từ chối việc sử dụng dữ liệu của họ cho việc huấn luyện AI, đây là một ý tưởng đang được thảo luận tại Đồi Capitol. Tuy nhiên, Sam Altman cho biết những tài liệu công khai trên web sẽ là tài nguyên có thể sử dụng.

Trước đó, Nhà Trắng đã triệu tập giám đốc điều hành các hãng công nghệ hàng đầu về AI, gồm cả Sam Altman, để giải quyết vấn đề về AI. Tổng thống Biden đã gặp Giám đốc điều hành OpenAI, Microsoft, Alphabet và Anthropic tại buổi họp ở Nhà Trắng để nói rõ rằng họ phải đảm bảo sản phẩm của mình an toàn trước khi được triển khai ra công chúng.

Sơn Vân

Nguồn Một Thế Giới: https://1thegioi.vn/openai-can-co-to-chuc-nhu-co-quan-nang-luong-nguyen-tu-quoc-te-de-ngan-nguy-co-ai-huy-diet-loai-nguoi-198303.html