Chuyên gia cảnh báo: ‘Nếu chúng ta tiếp tục điều này, mọi người sẽ bị tận diệt’, kêu gọi dập tắt hoàn toàn AI
Một chuyên gia hàng đầu trong lĩnh vực AI cho biết, xét theo các điều kiện hiện tại hoặc thậm chí trong “tương lai gần”, nhân loại chưa sẵn sàng cho một AI mạnh mẽ, đồng thời cho biết thêm rằng bức thư ngỏ gần đây kêu gọi một lệnh dừng phát triển trí tuệ nhân tạo tiên tiến trong sáu tháng là đang “chưa nói hết mức độ nghiêm trọng của tình hình hiện tại.”
“Vấn đề mấu chốt không phải là trí thông minh ‘có tính cạnh tranh với con người’ (như bức thư ngỏ đó đã đề cập); mà là điều gì xảy ra sau khi AI đạt được trí thông minh hơn cả nhân loại,” ông Eliezer Yudkowsky, một nhà lý luận về quyết định và nhà nghiên cứu AI hàng đầu cho biết trong một bài bình luận trên tạp chí Time hôm 29/03. “Nhiều nhà nghiên cứu lão làng về những vấn đề này, bao gồm cả bản thân tôi, dự đoán rằng kết quả có khả năng cao nhất của việc xây dựng một AI thông minh siêu phàm, dưới dạng thức hầu như khác xa với tình huống hiện tại, là mọi người trên Trái đất sẽ bị diệt vong theo đúng nghĩa bề mặt.”
“Không phải kiểu như ‘có thể là một cơ hội xa vời nào đó,’ mà ‘đó là điều hiển nhiên sẽ xảy ra.’ Về nguyên tắc, không phải là quý vị không thể sống sót khi tạo ra thứ gì đó thông minh hơn mình nhiều; mà là điều này sẽ đòi hỏi sự chính xác và sự chuẩn bị kỹ lưỡng cũng như những hiểu biết sâu sắc về khoa học mới, và có lẽ không cần các hệ thống AI bao gồm các dãy phân số cự đại khó hiểu.”
Sau sự phát triển bùng nổ và mức độ phổ biến gần đây của ChatGPT, một số nhà lãnh đạo doanh nghiệp và nhà nghiên cứu, hiện đã lên tổng cộng 1,843 người, bao gồm cả ông Elon Musk và ông Steve Wozniak, đã ký một lá thư kêu gọi “tất cả các phòng thí nghiệm AI ngay lập tức tạm dừng việc đào tạo các hệ thống AI mạnh mẽ hơn GPT-4 trong ít nhất 6 tháng.” GPT-4, được công bố hồi tháng Ba, là phiên bản mới nhất của ChatGPT, một chatbot của OpenAI.
AI ‘không quan tâm’ và sẽ đòi hỏi các quyền
Ông Yudkowsky dự đoán rằng nếu không có sự chuẩn bị cẩn thận, thì AI sẽ có những nhu cầu rất khác so với con người, cũng như một khi AI tự nhận thức được thì sẽ “không quan tâm đến chúng ta” cũng như bất kỳ sinh mệnh có khả năng nhận thức nào khác. “Loại quan tâm [dành cho con người] đó về nguyên tắc có thể được đưa vào một AI nhưng chúng tôi chưa sẵn sàng và hiện chưa biết làm thế nào.” Đây là lý do tại sao ông ấy kêu gọi ngừng hoàn toàn.
Nếu không biết cách cảm nhận cuộc sống giống như con người, thì AI sẽ đơn giản là xem toàn bộ nhân loại và các sinh vật là “được tạo thành từ các nguyên tử mà nó có thể sử dụng cho mục đích khác.” Và nhân loại hầu như không thể làm gì để ngăn chặn cỗ máy này. Ông Yudkowsky đã so sánh tình huống này với “một đứa trẻ 10 tuổi đang cố gắng chơi cờ vua với Stockfish 15.” Chưa có người chơi cờ nào có thể đánh bại Stockfish, vốn được xem là một kỳ tích bất khả thi.
Vị chuyên gia kỳ cựu trong ngành AI này đã yêu cầu các độc giả hình dung về công nghệ AI khi không còn bị trói buộc trong các giới hạn của internet.
“Hãy hình dung về một nền văn minh hoàn toàn xa lạ, vốn suy nghĩ với tốc độ gấp hàng triệu lần con người, ban đầu chỉ giới hạn trong các máy điện toán — trong một thế giới của những sinh vật, mà xét từ góc độ của AI, là rất ngu ngốc và rất chậm chạp.”
AI sẽ mở rộng tầm ảnh hưởng của mình ra bên ngoài vùng ngoại vi của các mạng vật lý và có thể “xây dựng các dạng sống nhân tạo” bằng cách sử dụng các phòng thí nghiệm nơi protein được sản xuất từ các chuỗi DNA.
Ông cảnh báo, kết quả cuối cùng của việc xây dựng một AI toàn năng, theo các điều kiện hiện tại, sẽ là sự hủy diệt của “mọi thành viên loài người và toàn bộ sự sống sinh học trên Trái Đất.”
Ông Yudkowsky đổ lỗi cho OpenAI và DeepMind — hai trong số các phòng thí nghiệm nghiên cứu AI hàng đầu thế giới — vì đã không có bất kỳ sự chuẩn bị hoặc giao thức cần thiết nào liên quan đến vấn đề này. OpenAI thậm chí còn dự trù để chính AI thực hiện việc điều chỉnh để phù hợp với các giá trị của con người. OpenAI cho biết: “Chúng [AI] sẽ làm việc cùng với con người để bảo đảm rằng những thế hệ tiếp theo của chúng sẽ phù hợp hơn với con người.”
Ông Yudkowsky cho biết, “Phương thức hành động này “đủ để khiến bất kỳ người nhạy cảm nào cũng phải hoảng sợ.”
Ông nói thêm rằng con người không thể giám sát hoặc phát hiện một cách toàn diện các hệ thống AI tự nhận thức. Những bộ óc kỹ thuật số có ý thức biết đòi hỏi “nhân quyền” có thể tiến triển đến một mức con người không thể sở hữu hoặc kiểm soát hệ thống này nữa.
“Nếu quý vị không chắc liệu mình có đang tạo ra một AI tự nhận thức hay không, thì điều này đáng báo động không chỉ vì những hậu quả về mặt đạo đức của phần ‘tự nhận thức,’ mà còn bởi vì sự không chắc chắn có nghĩa là quý vị không biết mình đang làm gì, thì điều đó thật nguy hiểm và quý vị nên dừng lại.”
Không giống như khi làm các thí nghiệm khoa học khác với quá trình dần dần có được kiến thức và khả năng, con người không thể làm được như vậy với trí thông minh siêu phàm, bởi vì nếu làm thí nghiệm sai với trí thông minh này trong lần thử đầu tiên, thì sẽ không có các cơ hội thứ hai “vì quý vị đã bị tiêu diệt.”
‘Hãy dập tắt AI’
Ông Yudkowsky cho biết nhiều nhà nghiên cứu nhận thức được rằng “chúng ta đang lao đầu vào một thảm họa” nhưng lại không lên tiếng về điều đó.
Quan điểm này không giống với quan điểm của những người ủng hộ như ông Bill Gates, người gần đây đã ca ngợi sự phát triển của trí tuệ nhân tạo. Ông Gates tuyên bố rằng sự phát triển của AI là “căn bản như việc tạo ra bộ vi xử lý, máy điện toán cá nhân, Internet, và điện thoại di động. AI sẽ thay đổi cách mọi người làm việc, học tập, đi lại, chăm sóc sức khỏe, và giao tiếp với nhau. Toàn bộ các ngành công nghiệp sẽ định hướng lại xung quanh lĩnh vực này. Các doanh nghiệp sẽ tự tạo nên sự khác biệt cho chính mình dựa vào mức độ thành thạo mà họ sử dụng công nghệ này.”
Ông Gates cho biết AI có thể giúp thực hiện một số nghị trình cấp tiến, bao gồm biến đổi khí hậu và các bất bình đẳng về kinh tế.
Trong khi đó, ông Yudkowsky kêu gọi tất cả các giới quyền uy, bao gồm cả chính phủ và quân đội trên thế giới, chấm dứt vô thời hạn các hoạt động đào tạo AI quy mô lớn và đóng cửa tất cả các trang trại máy điện toán lớn nơi AI đang được phát triển. Ông cho biết thêm rằng AI chỉ nên được giới hạn trong việc giải quyết các vấn đề trong sinh học và công nghệ sinh học, và không nên được đào tạo để đọc “văn bản từ internet” hoặc ở “mức độ mà chúng bắt đầu nói chuyện hoặc hoạch định.”
Về AI, thì sẽ không có chạy đua vũ trang. “Rằng tất cả chúng ta đều sẽ sống hoặc bị tiêu diệt cùng một lúc, trong tình huống này, không phải là một chính sách mà là một điều đương nhiên.”
Ông Yudkowsky kết luận bằng cách nói rằng, “Chúng ta chưa sẵn sàng. Chúng ta đang không đi đúng hướng để sẵn sàng nhiều hơn trong tương lai gần. Nếu chúng ta tiếp tục điều này, thì tất cả mọi người sẽ bị tận diệt, kể cả những trẻ em vốn không hề lựa chọn điều này và đã không làm điều gì sai.”
Nhã Đan biên dịch
Quý vị tham khảo bản gốc từ The Epoch Times