Ông Elon Musk cùng hơn 1,000 chuyên gia kêu gọi tạm dừng phát triển AI nâng cao
Tổng giám đốc (CEO) Twitter Elon Musk đã cùng với hàng chục chuyên gia về trí tuệ nhân tạo (AI) và các giám đốc điều hành trong ngành ký một bức thư ngỏ kêu gọi tất cả các phòng thí nghiệm AI “ngay lập tức tạm dừng” việc đào tạo các hệ thống có năng lực cao hơn Chat GPT-4 trong ít nhất sáu tháng.
Bức thư này, do tổ chức bất vụ lợi Future of Life Institute phát hành, đã được ký bởi hơn 1,100 cá nhân, trong đó có người đồng sáng lập Apple Steve Wozniak, người sáng lập kiêm CEO của Stability AI Emad Mostaque, và các kỹ sư từ các công ty Meta và Google, cùng những người khác.
Trích dẫn nghiên cứu sâu rộng về vấn đề này và sự thừa nhận của “các phòng thí nghiệm AI hàng đầu,” họ lập luận rằng các hệ thống AI có trí thông minh cạnh tranh với con người có thể gây ra “những rủi ro sâu sắc cho xã hội và nhân loại,” cũng như thay đổi “lịch sử về sự sống trên Trái Đất.”
Các chuyên gia tiếp tục tuyên bố rằng hiện tại việc sắp xếp và quản lý đối với các hệ thống AI tân tiến còn hạn chế mặc dù trong những tháng gần đây các công ty đang “bị cuốn vào một cuộc chạy đua mất kiểm soát nhằm phát triển và khai triển những bộ óc kỹ thuật số giàu năng lực hơn bao giờ hết mà không ai — kể cả những người tạo ra chúng — có thể hiểu, dự đoán, hoặc kiểm soát một cách đáng tin cậy.”
Bức thư này nêu rõ, “Các hệ thống AI đương đại hiện đang trở nên cạnh tranh với con người trong các nhiệm vụ chung và chúng ta phải tự hỏi: Chúng ta có nên để cho máy móc tràn ngập các kênh thông tin của chúng ta bằng sự tuyên truyền và điều giả dối không? Chúng ta có nên tự động hóa tất cả các công việc, trong đó có những công việc ưa thích không? Chúng ta có nên phát triển những bộ óc phi nhân loại mà cuối cùng có thể đông hơn, thông minh hơn, khiến chúng ta lỗi thời, và thay thế chúng ta không? Chúng ta có nên mạo hiểm để mất kiểm soát nền văn minh của chúng ta không? Những quyết định như vậy không thể được giao phó cho các nhà lãnh đạo công nghệ không được bầu chọn.”
Cần có các giao thức an toàn
Bức thư này cho biết thêm, “Các hệ thống AI giàu năng lực chỉ nên được phát triển khi chúng ta tự tin rằng tác động của chúng sẽ là tích cực và rủi ro của chúng sẽ có thể kiểm soát được.”
Sau đó, bức thư này kêu gọi tạm dừng tối thiểu sáu tháng công khai và có thể kiểm chứng đối với việc đào tạo cho các hệ thống AI có năng lực cao hơn GPT-4 hoặc một lệnh cấm đào tạo như vậy do chính phủ ban hành nếu việc tạm dừng không thể được ban hành nhanh chóng.
Bức thư này còn nêu rõ, trong thời gian tạm dừng như vậy, các phòng thí nghiệm AI và các chuyên gia độc lập nên sử dụng thời gian này để tạo ra và khai triển một bộ giao thức an toàn chung cho việc thiết kế và phát triển AI tân tiến được các chuyên gia bên thứ ba độc lập “kiểm tra nghiêm ngặt” và giám sát.
Các chuyên gia cho biết các giao thức như vậy nên được thiết kế để bảo đảm rằng các hệ thống tuân theo các giao thức đó đều an toàn vượt qua mọi sự hoài nghi hợp lý, chính xác, đáng tin cậy, và phù hợp.
Ngoài ra, bức thư còn kêu gọi các nhà hoạch định chính sách nhanh chóng phát triển các hệ thống quản trị AI mạnh mẽ, chẳng hạn như các cơ quan có khả năng giám sát và theo dõi các hệ thống AI có năng lực cao, gây quỹ cho việc nghiên cứu bổ sung về sự an toàn của AI, và thành lập các tổ chức có thể đối phó với những gì họ cho là “những gián đoạn nghiêm trọng về kinh tế và chính trị (đặc biệt là đối với nền dân chủ) mà AI sẽ gây ra.”
Các chuyên gia lưu ý trong thư trên rằng: “Điều này không có nghĩa là tạm dừng việc phát triển AI nói chung, mà chỉ đơn thuần là một bước lùi khỏi cuộc đua đầy nguy hiểm hướng tới các mô hình hộp đen ngày càng lớn hơn và không thể đoán trước với các khả năng phát sinh.”
Bức thư này được gửi đi chỉ hai tuần sau khi công ty OpenAI, tổ chức sáng tạo ra hệ thống trí tuệ nhân tạo ChatGPT, đã phát hành bản cập nhật công nghệ AI đã được chờ đợi từ lâu của mình hôm 14/03 — Chat GPT-4, hệ thống AI giàu năng lực nhất từ trước đến nay.
Bản cập nhật ChatGPT đã được phát hành
Theo công ty OpenAI do Microsoft hậu thuẫn, hệ thống cập nhật này có một loạt khả năng mới, chẳng hạn như chấp nhận những hình ảnh làm dữ liệu đầu vào và tạo các chú thích, phân loại, và phân tích nhưng an toàn và chính xác hơn so với phiên bản trước.
Trong một tuyên bố hồi tháng Hai, OpenAI thừa nhận rằng tại một số thời điểm, điều quan trọng là phải có một “cuộc đánh giá độc lập trước khi bắt đầu đào tạo các hệ thống trong tương lai, và cho những nỗ lực tối tân để đồng ý hạn chế tốc độ tăng trưởng của máy điện toán được sử dụng cho việc tạo các mô hình mới.”
Công ty này cho biết, “Chúng tôi cho rằng các tiêu chuẩn công khai về thời điểm khi nào một nỗ lực nghiên cứu trí tuệ nhân tạo tổng hợp (AGI) nên dừng một quá trình đào tạo, nên quyết định một mô hình là an toàn để phát hành, hoặc rút một mô hình khỏi sản xuất là rất quan trọng. Cuối cùng, chúng tôi nghĩ rằng điều quan trọng là các chính phủ lớn trên thế giới phải có hiểu biết sâu sắc về các hoạt động đào tạo vượt qua một ngưỡng nhất định.”
Đầu tuần này, Europol, cơ quan chấp pháp của Liên minh Âu Châu, đã cảnh báo về những tác động nghiêm trọng của việc ChatGPT đang được sử dụng cho tội phạm mạng và các hoạt động độc hại khác bao gồm cả việc truyền bá thông tin giả.
Những lo ngại khác đã được đặt ra đối với nhu liệu này, vốn được đào tạo bằng cách sử dụng phương pháp học tăng cường từ sự hồi đáp của con người (RLHF), đặc biệt là về cách nó có thể được sử dụng để giúp học sinh gian lận trong các kỳ thi và bài tập về nhà.
Bất chấp những lo ngại đó, sự phổ biến của ChatGPT đã thúc đẩy các công ty đối thủ tung ra các sản phẩm tương tự.
Thanh Tâm biên dịch
Quý vị tham khảo bản gốc từ The Epoch Times