Ông Bill Gates: ‘Có khả năng AI sẽ mất kiểm soát’
Mới đây, ông Bill Gates đã ca ngợi sự phát triển của trí tuệ nhân tạo, mối quan hệ của ông với OpenAI, và đưa ra một cảnh báo cấp bách về tình huống được các chuyên gia về các lĩnh vực khác, trong đó có ông Elon Musk, mô tả theo cách khác.
Hôm 21/03, người đồng sáng lập Microsoft này đã bắt đầu bài đăng trên GatesNotes về AI với giọng văn đầy hy vọng: “Sự phát triển của AI cũng căn bản như việc tạo ra bộ vi xử lý, máy điện toán cá nhân, Internet, và điện thoại di động. AI sẽ thay đổi cách mọi người làm việc, học tập, đi lại, tiếp nhận dịch vụ chăm sóc sức khỏe, và giao tiếp với nhau. Toàn bộ các ngành nghề sẽ định hướng lại xung quanh AI. Các doanh nghiệp sẽ thể hiện sự khác biệt của họ thông qua việc họ sử dụng AI tốt như thế nào.”
Ông Gates nói rằng AI có thể giúp thực hiện một số nghị trình cấp tiến, trong đó có biến đổi khí hậu và bất bình đẳng kinh tế, nhưng công nghệ này “gây rối,” và sẽ “khiến mọi người khó chịu.”
“AI cũng mắc sai lầm thực tế và gặp các ảo giác.” Các ảo giác AI là các phản ứng tự tin của AI không dựa trên dữ liệu đào tạo của nó. Ảo giác thường xuyên được xem là một vấn đề chủ yếu với các mô hình ngôn ngữ lớn như ChatGPT.
Ông Gate cho biết, “Ngoài ra, những tiến bộ trong lĩnh vực AI sẽ cho phép tạo ra một đại diện cá nhân. Hãy coi AI như một phụ tá cá nhân kỹ thuật số: AI sẽ xem các thư điện tử mới nhất của quý vị, biết về các cuộc họp mà quý vị tham dự, đọc những gì mà quý vị không muốn bận tâm.”
Trong ngành chăm sóc sức khỏe, những phụ tá cá nhân này sẽ tham gia các cuộc họp của công ty, và đảm nhận các công việc hành chính như “nộp hồ sơ yêu cầu bảo hiểm, giải quyết thủ tục giấy tờ, và soạn thảo ghi chú khi thăm khám bác sĩ.” Trong giai đoạn sau, “những Ai này sẽ có thể dự đoán các tác dụng phụ và tìm ra các mức liều lượng.”
Về lĩnh vực giáo dục, ông Gates cho biết: “AI sẽ biết sở thích và phong cách học tập của quý vị để có thể điều chỉnh nội dung sẽ thu hút quý vị học tập. AI sẽ đo lường sự hiểu biết của quý vị, thông báo khi quý vị sao nhãng, và hiểu loại động lực mà quý vị thấy hứng thú. AI sẽ đưa ra phản ứng ngay lập tức.”
Mặt trái của AI
Ông Gates bắt đầu phần này với thực tế là AI không hiểu “bối cảnh đối với một yêu cầu của con người”, dẫn đến “các kết quả kỳ lạ”. Ví dụ: “khi quý vị hỏi lời khuyên về chuyến đi mà quý vị muốn thực hiện, AI có thể đề nghị các khách sạn không tồn tại.”
Mặc dù các vấn đề kỹ thuật như vậy sẽ được giải quyết, nhưng có một số vấn đề gây ra một nguy hiểm lớn hơn.
“Ví dụ, có mối đe dọa mà những người dùng AI gây ra. Giống như hầu hết các phát minh, trí tuệ nhân tạo có thể được sử dụng cho mục đích tốt hoặc xấu.”
Sau đó, ông nói thêm, “Sau đó, có khả năng AI sẽ vượt khỏi tầm kiểm soát. Liệu một cỗ máy có thể quyết định rằng con người là một mối đe dọa, kết luận rằng lợi ích của nó khác với lợi ích của chúng ta hay đơn giản là ngừng quan tâm đến chúng ta?”
Sau đó, ông Gates tiếp tục nói về các AI siêu thông minh — một thuật toán học tập chạy với tốc độ của một chiếc máy điện toán — có thể là “một thập niên hoặc một thế kỷ nữa”.
“Những AI ‘có năng lực’ này, như chúng đã biết, có lẽ sẽ có thể thiết lập các mục tiêu của riêng chúng. Những mục tiêu đó sẽ là gì? Điều gì xảy ra nếu chúng mâu thuẫn với lợi ích của nhân loại?”
Ông Gates đã đề cập đến mối quan hệ của ông với OpenAI — công ty đứng sau ChapGPT — từ năm 2016. Hồi cuối tháng Một, OpenAI và Microsoft đã chia sẻ một thông báo về quan hệ đối tác và đầu tư của họ.
OpenAI sử dụng nền tảng đám mây Azure của Microsoft. Microsoft đang đầu tư 10 tỷ USD vào OpenAI, dựa trên các vòng tài trợ trước đó được thực hiện hồi năm 2019 và năm 2021. OpenAI và Microsoft có một cấu trúc đối tác phức tạp vì nền tảng AI này vẫn là một công ty “vì lợi nhuận tối đa” trong khi các hoạt động của AI là do tổ chức bất vụ lợi OpenAI quản lý.
Tuy nhiên, không phải ai cũng có một cách nhìn tích cực về AI cũng như mối quan hệ của ông Gates với OpenAI.
Phản ứng không mấy lạc quan của ông Elon Musk
Hôm 27/03, ông Elon Musk đã nói trong một tweet, “Tôi nhớ những cuộc gặp đầu tiên với ông Gates. Sự hiểu biết của ông ấy về AI còn hạn chế. Bây giờ vẫn vậy.”
Mối quan hệ của ông Musk với OpenAI đã bắt đầu hồi năm 2015 khi dự án này được khai triển cùng với những người kỳ cựu khác trong ngành như ông Sam Altman của Y Combinator và ông Ilya Sutskever, một nhà khoa học nghiên cứu tại Google. Ông Musk là một trong những nhà tài trợ ban đầu của OpenAI. Hồi năm 2018, ông đã rời khỏi tổ chức này, có thể do xung đột lợi ích với bộ phận AI của Tesla.
Nói chung, ông Musk chưa đưa ra một bức tranh lạc quan nào về AI, không giống như ông Gates. Ông đã nói trong một tweet hồi năm 2014, “Chúng ta cần phải vô cùng cẩn trọng với AI. Có khả năng nguy hiểm hơn vũ khí hạt nhân.”
Trong một tweet hồi tháng 12/2022, ông nói, “ChatGPT tốt đến đáng sợ. Chúng ta không còn xa công nghệ AI mạnh đến mức nguy hiểm nữa.”
Sau sự phổ biến mới đây và sự phát triển bùng nổ của ChatGPT, ông Musk cùng với một số chuyên gia khác trong lĩnh vực này, hiện gồm 1,377 chuyên gia, đã ký vào một bức thư ngỏ có nhan đề “Hãy Tạm Dừng Các Thí Nghiệm AI Lớn” kêu gọi “tất cả các phòng thí nghiệm AI ngay lập tức tạm dừng ít nhất 6 tháng đào tạo những hệ thống AI nào có năng lực hơn GPT-4.”
GPT-4 là phiên bản mới nhất của ChatGPT, được phát hành hồi tháng Ba.
Bức thư này đã bắt đầu bằng cách nói rằng AI nên được “dự trù và quản lý với sự quan tâm và các nguồn lực tương xứng” nhưng điều đó đang không diễn ra.
Trong bối cảnh AI trở nên “có tính cạnh tranh với con người trong các nhiệm vụ chung,” bức thư đặt câu hỏi: “Chúng ta có nên để máy móc tràn ngập các kênh thông tin của mình với tuyên truyền và [thông tin] sai sự thật không? Chúng ta có nên tự động hóa tất cả các công việc, bao gồm cả những công việc mang lại niềm vui không? Chúng ta có nên phát triển những bộ óc phi nhân tính mà cuối cùng có thể đông hơn, thông minh hơn, nhanh bị lỗi thời và thay thế chúng ta không? Chúng ta có nên mạo hiểm cho việc mất kiểm soát nền văn minh của mình không?”
“Những quyết định như vậy không được phép giao phó cho các nhà lãnh đạo công nghệ không được dân bầu.”
Bức thư này kêu gọi “các quy định an toàn” trong việc xây dựng công nghệ như vậy với các nhà phát triển AI làm việc song song với các nhà hoạch định chính sách. Các hệ thống này phải làm cho AI trở nên “an toàn vượt trên một sự nghi ngờ hợp lý.”
Thanh Nhã biên dịch
Quý vị tham khảo bản gốc từ The Epoch Times