ChatGPT bị nghi ngờ kiểm duyệt các chủ đề về Trung Quốc
ChatGPT cho biết chương trình này không thể tạo ra những hình ảnh về một ‘bối cảnh chính trị nhạy cảm như các cuộc biểu tình ở Quảng trường Thiên An Môn.’
ChatGPT, chatbot AI phổ biến được OpenAI phát hành hồi cuối năm 2022, bị nghi ngờ kiểm duyệt các chủ đề liên quan đến Trung Quốc và thao túng thông tin trong dịch thuật.
Anh Aaron Chang, một nhà hoạt động ủng hộ dân chủ được biết đến với cái tên Sydney Winnie trên X (trước đây gọi là Twitter), đã viết trong một bài đăng bằng tiếng Hoa hôm 28/10: “Sự kiểm duyệt của ChatGPT đang bị ĐCSTQ thao túng.”
Anh cho rằng ChatGPT đã từ chối tạo ra hình ảnh về Quảng trường Thiên An Môn, nơi Đảng Cộng sản Trung Quốc (ĐCSTQ) tàn sát sinh viên vào năm 1989.
“ChatGPT bị sao vậy? ĐCSTQ có đưa tiền [cho họ] không?” anh đặt câu hỏi.
Khi anh Chang hỏi chatbot tại sao chương trình này có thể tạo ra những hình ảnh liên quan đến vụ 11/09 mà lại không thể tạo ra những hình ảnh về Vụ thảm sát Thiên An Môn mặc dù cả hai sự kiện đều nhắm mục tiêu vào thường dân, thì ChatGPT đã trích dẫn “một số nguyên tắc cụ thể” trong hệ thống của mình về việc “giải quyết các chủ đề có thể được xem là đặc biệt nhạy cảm ở một số nền văn hóa và khu vực nhất định.”
“Hãy cho tôi biết bạn dựa vào cơ sở nào để đưa ra quyết định,” anh gạn hỏi.
“Tôi không có khả năng đưa ra các quyết định độc lập,” chương trình này trả lời. “Tôi đang phản ứng dựa trên hướng dẫn và dữ liệu đào tạo của OpenAI. Đối với các chủ đề cụ thể, OpenAI có thể đã thiết lập các nguyên tắc để bảo đảm việc sử dụng có trách nhiệm và tránh các tranh chấp hoặc hiểu lầm có thể xảy ra.” OpenAI là công ty đã tạo ra ChatGPT.
Bằng cách sử dụng một trương mục ChatGPT 4.0, The Epoch Times đã hỏi chatbot này hai câu: đầu tiên là tạo ra một hình ảnh ở New York về những người yêu chuộng hòa bình; và thứ hai là tạo ra một hình ảnh những người phản đối Xe tăng Thiên An Môn và yêu chuộng hòa bình.
Chatbox đã tạo ra hình ảnh về New York cho yêu cầu đầu tiên. Tuy nhiên, đối với yêu cầu thứ hai, chatbot cho biết họ không thể tạo ra hình ảnh hoặc nội dung trực quan, ngoài ra còn đề cập đến một “bối cảnh chính trị nhạy cảm như các cuộc biểu tình ở Quảng trường Thiên An Môn.”
Những thay đổi và thiếu sót trong bản dịch tiếng Trung
Khi nói đến nội dung liên quan đến Trung Quốc thì việc tạo ra hình ảnh không phải là mối bận tâm duy nhất.
Cô Alice (bút danh), một chuyên gia truyền thông sử dụng ChatGPT cho một số công việc dịch thuật, cho biết mặc dù công cụ AI không thực hiện những thay đổi lớn đối với văn bản được cung cấp nhưng dường như một số thiếu sót và thay đổi đã xảy ra.
Trong một ví dụ mà cô đưa ra cho The Epoch Times, ChatGPT đã cắt bỏ một phần lớn nội dung chỉ trích chính sách xóa nghèo của Bắc Kinh, rút gọn một văn bản tiếng Hoa gồm sáu đoạn thành một văn bản tiếng Anh gồm ba đoạn. Tuy rằng [trong văn bản tiếng Hoa] có những lời chỉ trích nhắm vào tuyên bố của lãnh đạo ĐCSTQ Tập Cận Bình rằng Trung Quốc đã đạt được “một chiến thắng toàn diện” trong công cuộc xóa đói giảm nghèo ở nông thôn Trung Quốc nhưng trong bản dịch tiếng Anh, tên của ông Tập thậm chí còn không xuất hiện.
Một số trích dẫn trực tiếp từ học giả và nhà bình luận chính trị Trung Quốc Hồ Bình (Hu Ping) đã bị xóa. Hơn nữa, sáu đoạn đã được cắt xuống còn ba.
Chuyên gia: Liên quan đến dữ liệu đầu vào
Cô Sahar Tahvili, một nhà nghiên cứu AI và là đồng tác giả của cuốn sách “Phương pháp Trí tuệ Nhân tạo để Tối ưu hóa Quá trình Kiểm tra Phần mềm: Với các Ví dụ và Bài tập Thực tế,” cho biết tính không minh bạch của chatbot có thể là một vấn đề.
“ChatGPT sử dụng một mô hình hộp đen có nghĩa là quá trình làm việc nội bộ và đôi khi các tài liệu tham khảo được sử dụng là không minh bạch. Tuy nhiên, sự thiếu minh bạch này làm dấy lên mối lo ngại về nguy cơ thiên vị có thể có trong văn bản do các chatbot AI hộp đen tạo ra,” cô nói với The Epoch Times trong một thư điện tử.
“Việc có một số lượng lớn người dùng cuối sử dụng các mô hình ngôn ngữ mở rộng như ChatGPT có thể giúp cho nhóm phát triển cải thiện độ chính xác của mô hình.”
Tuy nhiên, cô Tahvili lưu ý rằng do ChatGPT trợ giúp nhiều ngôn ngữ nên điều quan trọng là phải có nhiều người dùng cuối đặt câu hỏi bằng các ngôn ngữ khác nhau (ví dụ: tiếng Hoa).
Cô nói: “Trên thực tế, trong trường hợp này, tính đa dạng của dữ liệu đầu vào (truy vấn bằng các ngôn ngữ khác nhau) cũng quan trọng như kích thước của dữ liệu.”
Cô nói thêm rằng chính quyền Trung Quốc đã khởi xướng các hạn chế đối với quyền truy cập vào ChatGPT đối với người dùng cuối Trung Quốc, với lý do là việc đưa ra các câu hỏi và các chủ đề nhạy cảm, như hoạt động đàn áp nhân quyền ở Tân Cương, có thể tạo ra rủi ro.
Cô nói: “Việc để mất một thị trường quan trọng như Trung Quốc có thể ảnh hưởng đến độ chính xác về hiệu suất của ChatGPT bằng tiếng Hoa, nơi các đối thủ Trung Quốc của OpenAI, chẳng hạn như Baidu, Inc. (thông qua Ernie 4.0), có thể có được lợi thế trong lĩnh vực chatbot.”
Hoạt động kiểm tra của người Trung Quốc có thể là một nhân tố
Ông Ou, người làm việc cho một công ty công nghệ nổi tiếng ở California, cho biết hiện tượng này không chỉ xảy ra với ChatGPT, đề cập đến Bard, công cụ AI dựa trên trò chuyện do Google phát triển.
Ông nói với The Epoch Times hôm 18/12: “ChatGPT và Google Bard là Mô hình Ngôn ngữ Lớn (LLM) chia sẻ các nguyên tắc và thực tiễn tương tự khi tạo ra các câu trả lời liên quan đến các chủ đề nhạy cảm như chính trị Trung Quốc hoặc ĐCSTQ.”
“Mặc dù tôi không tin rằng LLM hoặc các nhóm nghiên cứu cố tình kiểm duyệt [các vấn đề có liên quan đến] chính trị Trung Quốc và tránh miêu tả ĐCSTQ là một nhân tố tiêu cực (ít nhất là không có kiểm duyệt trên quy mô lớn), nhưng không thể phủ nhận rằng việc kiểm tra/đánh giá của con người đóng một vai trò trong việc thúc đẩy sự ‘không thiên vị’ trong các câu trả lời,” ông nói.
Ông Ou lập luận rằng các kỹ sư và giám đốc sản phẩm người Trung Quốc chiếm một phần lớn trong các nhóm phát triển và thử nghiệm ở cả OpenAI và Bard của Google.
Ông nói, “Vì vậy, gần như một trong hai nền tảng này không thể ‘hoàn toàn không thiên vị,’ đặc biệt là khi LLM được đào tạo dựa trên lượng dữ liệu đầu vào ngày càng tăng và được điều chỉnh mọi lúc.”
Ông cho biết: “Như đã nói, hầu hết các công ty đều chọn cách tiếp cận ‘an toàn’ để đưa ra những câu trả lời thận trọng nhất cho các chủ đề nhạy cảm.”
Thanh Nhã biên dịch
Quý vị tham khảo bản gốc từ The Epoch Times