OpenAI ngăn chặn các hoạt động gây ảnh hưởng có liên quan đến Trung Quốc, Nga và các quốc gia khác
Những người đứng sau các hoạt động này đã sử dụng các công cụ của OpenAI để tạo bình luận, bài viết, hoặc tạo tên hoặc tiểu sử giả cho các tài khoản mạng xã hội.
OpenAI thông báo rằng công ty đã ngăn chặn năm hoạt động gây ảnh hưởng từ bốn quốc gia đang sử dụng các công cụ trí tuệ nhân tạo (AI) của họ để thao túng dư luận và định hình kết quả chính trị trên Internet.
Công ty tuyên bố hôm 30/05 rằng các hoạt động gây ảnh hưởng bí mật này bắt nguồn từ Nga, Trung Quốc, Iran, và Israel. Những người đứng sau các hoạt động này đã sử dụng các công cụ của OpenAI để tạo bình luận, bài viết, hoặc tạo tên hoặc tiểu sử giả cho các tài khoản mạng xã hội trong ba tháng qua.
Báo cáo cho thấy nội dung do các hoạt động này thúc đẩy nhắm vào nhiều vấn đề thời sự, bao gồm những lời chỉ trích chính quyền Trung Quốc từ các nhà bất đồng chính kiến Trung Quốc và từ chính phủ các quốc gia khác, các diễn biến chính trị ở Hoa Kỳ và châu Âu, việc Nga xâm lược Ukraine, và cuộc xung đột ở Gaza.
Tuy nhiên, những hoạt động như vậy đã không đạt được mục đích làm tăng đáng kể lượng tương tác của khán giả qua các dịch vụ của công ty, OpenAI cho biết trong một tuyên bố.
Công ty đã tìm thấy các xu hướng sử dụng công cụ AI của những người đứng sau các hoạt động này, bao gồm tạo nội dung mới, kết hợp cũ và mới giữa tài liệu do AI tạo ra và các loại nội dung khác, giả mạo sự tương tác bằng cách tạo câu trả lời cho các bài đăng trên mạng xã hội của chính họ, và các hoạt động nâng cao năng suất như tóm tắt bài viết mạng xã hội.
Mạng lưới ủng hộ Bắc Kinh
OpenAI tuyên bố rằng họ đã ngăn chặn một hoạt động từ mạng lưới tuyên truyền và thông tin sai lệch ủng hộ Bắc Kinh tên là Spamouflage. Hoạt động tại Trung Quốc này đã sử dụng mô hình AI của công ty để tìm kiếm lời khuyên về các hoạt động truyền thông xã hội, nghiên cứu tin tức và sự kiện thời sự, đồng thời tạo các nội dung bằng tiếng Trung, tiếng Anh, tiếng Nhật, và tiếng Hàn.
Phần lớn nội dung do mạng lưới Spamouflage tạo ra là các chủ đề ca ngợi chính quyền cộng sản Trung Quốc, chỉ trích chính phủ Hoa Kỳ, và nhắm vào các nhà bất đồng chính kiến Trung Quốc.
Những nội dung như vậy đã được đăng trên nhiều nền tảng xã hội, trong đó có X, Medium, và Blogspot. OpenAI phát hiện ra rằng vào năm 2023, hoạt động của Trung Quốc đã tạo ra các bài báo nói rằng Nhật Bản đã gây ô nhiễm môi trường qua việc xả nước thải từ nhà máy điện hạt nhân Fukushima. Diễn viên kiêm nhà hoạt động Tây Tạng Richard Gere và nhà bất đồng chính kiến Trung Quốc Thái Hà (Cai Xia) cũng là mục tiêu của mạng lưới này.
Mạng lưới này cũng sử dụng mô hình OpenAI để gỡ lỗi code và tạo nội dung cho một trang web tiếng Trung nhằm tấn công những người bất đồng chính kiến Trung Quốc, gọi họ là “những kẻ phản bội.”
Năm ngoái, Facebook đã phát hiện ra sự liên kết giữa Spamouflage và cơ quan chấp pháp Trung Quốc, lưu ý rằng nhóm này đã quảng bá các chiến dịch ủng hộ Bắc Kinh trên mạng xã hội kể từ năm 2018. Công ty đã xóa khoảng 7,700 tài khoản Facebook và một trăm trang, đồng thời xóa các tài khoản Instagram có liên quan đến các hoạt động gây ảnh hưởng thúc đẩy những câu chuyện tích cực về Bắc Kinh và những bình luận tiêu cực về cả Hoa Kỳ lẫn những người chỉ trích chính quyền Trung Quốc.
Các hoạt động của Nga, Israel, và Iran
OpenAI cũng tìm thấy hai hoạt động từ Nga, một trong số đó được gọi là Doppelganger. Hoạt động này sử dụng các công cụ của OpenAI để tạo ra các bình luận bằng nhiều ngôn ngữ để đăng trên X và 9GAG. Doppelganger còn sử dụng công cụ AI để dịch các bài viết bằng tiếng Anh và tiếng Pháp rồi biến các nội dung này thành bài đăng trên Facebook.
Công ty tuyên bố rằng hoạt động còn lại là một mạng lưới chưa từng được báo cáo trước đây của Nga, tên là Bad Grammar, chủ yếu hoạt động trên Telegram và tập trung vào Ukraine, Moldova, Hoa Kỳ và các nước vùng Baltic. Mạng lưới này đã sử dụng các công cụ OpenAI để gỡ lỗi code cho một bot Telegram tự động đăng thông tin trên nền tảng này. Chiến dịch này đã tạo ra những bình luận chính trị ngắn bằng tiếng Nga và tiếng Anh về cuộc chiến Nga-Ukraine và tình hình chính trị Hoa Kỳ.
Công ty mẹ ChatGPT nhận thấy một hoạt động từ Israel liên quan đến công ty tiếp thị chính trị STOIC có trụ sở tại Tel Aviv và hoạt động còn lại là từ Iran. Cả hai đều sử dụng ChatGPT để tạo bài viết. Iran đã đăng những nội dung tạo ra được trên một trang web liên quan đến trang web của hoạt động của Iran, trong khi Israel đăng bình luận của mình trên nhiều nền tảng, bao gồm X, Facebook và Instagram.
Hôm 29/05, Facebook đã công bố một báo cáo hàng quý, tiết lộ rằng nội dung lừa đảo “có thể do AI tạo ra” đã được đăng trên nền tảng của họ. Báo cáo nêu rằng Meta đã ngăn chặn sáu hoạt động gây ảnh hưởng bí mật trong quý đầu tiên, bao gồm một mạng có trụ sở tại Iran và một mạng khác từ STOIC.
OpenAI phát hành ChatGPT ra công chúng vào tháng 11/2022. Chatbot này nhanh chóng trở thành một hiện tượng toàn cầu, thu hút hàng trăm triệu người dùng nhờ khả năng trả lời câu hỏi và trò chuyện về nhiều chủ đề.