Cách AI có thể theo dõi và thao túng cử tri
Các chuyên gia cho biết các chương trình AI có thể hiểu quý vị hơn cả bạn đời của quý vị
Các chương trình trí tuệ nhân tạo (AI) hiểu nhân loại chúng ta đến mức nào?
Trong hầu hết các trường hợp, điều đó diễn ra khá tốt, và theo một số cách tốt hơn những gì chúng ta biết.
Một nghiên cứu của các chuyên gia về AI tại Đại học Brigham Young, có nhan đề “Không chỉ Một mà Nhiều: Sử dụng các Mô hình Ngôn ngữ để Mô phỏng các Mẫu của Con người,” đã phát hiện ra rằng các chương trình AI dự đoán đã thể hiện mức độ nổi bật của cái mà họ gọi là “độ chính xác của thuật toán,” hoặc sự ánh xạ chính xác đến hành vi thực tế của con người.
“Bởi vì những công cụ AI này được đào tạo cơ bản về những thứ mà con người làm ra, những thứ chúng ta viết, tài liệu chúng ta tạo, trang web chúng ta viết, nên những tư liệu này có thể phản ánh lại cho chúng ta rất nhiều điều thú vị và quan trọng về bản thân chúng ta,” ông Ethan Busby, nhà tâm lý học chính trị và đồng tác giả của nghiên cứu nói trên, nói với The Epoch Times. “Giống như nếu ai đó đọc nhật ký của quý vị từ đầu đến cuối, thì họ sẽ biết rất nhiều điều về quý vị, và quý vị sẽ không thích tất cả những thứ này.”
“Tương tự như vậy,” ông Busby nói, “những công cụ này đã đọc rất nhiều thứ mà con người đã tạo ra, và chúng có thể sao chép hoặc nói lại cho chúng ta những điều về bản thân mà chúng ta không nhất thiết phải biết.”
Nghiên cứu này đã tìm cách phân tích hành vi của con người trong bối cảnh các cuộc bầu cử và hỏi xem một mô hình ngôn ngữ GPT-3 có thể dự đoán các kiểu bỏ phiếu chính xác đến mức nào dựa trên các yếu tố nhân khẩu học xã hội như giới tính, tuổi tác, địa điểm, tôn giáo, chủng tộc, và tình trạng kinh tế của một người. Các tác giả đã sử dụng những yếu tố này để tạo ra “các mẫu silicon,” hay nói cách khác là cá tính tổng hợp dựa trên các sự kết hợp khác nhau của những thuộc tính này.
Ông Busby nói: “Về cơ bản, quý vị có thể yêu cầu những công cụ này đặt bản thân chúng vào một khung suy nghĩ cụ thể và giả vờ về cơ bản là người này, giả vờ có những đặc điểm này.” Họ hỏi chương trình xem “các mẫu silicon” này sẽ bỏ phiếu như thế nào trong các chiến dịch cụ thể, sau đó họ so sánh những kết quả đó với hành vi thực tế của cử tri trong các cuộc bầu cử từ năm 2012 đến năm 2020, sử dụng dữ liệu từ các nghiên cứu của tổ chức Bầu cử Quốc gia Hoa Kỳ.
Ông Busby cho biết, ví dụ, liên quan đến cuộc bầu cử năm 2016, “chúng ta có thể nói, loại nhóm người nào sẽ trở thành then chốt ở Ohio?” Những gì họ phát hiện ra là AI đã nhanh chóng học cách dự đoán chính xác cách mọi người sẽ bỏ phiếu dựa trên các thuộc tính của họ.
Cánh tả và cánh hữu chỉ trích AI, khi AI khiến họ trả giá bằng các cuộc bầu cử
Trí tuệ nhân tạo rất hữu ích cho các tổ chức muốn nhắm mục tiêu vào những thứ như chiến dịch nhắn tin chính trị hoặc nỗ lực gây quỹ. Tuy nhiên, một số nhà phân tích chính trị đã báo động về điều này, cho rằng điều đó là không công bằng và can thiệp bầu cử. Tuy nhiên, mức độ phẫn nộ của họ phần lớn phụ thuộc vào việc liệu các ứng cử viên hoặc mục tiêu của họ thành công hay thất bại.
Hồi năm 2017, The Guardian, một tờ báo cánh tả của Anh, đã viết một loạt bài khẳng định rằng doanh nhân công nghệ theo phái bảo tồn truyền thống Robert Mercer, người được tờ báo này gọi là “tỷ phú dữ liệu lớn gây chiến với các hãng thông tấn thiên tả,” đã tài trợ cho một chiến lược tranh cử sử dụng AI để phá vỡ lối đưa tin của truyền thông thiên tả. Tờ báo này cho rằng điều này đã tác động bất hợp pháp đến các cử tri ủng hộ ông Donald Trump, dẫn đến việc ông giành chiến thắng trong cuộc bầu cử tổng thống năm 2016.
Sau đó, hồi năm 2020, Forbes, một ấn phẩm cánh hữu, đã phát hành một bài báo có nhan đề “Trí tuệ Nhân tạo đã Tác động đến Cuộc bầu cử Giữa nhiệm kỳ Như thế nào.” Bài báo này đã chỉ trích việc Đảng Dân Chủ sử dụng AI để nhắm mục tiêu các chiến dịch gây quỹ vào các nhà tài trợ có khả năng, cho phép họ chi tiêu ồ ạt nhiều hơn so với Đảng Cộng Hòa trong các cuộc đua sít sao và mang lại các kết quả khả quan cho Đảng Dân Chủ.
Những người chỉ trích AI nói rằng những chương trình này không chỉ được sử dụng để phân tích cử tri mà còn để thao túng cử tri. Một báo cáo năm 2022 của viện nghiên cứu Rand Corporation có nhan đề “Trí tuệ Nhân tạo, Deepfakes* và Thông tin sai lệch,” đã cảnh báo về “cuộc chiến thông tin sai lệch,” mặc dù phần lớn là theo cách nhìn cánh tả. Trong số các công cụ thao túng mà báo cáo này trích dẫn là hình ảnh hoặc video gây hiểu lầm được chia sẻ trên mạng xã hội, được gọi là meme.
“Nga đã sử dụng meme để nhắm mục tiêu vào cuộc bầu cử năm 2016 của Hoa Kỳ,” báo cáo này nêu rõ. “Trung Quốc đã sử dụng meme để nhắm vào người biểu tình ở Hồng Kông; và những người đang tìm cách đặt nghi vấn về tính hiệu quả của các loại vaccine ngừa virus corona hồi năm 2019 đã sử dụng meme như một công cụ yêu thích.” Theo Rand, những meme này cùng với “các trang web tin tức giả” đã “gieo rắc sự chia rẽ trong cử tri Mỹ và làm gia tăng việc áp dụng các thuyết âm mưu.”
Đưa AI từ áp dụng cho dân cư sang phân tích cá nhân
Mặc dù AI mang lại hiệu quả ở mức độ tổng hợp trong việc quan sát mọi người, phát hiện các mẫu, tìm hiểu thói quen của chúng ta và dựa vào đó suy luận xem chúng ta sẽ làm gì trong các tình huống khác nhau, nhưng việc chuyển xuống cấp độ cá nhân lại khó khăn hơn.
“Tôi nghĩ rằng ở cấp độ cá nhân, AI có thể ổn; nhưng AI không hoàn hảo. Việc dự đoán về những người cụ thể không hẳn là tốt, hầu như không tốt bằng việc dự đoán về các nhóm người và ở mức tổng hợp.”
Bất kỳ ai đã hỏi ChatGPT, một chương trình tra cứu sử dụng công nghệ AI vừa mới trở nên phổ biến, về bản thân họ hoặc những người họ biết thường thấy rằng một số thông tin là chính xác và một số là sai.
“Những mô hình này, tất cả chúng, ChatGPT và bất kỳ mô hình nào được Facebook hoặc những tổ chức khác sử dụng, đôi khi chúng có xu hướng được gọi là ‘gợi ảo giác,’” ông Busby nói. “Điều đó có nghĩa là những AI đó chỉ bịa đặt ra những điều không đúng sự thật.”
Tuy vậy, ông tin rằng AI sẽ sớm trở nên tốt hơn trong việc xác định rõ tình huống.
“Đúng là có rất nhiều áp lực từ các tập đoàn, chính trị gia, các chiến dịch — họ muốn biết người này sẽ phản ứng với thông điệp này như thế nào,” ông nói. “Tôi nghĩ họ sẽ chú trọng đến việc cố gắng phát triển kiểu chính xác đó, nhưng tôi không nghĩ chúng ta đã đạt được điều đó.”
Ở cấp độ cá nhân, một báo cáo năm 2019 trên tạp chí Scientific American có nhan đề “Internet Hiểu Quý vị Hơn Bạn đời của Quý vị”, đã phân tích một chương trình có tên là Apply Magic Sauce. Chương trình này yêu cầu các đối tượng cung cấp một số thông tin đầu vào, chẳng hạn như thứ gì đó mà họ đã viết, chẳng hạn như thư điện tử hoặc blog, cùng với thông tin về hoạt động truyền thông xã hội của họ.
Dựa trên những thông tin đầu vào này, Apply Magic Sauce có thể tạo ra “một biểu đồ tâm lý, hoặc hồ sơ cá nhân chi tiết, bao gồm tuổi và giới tính được cho là của quý vị, liệu quý vị có dễ bị lo lắng hay căng thẳng hay không, quý vị dễ bị kích động nhanh như thế nào, và liệu quý vị theo phái bảo tồn truyền thống hay thiên tả về xã hội và chính trị.” Báo cáo này cho thấy bằng cách phân tích lượt “thích” của mọi người trên mạng xã hội, các chương trình AI có thể vẽ nên bức chân dung chính xác về tính cách của họ.
“Nếu phần mềm này chỉ có ít lượt thích, ở mức 10 [lượt thích], để phân tích, thì phần mềm này cũng có thể đánh giá người đó ở mức một đồng nghiệp đánh giá,” báo cáo này nêu rõ. “Với 70 lượt thích, thì thuật toán này chính xác như một người bạn đánh giá. Với 300, thì phần mềm này thành công hơn so với người bạn đời của người đó.”
“Các tổ chức sẽ rất quan tâm đến câu hỏi, ‘Làm thế nào để chúng tôi hiểu quý vị ở một mức độ cá nhân?’” ông Busby nói. “Điều đó khiến tôi không thoải mái khi bị một công cụ AI theo dõi và mô phỏng theo cách đó.”
Trong những tuần gần đây, các năng lực ám muội của AI đã trở thành vấn đề hàng đầu, với các lời kêu gọi khẩn cấp từ các nhà khoa học và chuyên gia công nghệ nhằm hạn chế sự phát triển của AI cho đến khi mọi người có thể hiểu rõ hơn về cách sử dụng và tác dụng của AI. Hôm 22/03, một bức thư ngỏ, được 50,000 người, trong đó có cả người đồng sáng lập Apple Steve Wozniak và doanh nhân công nghệ Elon Musk, ký tên đã kêu gọi tạm dừng ngay lập tức việc phát triển trí tuệ nhân tạo nói chung, hoặc các hệ thống trí tuệ tự động có thể phát triển vượt ra ngoài việc thực thi các nhiệm vụ cụ thể và về mặt lý thuyết là vượt qua trí thông minh của nhân loại.
“Các hệ thống AI có trí thông minh cạnh tranh với con người có thể gây ra những rủi ro sâu sắc cho xã hội và nhân loại, như đã được chứng minh qua nghiên cứu sâu rộng và được các phòng thí nghiệm AI hàng đầu thừa nhận,” bức thư này nêu rõ. “Trí tuệ nhân tạo tân tiến có thể đại diện cho một sự thay đổi sâu sắc trong lịch sử sự sống trên Trái đất, và cần được dự tính cũng như quản lý với sự quan tâm và các nguồn lực tương xứng.”
Nếu trí tuệ nhân tạo có thể được ngăn chặn để tránh các yếu tố độc hại và mang tính thao túng, thì trí tuệ nhân tạo “có khả năng và tiềm năng thực sự mở rộng năng lực của chúng ta trong nhiều lĩnh vực và giải quyết nhiều vấn đề mà chúng ta gặp phải,” ông Busby nói. “Một số việc mà chúng ta cho rằng máy điện toán không thể làm tốt, như viết tiểu thuyết hoặc sáng tạo ra thứ gì đó từ con số không, thì AI có thể làm được những việc đó.”
Ông nói, AI có thể giúp tìm ra đáp án cho các vấn đề cần nghiên cứu, nhưng nó không thể quyết định chúng ta nên nghiên cứu cái gì, mục tiêu của chúng ta là gì, hoặc chúng ta nên có kiểu xã hội nào.
“[AI] buộc chúng ta phải suy xét một cách thận trọng về những gì chúng ta đóng góp,” ông nói. “Công nghệ này nhắc nhở chúng ta về những gì rất độc đáo hoặc những gì chúng ta mang đến thật khác biệt, để giúp chúng ta tập trung vào những thứ đó thay vì những thứ tầm thường mà máy điện toán và các loại thuật toán này có thể thực sự tự động hóa nhanh chóng.”
(*) Ghi chú của người dịch
Thanh Nguyên biên dịch
Quý vị tham khảo bản gốc từ The Epoch Times