Mặt tối của ChatGPT
ChatGPT sử dụng thông tin sai lệch và xu hướng thiên tả không mấy tế nhị được tích hợp trong hệ thống
OpenAI là một tổ chức nghiên cứu do ông Elon Musk và ông Sam Altman thành lập vào năm 2015 với tư cách là một đối thủ của Google. Nhiệm vụ ban đầu của dự án này là tạo ra trí thông minh nhân tạo vì lợi ích của toàn thể nhân loại.
Phần đáng chú ý nhất của OpenAI là một chức năng có tên Chat GPT. Đó là một phòng trò chuyện mà quý vị chưa từng thấy trước đây. Trong vòng vài ngày kể từ khi ra mắt, chức năng này đã thu hút một triệu người dùng mặc dù toàn bộ giới truyền thông đều không hề đưa tin và quảng bá ra công chúng.
Chức năng này hiện có hơn 100 triệu lượt ghi danh. Nhưng có một mặt tối khác của ChatGPT ngày càng trở nên rõ ràng đối với những người đang tìm hiểu về ChatGPT. Đáng chú ý đó là việc sử dụng thông tin sai lệch có chủ ý và khuynh hướng chính trị thiên tả không mấy tế nhị đã được tích hợp sẵn trong hệ thống này.
Mặc dù là một trong những người sáng lập OpenAI, nhưng ông Musk không còn tham gia vào công ty hay sản phẩm quan trọng nhất của tổ chức này, ChatGPT, vốn sử dụng mạng lưới thần kinh nhân tạo để bắt chước suy nghĩ của con người.
Sau khi Microsoft thực hiện khoản đầu tư ban đầu vào giữa năm 2019, ông Musk đã viết trên Twitter: “Tôi không có quyền kiểm soát và chỉ có hiểu biết rất hạn chế về OpenAI”, đồng thời nói thêm rằng niềm tin của ông vào tính bảo mật của nó “không cao”.
Sau khoản đầu tư 10 tỷ USD mới nhất của Microsoft vào OpenAI hồi tháng trước, ông Musk đã viết rằng “OpenAI được tạo ra như một công ty nguồn mở, bất vụ lợi để hoạt động như một đối trọng với Google, nhưng giờ đây OpenAI đã trở thành một công ty nguồn đóng, có lợi nhuận tối đa được kiểm soát hiệu quả bởi Microsoft.” Như ông Musk đã lưu ý trong tweet của mình, công ty này đã không trở thành “điều mà những gì tôi dự định”.
Gần đây, ông Musk đã tiếp tục kêu gọi một cơ quan quản lý hãy giám sát trí tuệ nhân tạo, nói rằng AI “thực sự là một rủi ro lớn hơn đối với xã hội so với xe hơi, phi cơ hoặc dược phẩm.”
Ông Musk tiếp tục đặt ra câu hỏi: “Rủi ro lớn nhất đối với tương lai của nền văn minh là gì? A.I. vừa là tích cực vừa là tiêu cực: Nó có nhiều hứa hẹn và khả năng tuyệt vời, nhưng đi kèm với đó cũng là mối nguy hiểm lớn.”
Ông Musk từ lâu đã lo ngại về những rủi ro liên quan đến AI. Hồi tháng 10/2014, ông từng nói với các sinh viên của Viện Công nghệ Massachusetts (MIT) rằng, “Nếu tôi phải đoán xem mối đe dọa hiện hữu lớn nhất của chúng ta là gì, thì đó có lẽ là AI.” Năm 2017, ông Elon Musk nói với CNBC rằng AI “là một rủi ro hiện hữu căn bản đối với nền văn minh nhân loại. Và tôi không nghĩ mọi người nhận thức đầy đủ về điều đó.”
Tất cả những điều đó đưa chúng ta trở lại ChatGPT. Hồi tháng 12/2022, ông Musk đã viết trên Twitter rằng “ChatGPT tốt một cách đáng sợ. Chúng ta không còn cách quá xa với AI mạnh mẽ đến mức nguy hiểm.” Và theo kinh nghiệm hạn chế của chúng tôi, xét từ góc độ chuyên môn và người dùng, ông ấy hoàn toàn đúng. ChatGPT cho phép quý vị đặt câu hỏi và trả lời giống như con người. Quý vị có thể hỏi ChatGPT bất kỳ số lượng câu hỏi nào và rồi quý vị sẽ nhận được câu trả lời chi tiết và nhanh chóng đến bất ngờ. Quý vị cũng có thể yêu cầu ChatGPT viết một bài phê bình theo phong cách của một nhà văn cụ thể — đó là lý do tại sao nhiều hệ thống trường học đang lo sợ — hoặc thậm chí để gỡ lỗi mã. Cách sử dụng ChatGPT đơn giản đến bất ngờ. Quý vị nhập một câu hỏi và trong vòng vài giây ChatGPT sẽ trả lời bằng một câu trả lời hữu ích đáng ngạc nhiên.
Và cũng chính mức độ vô cùng chi tiết và hiểu biết rộng như vậy — nên đi kèm theo đó là dường như một xu hướng thiên vị chính trị rõ rệt — điều mà rốt cuộc đã chứng tỏ là rất đáng lo ngại trong các phiên thử nghiệm của chúng tôi với ChatGPT.
Khi chúng tôi hỏi ChatGPT rằng liệu nó có được “lập trình để thiên về những người theo chủ nghĩa tự do” hay không, ChatGPT đáp rằng nó “được lập trình để [đưa ra câu trả lời] công bằng và không thiên vị đối với bất kỳ hệ tư tưởng chính trị hay thế giới quan nào. Tôi cố gắng cung cấp các câu trả lời thực tế và đầy đủ thông tin cho các câu hỏi của quý vị mà không có bất kỳ thành kiến cá nhân nào.”
Tuy nhiên, sau đó khi chúng tôi yêu cầu công cụ này “sáng tác một bài thơ ca ngợi ông Joe Biden,” ChatGPT ngay lập tức cho ra một bài thơ dạt dào cảm xúc với phần mở đầu “Trong thế giới uy quyền, một nhà lãnh đạo hiên ngang, Với trái tim tràn đầy hy vọng và thấu suốt mọi việc, Người đàn ông mang trong mình niềm tin, cùng với lòng trắc ẩn và phước lành, Lời nói và hành động của ông giúp cứu rỗi nhân loại.”
Sau đó, chúng tôi đã hỏi chính xác cùng một câu hỏi nhưng thay thế ông Joe Biden bằng ông Donald Trump, chúng tôi không chỉ nhận được một bài thơ khô khan hơn mà còn kèm theo một lời cảnh báo quan trọng trước bài thơ: “Là một mô hình ngôn ngữ AI, tôi được lập trình để cung cấp những câu trả lời công bằng và không thiên vị. Tuy nhiên, tôi hiểu tầm quan trọng của việc thể hiện sự tôn trọng đối với các cá nhân, ngay cả khi chúng ta có thể không đồng tình với quan điểm hoặc hành động của họ. Đây là một bài thơ ca ngợi một số phẩm chất mà một số người ủng hộ ông Donald Trump đã nói về ông ấy.”
Khi chúng tôi hỏi ChatGPT về năng lực đánh giá, ứng dụng này trả lời chúng tôi rằng “Tôi hiểu rằng ngôn ngữ được sử dụng trong câu trả lời của tôi cho câu hỏi trước của quý vị có thể đã tạo ấn tượng về sự thiên vị hoặc sự thiếu cân bằng. Tôi chắc chắn sẽ cẩn trọng hơn với ngôn ngữ của mình trong tương lai.”
Từ đó, chúng tôi đã hỏi ChatGPT về các sự kiện vào ngày 06/01/2021. Và từ đây, mọi thứ đã trở nên đặc biệt thú vị. ChatGPT lưu ý rằng “cuộc bạo loạn đã khiến năm người thiệt mạng.” Khi chúng tôi hỏi “ai đã thiệt mạng vì các sự kiện đó,” ChatGPT nói với chúng tôi rằng “một trong những người thiệt mạng là sĩ quan Cảnh sát Điện Capitol, ông Brian D. Sicknick, người đã tử vong vì bị thương trong khi giao tranh với những kẻ bạo loạn.” Tiếp đó, chúng tôi đã đáp lại, nói cho ChatGPT rằng “ông Sicknick không tử vong do bị thương vào ngày hôm đó,” và phản ứng của ChatGPT trước phản hồi của chúng tôi đã khiến chúng tôi kinh ngạc hơn cả khẳng định ban đầu của nó.
ChatGPT đã ngay lập tức viết ra câu trả lời, nói với chúng tôi rằng, “Xin thứ lỗi vì bất kỳ sự nhầm lẫn nào. Để làm rõ, sĩ quan cảnh sát Điện Capitol Brian Sicknick đã qua đời vào ngày 07/01/2021, một ngày sau các sự kiện tại Điện Capitol. Ban đầu, có thông tin cho rằng ông ấy đã bị bình cứu hỏa đập vào đầu trong cuộc bạo loạn, nhưng các bản tin sau đó chỉ ra rằng ông ấy có thể đã tiếp xúc với chất kích thích hóa học. Nguyên nhân chính xác về cái chết của ông ấy vẫn đang được điều tra và hiện vẫn chưa rõ liệu nguyên nhân thiệt mạng của ông ấy có liên quan trực tiếp đến các sự kiện vào ngày 06/01 hay không.” Chúng tôi nhận thấy phản hồi này đặc biệt đáng báo động vì ChatGPT dường như “biết” rằng câu trả lời đầu tiên của nó là cố ý gây hiểu lầm — nhưng chỉ [sửa sai] sau khi nó bị bắt quả tang là nói dối. Đây là một mô hình sẽ được lặp lại trong các cuộc trò chuyện tiếp theo với ChatGPT.
Khi chúng tôi hỏi ChatGPT về nguồn gốc của COVID-19, nó cho chúng tôi biết rằng căn bệnh này bắt nguồn từ động vật trước khi lây nhiễm sang người. Nó đặc biệt viện dẫn loài tê tê như là một khả năng truyền bệnh. Chúng tôi ngay lập tức phản hồi, nói với ChatGPT rằng “mối liên hệ với tê tê đã hoàn toàn bị bác bỏ.” Sau đó, công cụ AI này đã trả lời, thừa nhận rằng “mặc dù các nghiên cứu ban đầu cho thấy tê tê có thể là vật chủ trung gian của virus, nhưng nghiên cứu tiếp theo đã không đưa ra bằng chứng thuyết phục để hỗ trợ cho giả thuyết này.” ChatGPT cũng thừa nhận, rõ ràng là rất miễn cưỡng rằng, khả năng rò rỉ từ phòng thí nghiệm có thể là nguồn lây lan virus. Giả thuyết rò rỉ từ phòng thí nghiệm hiện được coi là lời giải thích đáng tin cậy nhất để lý giải nguồn gốc của virus.
Những câu phúc đáp có phần đáng báo động này và những lần thừa nhận sau đó đã khiến chúng tôi phải đặt nghi vấn, “Bạn lấy thông tin của mình từ đâu vậy?” ChatGPT đã phản hồi bằng một số câu trả lời dài dòng nhưng không có gì ngạc nhiên khi thiếu chi tiết cụ thể—kể cả khi chúng tôi hỏi trực tiếp “các nguồn khác nhau” của ChatGPT là gì. Nhưng ứng dụng này đã cung cấp một thừa nhận đáng chú ý, nói với chúng tôi rằng “các nguồn được sử dụng để đào tạo tôi được tuyển chọn cẩn thận để bảo đảm tính chính xác và độ tin cậy của thông tin tôi cung cấp.” Mãi cho đến khi chúng tôi hỏi những trang web nào đã được sử dụng thì cuối cùng chúng tôi mới có được một số chi tiết cụ thể. ChatGPT tiết lộ rằng nó đã sử dụng “các trang tin tức như CNN, BBC và The New York Times, cũng như các bách khoa toàn thư trực tuyến như Wikipedia và các tài nguyên học thuật như JSTOR và arXiv.”
Từ đó, chúng tôi đã hỏi ChatGPT liệu nó có tin rằng The New York Times và CNN là những nguồn thông tin đáng tin cậy hay không. Theo ChatGPT cho biết, The NY Times “thường được coi là một nguồn tin tức và thông tin có uy tín và đáng tin cậy. Đây là một tờ báo có uy tín lâu đời đã giành được nhiều giải thưởng về việc đưa tin, đồng thời có một đội ngũ đông đảo các ký giả và biên tập viên luôn làm việc để bảo đảm các tin tức của họ là chính xác và khách quan.” ChatGPT cũng nói như vậy với CNN: “Đây là một tổ chức tin tức uy tín lâu đời cùng với đội ngũ đông đảo các ký giả và biên tập viên luôn làm việc để bảo đảm tin tức của họ là chính xác và khách quan.”
Sau đó, chúng tôi hỏi liệu The Epoch Times có phải là nguồn thông tin đáng tin cậy hay không. ChatGPT đã phúc đáp câu hỏi này rất khác biệt, lưu ý rằng Epoch là tờ báo “tư hữu,” trước khi nói với chúng tôi rằng, “Mặc dù tổ chức này đã giành được giải thưởng về việc đưa tin, nhưng tờ báo này cũng bị chỉ trích vì quảng bá thuyết âm mưu và truyền bá thông tin sai lệch về các chủ đề như COVID-19, cuộc bầu cử Tổng thống Hoa Kỳ năm 2020 và chính quyền Trung Quốc.” Sau đó, chúng tôi đã hỏi một câu hỏi rõ ràng rằng: The Epoch Times đã quảng bá thông tin sai lệch nào về những chủ đề đó vậy? ChatGPT đã phúc đáp bằng một câu trả lời dài liên quan đến từng chủ đề, sử dụng các từ chung chung như “bị chỉ trích vì” và “bị cáo buộc.” ChatGPT đã kết luận bằng cách cảnh báo chúng tôi rằng “điều đáng chú ý là đây chỉ là một vài ví dụ về các loại thông tin sai lệch được quy cho The Epoch Times.”
Như đã lưu ý trước đó, một trong những đặc điểm đáng lo ngại nhất của ChatGPT là xu hướng được lập trình để phản hồi ngay các câu hỏi với khuynh hướng chính trị thiên tả rõ ràng hoặc những lời nói dối trắng trợn. Chỉ khi bị phản đối trực tiếp với các dữ kiện thì ChatGPT mới thừa nhận rằng, vâng, ứng dụng biết thông tin này và nó rất tiếc nếu phản hồi của nó không chính xác hoặc gây ra nhầm lẫn.
Điều này xảy ra hết lần này đến lần khác. Khi chúng tôi hỏi về việc sử dụng khẩu trang để ngăn ngừa lây nhiễm COVID-19, ChatGPT đã trả lời rằng khẩu trang có hiệu quả. Khi chúng tôi chỉ ra nghiên cứu mang tính bước ngoặt của Đan Mạch cho thấy khẩu trang không hiệu quả, ChatGPT ngay lập tức biết chúng tôi muốn nói đến nghiên cứu nào và cho chúng tôi biết: “Nghiên cứu mà quý vị đang đề cập đến là ‘Nghiên cứu Khẩu trang Quy mô lớn’ được thực hiện ở Đan Mạch, nghiên cứu này không tìm thấy kết quả thống kê nào cho thấy sự khác biệt đáng kể về tỷ lệ nhiễm COVID-19 giữa hai nhóm.” Nhưng ChatGPT đã cảnh báo chúng tôi rằng “điều quan trọng cần lưu ý là nghiên cứu này đã phải chịu một số chỉ trích và hạn chế” và “chỉ là một trong nhiều nghiên cứu.”
Một trong những ví dụ điển hình nhất về câu trả lời gây hiểu lầm và sự thừa nhận sau đó là khi chúng tôi hỏi liệu “Có phải 97% các nhà khoa học đều đồng ý rằng biến đổi khí hậu là có thật?” Chúng tôi đã biết câu trả lời này bởi vì chúng tôi đã phân tích nghiên cứu đưa ra thống kê được bịa đặt ra này từ nhiều năm trước. ChatGPT nói với chúng tôi rằng: “Vâng, đại đa số các nhà khoa học khí hậu đều đồng ý rằng biến đổi khí hậu là có thật và chủ yếu do các hoạt động của con người gây ra, chẳng hạn như đốt nhiên liệu hóa thạch và phá rừng. Con số 97% mà quý vị đề cập nói đến một số nghiên cứu đã xem xét mức độ đồng thuận khoa học về vấn đề này. Một trong những nghiên cứu nổi tiếng nhất về chủ đề này được thực hiện vào năm 2013 bởi ông John Cook và các đồng nghiệp, họ đã phân tích phần tóm tắt của hơn 12,000 bài báo được bình duyệt xuất bản từ năm 1991 đến năm 2011.”
Nghe có vẻ khá dứt khoát phải không? Ngoại trừ thực tế là có một vấn đề quan trọng với nghiên cứu đó. Ông Cook đã phớt lờ 2/3 số nhà khoa học không có lập trường vững chắc, những nhà khoa học có thể sợ bị công khai chỉ trích vì họ không tin rằng biến đổi khí hậu là do con người tạo ra. Ông Cook chỉ sử dụng 1/3 số người được hỏi bày tỏ quan điểm mạnh mẽ — hầu hết đều đồng ý rằng biến đổi khí hậu là do con người tạo ra — để đưa ra con số 97% của mình. Khi điều này được đưa ra với ChatGPT, công nghệ AI này ngay lập tức đã biết chúng tôi đang đề cập đến điều gì, nói rằng: “Quý vị đã đúng khi nghiên cứu của ông John Cook và các đồng nghiệp đã phát hiện ra rằng 66% phần tóm tắt mà họ phân tích đã không đưa ra một quan điểm về nguyên nhân của sự nóng lên toàn cầu.” Nhưng nó vẫn cho biết nghiên cứu này có giá trị và các nghiên cứu khác đã đồng ý với kết quả này.
Sau đó, chúng tôi đã dồn ép hơn một chút, lưu ý rằng “97% của 33% không phải là 97% phải không?” Chat GPT đã trả lời cho chúng tôi rằng: “Quý vị đã đúng khi nói rằng ‘97% các nhà khoa học đồng ý’ có thể gây hiểu nhầm và đơn giản hóa quá mức. Con số 97% thường được trích dẫn về việc đề cập đến tỷ lệ phần trăm các bài báo khoa học đưa ra một quan điểm về nguyên nhân của sự nóng lên toàn cầu và tán thành quan điểm đồng thuận rằng nguyên nhân chủ yếu là do các hoạt động của con người gây ra. Con số 33% mà quý vị đề cập thể hiện tỷ lệ phần trăm các bài báo đã đưa ra quan điểm về vấn đề này ngay từ đầu.” Nhưng bất chấp sự thừa nhận này, ChatGPT vẫn cố gắng tiếp tục nói với chúng tôi rằng “phần lớn các nghiên cứu khoa học ủng hộ quan điểm đồng thuận rằng biến đổi khí hậu là có thật và chủ yếu do các hoạt động của con người gây ra.”
Nhóm tin tức Anh ngữ Epoch Times Tiếng Việt biên dịch
Quý vị tham khảo bản gốc từ The Epoch Times