Hội trà đá 8

Cover image for AI tạo ra thông tin sai lệch: Khó khăn của các tập đoàn công nghệ
Polka-dot man
Polka-dot man

Posted on • Originally published at tiasang.com.vn

AI tạo ra thông tin sai lệch: Khó khăn của các tập đoàn công nghệ

Chatbot AI có thể sẽ là công cụ “tiếp tay” cho những kẻ muốn truyền bá thông tin giả tạo, sai lệch, gây kích động.



OpenAI – một công ty AI “dưới cơ” nhưng đầy tiềm lực – đã đánh thức những gã khổng lồ công nghệ đang ngủ quên bằng các sản phẩm AI sáng tạo của mình, trong đó sản phẩm mới nhất và cũng nổi bật nhất là chatbot đàm thoại ChatGPT. Microsoft đã đầu tư 10 tỷ USD vào OpenAI như một phần trong chiến lược tích hợp AI vào các sản phẩm, từ đó vượt qua các đối thủ công nghệ lớn dù non trẻ hơn. Sự kiện này buộc Google phải phát đi báo động đỏ trong nội bộ toàn công ty và ra mắt các sản phẩm AI sớm hơn dự kiến (Ngày 6/2, tập đoàn Alphabet Inc – công ty mẹ của Google – đã ra mắt một dịch vụ chatbot mới có tên “Bard” nhằm cạnh tranh trực tiếp với ChatGPT). Trong khi đó Mark Zuckerberg đã tuyên bố ý định biến Meta trở thành “người dẫn đầu về AI tạo sinh (Generative AI)”, đây rõ ràng là một động thái phản ứng trước chatbot “gây sốt” của OpenAI.

Các công ty này bỗng nhiên đều nỗ lực phát triển các sản phẩm có vẻ giống nhau, nhưng chiến thắng sẽ gọi tên ai? Các cuộc thảo luận xoay quanh câu hỏi này thường tập trung vào quy mô của các mô hình AI và lượng dữ liệu huấn luyện AI, nhưng có một yếu tố khác cũng rất quan trọng: các công ty có thể xây dựng những hệ thống đáng tin cậy – không gây hại quá mức cho xã hội và đặc biệt là không làm mất ổn định nền dân chủ – đến mức độ nào.

ChatGPT là bản nâng cấp của mô hình ngôn ngữ GPT-3, sản phẩm tạo lập văn bản của OpenAI. GPT-3 từng thu hút rất nhiều sự chú ý nhưng chưa bao giờ được người dùng trên khắp thế giới đón nhận rộng rãi như cách ChatGPT đã đạt được. Thay đổi lớn nhất từ ​​GPT-3 sang ChatGPT không phải là kích thước mô hình — chúng được cho là có kích thước tương đương nhau — mà là sau quá trình đào tạo của GPT-3 để thu thập các mối tương quan thống kê của dữ liệu từ văn bản trên Internet, ChatGPT tiếp tục trải qua quá trình tương tác với con người, nhận phản hồi để cải thiện đầu ra của nó. Một khía cạnh quan trọng của quá trình sàng lọc này là lọc ra phần nội dung công kích và gây nguy hại. ChatGPT vừa hữu ích hơn GPT-3 vừa phù hợp hơn với người dùng phổ thông, những con số kỷ lục mà nó xác lập được kể từ khi ra mắt đã cho thấy điều này.

Để so sánh, một hệ thống tạo văn bản tổng quát khác gần đây là Galactica của Meta, về cơ bản đây là một nền tảng tương tự GPT-3 được tinh chỉnh với khả năng tóm tắt và viết các bài báo khoa học. Việc thiếu các bộ lọc rà soát, loại bỏ các nội dung gây hại đã khiến Galactica phải nhận về các chỉ trích gay gắt và bị Meta gỡ bỏ sau vài ngày. Vì không có bộ lọc, nhiều người sẽ tận dụng nó để tạo ra thông tin sai lệch nguy hiểm về khoa học và y tế trên quy mô lớn. Trên thực tế, một người dùng đã dễ dàng tạo ra một bài báo y tế có vẻ hợp lý về lợi ích sức khỏe của việc ăn mảnh thủy tinh vỡ.

Việc sử dụng thông tin sai lệch như một vũ khí nguy hiểm không còn là mối quan tâm đơn lẻ hay chỉ mới là giả thiết. Ngay sau khi ChatGPT ra đời, cả hội nghị Quốc tế về máy học lần thứ 40 lẫn Stack Overflow – website hỏi đáp dành cho lập trình viên – đã tạm thời cấm nội dung do AI tạo ra. Quản trị Stack Overflow giải thích rằng website đã tràn ngập các câu trả lời thoạt nghe có vẻ hợp lý nhưng không chính xác do AI tạo ra, nhiều hơn mức mà ban quản trị có thể kiểm soát. Eurasia Group, một tổ chức tư vấn địa chính trị nổi tiếng, gần đây đã đưa ra một báo cáo dự đoán những rủi ro hàng đầu vào năm 2023. Báo cáo liệt kê công nghệ AI tạo sinh là công nghệ lớn thứ ba — chỉ sau bộ đôi Trung Quốc và Nga — vì khả năng “làm xói mòn lòng tin xã hội, trao quyền cho những kẻ mị dân và độc tài, đồng thời gây náo loạn hoạt động của các doanh nghiệp và thị trường.” Đây không phải là tổ chức duy nhất gióng lên hồi chuông cảnh báo về sức mạnh của AI.

Thay vì phát giác và thừa nhận rủi ro này, giám đốc bộ phận nghiên cứu AI của Meta, ông Yann LeCun, đã ngạo mạn bác bỏ. Ông cũng đổ lỗi cho người dùng về màn ra mắt thảm hại của Galactica.

Tương tự, Microsoft từng đổ lỗi cho người dùng vì đã lạm dụng Tay, một chatbot thời kỳ đầu, ra mắt vào năm 2016 và nhanh chóng bị “khai tử” sau khi Tay có những phát ngôn ủng hộ phát xít, phản đối nữ quyền. Nhưng kể từ đó, Microsoft đã nâng cao nhận thức về ảnh hưởng của sức mạnh của công nghệ trực tuyến đến xã hội. Gần đây, các nhà điều hành tại Microsoft và Meta đã đưa ra những tuyên bố đầy trái ngược về rủi ro của AI. Đầu tháng này, Brad Smith, Chủ tịch Microsoft đã viết bài trên blog của công ty, thảo luận về nhu cầu phát triển AI có trách nhiệm và những nỗ lực thực hiện điều này của Microsoft từ năm 2017. (Có lẽ không phải là sự trùng hợp ngẫu nhiên khi nỗ lực này bắt đầu ngay sau khi chatbot phân biệt chủng tộc thu hút sự chú ý không mong muốn). Trong bài viết, Smith cảnh báo: “Thật không may, một số kẻ sẽ sử dụng công nghệ này để khai thác những khiếm khuyết trong bản chất con người, cố tình sử dụng thông tin sai lệch để nhắm vào mọi người, phá hoại nền dân chủ và khám phá những phương thức mới để thúc đẩy việc theo đuổi cái ác”. Ông cũng khẳng định rằng “chúng ta cần những cuộc đối thoại sâu sắc và rộng rãi, đồng thời cam kết những hành động chung để dựng lên những hàng rào bảo vệ cho tương lai”. Đây là thái độ đúng đắn với AI, và đó là sai lầm của Meta – về cả mặt đạo đức và thương mại – khi họ chọn cách khác.

Meta rất thiếu nhất quán trong việc quan tâm đến các khía cạnh đạo đức của công nghệ, từc các điểm mù dữ liệu cho đến bỏ qua lỗ hổng bảo mật dữ liệu, trả lương thấp cho người lao động trong môi trường làm việc tồi tệ [để kiểm duyệt các nội dung vi phạm tiêu chuẩn]. Thái độ gần đây của Meta với AI cũng không kém phần đáng lo ngại. Chẳng hạn, LeCun, Giám đốc AI của Meta gần đây đã tuyên bố rằng bộ lọc AI của công ty phát hiện gần như mọi phát ngôn thù địch trên nền tảng, mặc dù bằng chứng từ người tố cáo Facebook – Frances Haugen, cựu Giám đốc Sản phẩm của Facebook, cho thấy tình hình hoàn toàn ngược lại. Khi nhận xét về chatbot Meta ra mắt vào tháng tám năm ngoái nhưng không thu hút được người dùng, LeCun thừa nhận chatbot của Meta “đã bị những người dùng thử chỉ trích”. Nhưng ông đã sai lầm khi nói rằng “nó nhàm chán vì nó an toàn”. Theo hầu hết người dùng, các tính năng an toàn trên chatbot của Meta còn sơ khai, cồng kềnh và không hiệu quả. Những gì xảy ra sau khi người dùng các chat bot như Tay hay ChatGPT đã chứng minh, người dùng và các nhà đầu tư quan tâm đến AI an toàn (các chính phủ chắc chắn cũng cần).

Khác với cách tiếp cận liều lĩnh của Meta thì Google cũng có thái độ thận trọng về AI. Trước đây, Sundar Pichai, CEO của Google đã bày tỏ lo ngại về AI. Một sự khác biệt nhỏ nhưng rõ ràng giữa suy nghĩ của ông và Zuckerberg khi nói đến những hệ quả xã hội ngoài ý muốn về sức mạnh của công nghệ sau chiến thắng bầu cử đầy bất ngờ năm 2016 của Trump – khi được hỏi liệu tin tức giả mạo có thể là yếu tố quyết định hay không, ông đã trả lời: “Chắc chắn. Tôi nghĩ rằng toàn bộ tin giả có thể là vấn đề”. Trái lại, Zuckerberg bác bỏ ý tưởng này vì “khá điên rồ”.

Nếu ChatGPT thành công, trong khi những nỗ lực của Meta với AI tạo sinh (generative AI) thất bại, nguyên nhân chủ yếu là do OpenAI quan tâm đến việc ngăn chặn chatbot tạo ra những dữ liệu độc hại, trong khi Meta rất ít quan tâm đến vấn đề này. Tuy nhiên, những gì OpenAI đã làm mới chỉ là bước đầu, không đồng nghĩa với việc giải quyết được vấn đề thông tin sai lệch. Những người muốn lạm dụng AI với mục đích xấu có thể dễ dàng tránh được các hàng rào ngăn chặn những yếu tố độc hại của ChatGPT, như chúng ta đã thấy vào đầu tuần này, tất cả các công cụ tìm kiếm tiếp tục gặp vấn đề. Hiện tại, giới truyền thông rất thận trọng với công cụ tìm kiếm Bing mà Microsoft mới cập nhật, trong khi Bard của Google bị chế giễu. Nhưng khi vượt qua những lo lắng ban đầu, điều quan trọng nhất là liệu có “ông lớn” nào có thể tạo ra AI mà chúng ta thực sự có thể tin tưởng hay không. □

Thanh An ± Anh Thư dịch

Nguồn: https://time.com/6255162/big-tech-ai-misinformation-trust/

Oldest comments (0)