AI kiểm duyệt phát ngôn cực đoan: Cuộc chiến ngày càng hiểm họa
16 tháng 4, 2026
Các công ty AI đang chạy đua phát hiện nội dung cực đoan, nhưng hệ thống của họ liên tục nhầm lẫn về tôn giáo, ngôn ngữ và chính trị. Điều này tạo ra một mớ hỗn độn gồm các lỗ hổng an ninh, những lời buộc tội sai và một cuộc chiến kiểm duyệt ngày càng gay gắt.
Bê bối lớn tiếp theo của AI có thể không đến từ một chatbot nổi loạn hay một video deepfake hào nhoáng lừa gạt cử tri. Nó có thể đến từ một thứ dễ bùng nổ hơn: những cỗ máy quyết định đâu là phát ngôn cực đoan, ai trông đáng ngờ và cộng đồng nào bị gắn cờ đầu tiên. Cuộc chiến đó đã hiện hữu và đang trở nên rối ren hơn mỗi tuần.
Trong toàn ngành công nghệ, các công ty đang bán những hệ thống AI hứa hẹn phát hiện tuyên truyền khủng bố, các mối đe dọa bạo lực và các hình thái cực đoan hóa với tốc độ máy móc. Chính phủ muốn có chúng. Các nền tảng cần chúng. Các nhà đầu tư nghe lời chào hàng và thấy một mỏ vàng. Lời quảng cáo luôn giống nhau. Máy nhanh hơn người. Máy có thể thấy những quy luật mà con người bỏ lỡ. Máy có thể ngăn chặn nguy hiểm trước khi nó lan rộng. Nghe có vẻ sạch sẽ, hiện đại và tất yếu.
Nhưng một khi các hệ thống đó va chạm với thế giới thực, câu chuyện trở nên tồi tệ. Ngôn ngữ không phải là toán học. Tôn giáo không phải là hiện trường vụ án. Sự tức giận chính trị không giống với ý định bạo lực. Tuy nhiên, các công cụ kiểm duyệt AI liên tục xóa nhòa những ranh giới này, đặc biệt khi tiếng Ả Rập, tiếng Urdu và các ngôn ngữ bị soi xét kỹ lưỡng khác xuất hiện. Các nhà nghiên cứu đã cảnh báo về điều này trong nhiều năm. Tổ chức Theo dõi Nhân quyền (Human Rights Watch), Access Now và một số nhóm học thuật đã ghi nhận các lỗi lặp đi lặp lại trong việc kiểm duyệt tự động liên quan đến xung đột, Hồi giáo và phát ngôn chính trị. Nói một cách đơn giản, máy móc đang đưa ra những quyết định nghiêm trọng ở những nơi mà bối cảnh là tất cả và độ chính xác thường rất mong manh.
Bằng chứng không phải là lý thuyết suông. Năm 2021, chính Ban Giám sát của Meta cho biết công ty đã gỡ bỏ sai nội dung ghi lại các hành vi lạm dụng ở Trung Đông vì hệ thống của họ đã thực thi quá mức đối với tài liệu bằng tiếng Ả Rập. Trong các thời kỳ xung đột, quy luật này đã trở nên quen thuộc một cách đau đớn. Các bài đăng bị gỡ xuống. Tài khoản bị đóng băng. Các nhà báo, nhà hoạt động và người dùng bình thường chỉ còn biết kêu trời trong vô vọng trong khi các nền tảng khăng khăng rằng họ đang bảo vệ công chúng. Đôi khi họ đang chặn tuyên truyền. Đôi khi họ chỉ đơn giản là gạt phăng mọi bối cảnh.
Đó là mối nguy hiểm chính trong thị trường an ninh AI mới. Nó được bán như một lá chắn chống khủng bố, nhưng trong thực tế, nó thường hoạt động như một công cụ thô bạo. Một cụm từ, một hình ảnh, một đoạn bài giảng, một cuộc thảo luận lịch sử, một bài đăng đầy đau buồn sau một cuộc tấn công, và hệ thống có thể coi tất cả chúng là các biến thể của cùng một mối đe dọa. Cỗ máy không hiểu được sự tiếc thương. Nó không nắm bắt được sự châm biếm. Nó không biết liệu người dùng đang ca ngợi, lên án hay ghi lại bạo lực. Nó dự đoán dựa trên các quy luật. Và các quy luật được xây dựng trên dữ liệu thiên vị trong nhiều năm có thể trở thành sự nghi ngờ tự động.
Đây không phải là hoang tưởng. Đó là cách máy học hoạt động. Các mô hình học từ các nhãn dán trong quá khứ, và các nhãn dán trong quá khứ phản ánh các phán xét của con người, các ưu tiên của tổ chức và áp lực chính trị. Nếu các đội ngũ thực thi trong lịch sử tập trung nhiều hơn vào các khu vực, ngôn ngữ hoặc dấu hiệu tôn giáo nhất định, thì mô hình được huấn luyện trên lịch sử đó sẽ hấp thụ những quy luật này. Các nhà nghiên cứu tại các viện bao gồm Stanford và NYU đã liên tục chỉ ra rằng các hệ thống kiểm duyệt nội dung có thể hoạt động không đồng đều giữa các ngôn ngữ và bối cảnh văn hóa. Tiếng Anh nhận được dữ liệu huấn luyện phong phú nhất, sự tinh chỉnh chính sách nhiều nhất và sự giám sát công khai nhiều nhất. Phần còn lại thường chỉ nhận được những gì thừa thãi.
Bây giờ hãy thêm vào thị trường chống khủng bố, nơi nỗi sợ hãi thúc đẩy việc mua sắm và sự tinh tế chết yểu đầu tiên. Đây là nơi các nhà cung cấp hứa hẹn sẽ xác định các con đường cực đoan hóa, các liên kết mạng lưới và các luận điệu có nguy cơ cao trước khi các nhà phân tích con người có thể phát hiện ra chúng. Lời chào hàng nghe có vẻ không thể cưỡng lại sau mỗi cuộc tấn công lớn. Không bộ trưởng hay thị trưởng nào muốn trở thành quan chức nói không với một công cụ được quảng cáo là có thể phòng ngừa. Nhưng những tuyên bố mang tính dự đoán trong lĩnh vực này đáng bị hoài nghi sâu sắc. Lịch sử công nghệ an ninh đầy rẫy những sản phẩm hứa hẹn quá nhiều nhưng mang lại quá ít, đặc biệt là khi các nhà cung cấp gói ghém việc phân loại dữ liệu thông thường bằng ngôn từ của những đột phá tình báo.
Ngay cả một số người ủng hộ mạnh mẽ nhất về an toàn AI cũng biết điều này có thể leo thang nhanh chóng. Vấn đề không phải là liệu nội dung cực đoan bạo lực có tồn tại trên mạng hay không. Nó có tồn tại, và các nền tảng đã dành nhiều năm cố gắng ngăn chặn nó. Vấn đề là bước nhảy vọt từ việc xác định nội dung tuyên truyền rõ ràng sang việc xây dựng các hệ thống suy ra hệ tư tưởng nguy hiểm từ các mẩu phát ngôn, mối liên kết hoặc từ vựng tôn giáo. Đó là nơi việc trị an hợp pháp có thể mờ nhạt đi và trở thành hồ sơ kỹ thuật số.
Châu Âu đang trở thành một chiến trường quan trọng. Theo Đạo luật Dịch vụ Kỹ thuật số của EU, các nền tảng lớn phải đối mặt với áp lực phải hành động quyết liệt hơn chống lại các tài liệu bất hợp pháp và có hại, bao gồm cả nội dung khủng bố. Đồng thời, các nhóm nhân quyền đang cảnh báo rằng tự động hóa quyết liệt có thể xóa sổ các phát ngôn hợp pháp và chôn vùi các kháng cáo dưới bộ máy quan liêu. Ở Anh, nơi chính sách chống cực đoan từ lâu đã mang màu sắc chính trị, các nhóm tự do dân sự đã dành nhiều năm thách thức sự thái quá trong các chương trình nhằm phát hiện các dấu hiệu cực đoan hóa. AI giờ đây có nguy cơ khuếch đại những bản năng tương tự với ít sự minh bạch hơn và quy mô lớn hơn.
Và rồi có vấn đề về internet mở. AI tạo sinh đã giúp việc sản xuất nội dung tuyên truyền bằng nhiều ngôn ngữ, sao chép biểu tượng, phối lại các bài phát biểu và làm ngập các mạng lưới bằng tài liệu thuyết phục với chi phí thấp trở nên dễ dàng hơn. Europol đã cảnh báo vào năm 2023 rằng AI tạo sinh có thể hỗ trợ các hoạt động tội phạm và cực đoan bằng cách giúp việc tuyển mộ và tuyên truyền trở nên dễ mở rộng quy mô hơn. Lời cảnh báo đó rất quan trọng. Mối đe dọa là có thật. Nhưng đây chính là lý do tại sao sự hoảng loạn lại rất nguy hiểm. Một mối đe dọa thực sự có thể được dùng để biện minh cho các công cụ cẩu thả, sự giám sát trên diện rộng và các mối quan hệ đối tác bí mật giữa chính phủ và các công ty công nghệ hoạt động mà ít bị công chúng giám sát.
Đó là lúc những lời đồn đoán về thuyết âm mưu bắt đầu len lỏi, và nó phát triển mạnh mẽ vì các tổ chức liên tục nuôi dưỡng nó. Khi chính phủ từ chối giải thích cách hệ thống gắn cờ người dùng, khi các nền tảng ẩn sau ngôn ngữ an toàn mơ hồ, và khi những người vô tội mất tài khoản hoặc đối mặt với sự soi xét mà không có biện pháp khắc phục rõ ràng, khoảng trống sẽ được lấp đầy bởi tin đồn. Mọi người bắt đầu tin rằng họ đang bị theo dõi vì những lời họ cầu nguyện, lịch sử họ thảo luận, hoặc chính trị họ chỉ trích. Đôi khi những nỗi sợ đó bị cường điệu hóa. Đôi khi thì không. Vấn đề rất đơn giản: sự mập mờ sinh ra nghi ngờ, và AI khiến quyền lực mập mờ càng khó bị thách thức hơn.
Lời bào chữa ưa thích của ngành là con người vẫn tham gia vào quá trình đánh giá. Điều đó nghe có vẻ trấn an cho đến khi bạn nhìn vào quy mô. Hàng tỷ bài đăng di chuyển trên các nền tảng lớn. Các bộ lọc tự động thực hiện lượt sàng lọc đầu tiên. Các hệ thống phân loại xếp hạng rủi ro. Người đánh giá làm việc dưới áp lực, thường với kiến thức địa phương hạn chế và ít thời gian. Một khi hệ thống AI gắn thẻ một thứ gì đó là nguy hiểm, nhãn đó có thể định hình mọi quyết định sau này. Sự giám sát của con người trong các quy trình này thường không phải là một sự bảo vệ mà là một cái gật đầu cho có lệ dưới áp lực.
Không có điều nào trong số này có nghĩa là các công ty công nghệ nên từ bỏ nỗ lực ngăn chặn bạo lực cực đoan thực sự trên mạng. Điều đó thật vô lý. Các chiến dịch tuyên truyền, tài liệu hướng dẫn tấn công và tuyển mộ có tổ chức của Nhà nước Hồi giáo đã sử dụng các nền tảng kỹ thuật số một cách hiệu quả trong quá khứ, và các cơ quan thực thi pháp luật trên khắp châu Âu, châu Á và Trung Đông đã ghi nhận cách các mạng lưới mã hóa và hệ sinh thái truyền thông trực tuyến có thể hỗ trợ các nhóm bạo lực. Mối đe dọa không phải là bịa đặt. Vấn đề là các công ty và chính phủ đang hành động như thể phát hiện nhanh hơn tự động có nghĩa là phát hiện thông minh hơn. Không phải vậy.
Con đường thông minh hơn thì khó khăn hơn và ít hào nhoáng hơn. Nó có nghĩa là những tuyên bố khiêm tốn hơn. Chuyên môn ngôn ngữ tốt hơn. Các cuộc kiểm toán độc lập. Báo cáo lỗi công khai. Hệ thống kháng cáo rõ ràng. Các quy tắc mạnh mẽ chống lại việc suy diễn ý định bạo lực chỉ từ tôn giáo. Nó có nghĩa là thừa nhận rằng một mô hình không thể giải quyết một cách đáng tin cậy sự mơ hồ về chính trị, tôn giáo và văn hóa trên quy mô lớn chỉ vì bảng điều khiển của nhà cung cấp phát sáng màu đỏ.
Ngành công nghiệp AI rất thích nói về sự "liên kết" (alignment). Đây là một bài kiểm tra thực sự. Nếu những hệ thống này không thể phân biệt đức tin với sự cuồng tín, việc đưa tin với tuyên truyền, hay sự bất đồng chính kiến với nguy hiểm, thì chúng không làm chúng ta an toàn hơn. Chúng đang tự động hóa một trong những thất bại lâu đời nhất trong chính trị hiện đại: coi toàn bộ cộng đồng như một vấn đề cần được quản lý. Và một khi logic đó được lập trình vào trong mã, nó di chuyển nhanh, ẩn mình kỹ, và cực kỳ khó để hoàn tác.
Nguồn: Editorial Desk