AI trên điện thoại: 'Lá chắn' mới chặn đứng những hình ảnh nhạy cảm gửi bừa bãi
31 tháng 3, 2026

Nhiều người cho rằng các công ty công nghệ hiện đại có thể lọc ngay lập tức mọi nội dung bị cấm trước khi chúng đến màn hình người dùng. Chúng ta tin tưởng trí tuệ nhân tạo có thể phát hiện vi phạm bản quyền trong vài giây, cảnh báo phát ngôn thù địch ngay khi đang gõ, và thậm chí tạo ra những bức tranh phong cảnh siêu thực chỉ từ một dòng lệnh văn bản. Tuy nhiên, trong hơn một thập kỷ, một hình thức quấy rối kỹ thuật số phổ biến và rất đặc thù đã lọt qua những mạng lưới thuật toán khổng lồ này. Những bức ảnh không mong muốn về bộ phận sinh dục nam, thường bị xem như một trò đùa nghiệt ngã nhưng khó tránh khỏi của thời đại hẹn hò kỹ thuật số, lại tạo ra một thách thức khó khăn đáng ngạc nhiên cho các kỹ sư thị giác máy tính. Cuộc chiến xây dựng phần mềm có thể xác định và chặn chính xác những hình ảnh nhạy cảm này mà không vi phạm quyền riêng tư của người dùng đang định hình lại cách chúng ta thiết kế cơ sở hạ tầng kỹ thuật số hiện đại.
Quy mô của vấn đề này rất đáng kinh ngạc, đòi hỏi một sự can thiệp về công nghệ chứ không chỉ về hành vi. Dữ liệu do Trung tâm Nghiên cứu Pew thu thập đã liên tục cho thấy gần một nửa số phụ nữ trẻ hoạt động trên mạng đã nhận được hình ảnh nhạy cảm mà họ không yêu cầu. Trong các ứng dụng hẹn hò, các diễn đàn nhắn tin ẩn danh và tin nhắn trực tiếp trên mạng xã hội, sự xuất hiện đột ngột của những hình ảnh này hoạt động như một hình thức phô dâm kỹ thuật số. Trong nhiều năm, các nền tảng hoàn toàn dựa vào việc kiểm duyệt bị động. Người dùng phải mở tin nhắn, trải qua cú sốc về hình ảnh, sau đó tự mình tìm đến mục báo cáo để cảnh báo cho đội ngũ kiểm duyệt viên. Hệ thống cũ này buộc nạn nhân phải gánh toàn bộ gánh nặng thực thi, trong khi bản thân phần mềm vẫn hoàn toàn là một kênh truyền thụ động cho hành vi lạm dụng.
Sự thất bại của các phần mềm đời đầu trong việc xử lý vấn đề này cuối cùng đã thu hút sự chú ý của các nhà lập pháp, chuyển vấn đề từ một khiếu nại đơn thuần của người dùng thành một trách nhiệm pháp lý mang tính hệ thống. Tại Vương quốc Anh, luật pháp gần đây đã chính thức hình sự hóa hành vi phô dâm qua mạng (cyberflashing), cùng với ngày càng nhiều khu vực pháp lý ở Hoa Kỳ như California và Texas, đã áp đặt các hình phạt cho việc gửi hình ảnh nhạy cảm không mong muốn. Khi rủi ro pháp lý leo thang, các công ty công nghệ không còn có thể coi vấn đề này là một lỗi kiểm duyệt lặt vặt, ưu tiên thấp. Họ buộc phải đầu tư mạnh vào kỹ thuật chủ động, nhưng rồi lại vấp phải những hạn chế kỹ thuật nghiêm trọng của phần mềm nhận dạng hình ảnh hiện có.
Nguyên nhân sâu xa của sự chậm trễ này không chỉ là sự thờ ơ của các công ty, mà còn là một hạn chế thực sự trong trí tuệ nhân tạo và kiến trúc bảo mật. Việc huấn luyện một mô hình học máy để nhận dạng các bộ phận cơ thể người cụ thể nghe có vẻ đơn giản trong một thế giới mà nhận dạng khuôn mặt đã quá phổ biến, nhưng cơ thể người lại có những biến số vô cùng phức tạp đối với máy tính. Các thuật toán nhận dạng hình ảnh ban đầu đã liên tục gặp khó khăn với các kết quả dương tính giả. Sự thay đổi về ánh sáng, các tông màu da đa dạng, bóng đổ đậm, và cả những vật thể hoàn toàn vô hại như ngón tay, xúc xích, hay những loại quả có hình thù kỳ lạ thường xuyên đánh lừa phần mềm, khiến nó gắn cờ các bức ảnh vô hại. Các kỹ sư nhận thấy rằng một thuật toán được điều chỉnh quá khắt khe sẽ kiểm duyệt cả các cuộc trò chuyện hàng ngày, trong khi một thuật toán được điều chỉnh quá lỏng lẻo sẽ để lọt các hành vi quấy rối.
Hơn nữa, khi ngành công nghệ nói chung chuyển sang mã hóa đầu cuối để bảo vệ quyền riêng tư của người dùng toàn cầu, một rào cản lớn mới đã xuất hiện đối với những người kiểm duyệt nội dung. Nếu một nền tảng không thể giải mã và xem nội dung của tin nhắn trực tiếp trên các máy chủ trung tâm của mình một cách hợp pháp hay kỹ thuật, thì nó không thể sử dụng thuật toán trên đám mây để quét các hình ảnh lạm dụng trong quá trình gửi. Điều này đã tạo ra một nghịch lý cho cơ sở hạ tầng kỹ thuật số. Chính các tiêu chuẩn mã hóa được thiết kế để giữ an toàn cho người dùng khỏi sự giám sát của chính phủ và việc thu thập dữ liệu của các công ty lại vô tình cung cấp một đường hầm hoàn toàn an toàn cho những kẻ xấu phát tán hình ảnh nhạy cảm không mong muốn mà không bị phát hiện.
Thất bại của công nghệ trong việc lọc những hình ảnh này gây ra những hậu quả nghiêm trọng cho đời sống công cộng trên không gian mạng. Nghiên cứu về hành vi trực tuyến đã nhiều lần chứng minh rằng việc thường xuyên tiếp xúc với quấy rối tình dục kỹ thuật số tạo ra một rào cản tâm lý lớn, khiến người dùng e dè tham gia vào các hoạt động trực tuyến. Người dùng cho biết họ cảm thấy không an toàn ngay trong chính tin nhắn của mình, dẫn đến việc họ khóa trang cá nhân, từ bỏ các cuộc thảo luận công khai, hoặc rời bỏ hoàn toàn một số ứng dụng. Sự phiền toái trong trao đổi kỹ thuật số này hoàn toàn không cân xứng. Việc tải lên và gửi một bức ảnh chỉ mất một phần giây, nhưng việc xử lý sự tổn thương về cảm xúc, chặn người gửi và điều hướng một giao diện báo cáo rườm rà lại tiêu tốn rất nhiều thời gian và năng lượng của người nhận. Về cơ bản, kiến trúc của Internet đã vô tình trợ cấp cho hành vi quấy rối bằng cách khiến nó không tốn chi phí gì cho người gửi nhưng lại làm người nhận kiệt sức.
Để giải quyết bài toán phức tạp này, các kỹ sư đã phải suy nghĩ lại về cách thức hoạt động cơ bản của việc kiểm duyệt hình ảnh. Thay vì quét hình ảnh trên một đám mây tập trung, các công ty bắt đầu phát triển các mô hình trí tuệ nhân tạo gọn nhẹ có khả năng chạy hoàn toàn trên phần cứng của điện thoại thông minh. Khái niệm này, được gọi là điện toán biên (edge computing), đẩy sức mạnh phân tích xuống thiết bị trong tay bạn. Các nền tảng hẹn hò đã đi tiên phong với các phiên bản đầu tiên của tính năng phát hiện tại chỗ này, triển khai các thuật toán được huấn luyện trên các bộ dữ liệu rất cụ thể để xác định bộ phận sinh dục nam trong một hình ảnh ngay trên máy trước cả khi nó hiển thị đầy đủ trên màn hình.
Khi phần mềm trên máy tính toán rằng có khả năng cao nội dung là nhạy cảm, nó sẽ tự động làm mờ bức ảnh và hiển thị cảnh báo cho người dùng. Điều này cho phép người nhận có quyền xem ảnh, báo cáo hoặc xóa nó mà không bao giờ bị buộc phải xem phiên bản không bị làm mờ. Gần đây, Apple đã tích hợp một tính năng an toàn tương tự mà người dùng có thể tùy chọn bật trực tiếp vào hệ điều hành di động của mình. Vì việc phân tích hình ảnh diễn ra hoàn toàn trên con chip của chính thiết bị thay vì trên một máy chủ từ xa, mã hóa đầu cuối vẫn được giữ nguyên vẹn. Nền tảng không bao giờ thực sự nhìn thấy bức ảnh, nhưng người dùng vẫn được che chắn khỏi hành vi lạm dụng.
Các công cụ làm mờ trên thiết bị này đại diện cho một sự thay đổi lớn về triết lý trong cách chúng ta xây dựng cơ sở hạ tầng kỹ thuật số và ưu tiên sự an toàn cá nhân. Trong một thời gian dài, ngành công nghệ đã coi việc bảo vệ người dùng là một vấn đề thứ yếu, một vấn đề được xử lý bởi những người kiểm duyệt được trả lương thấp, những người dọn dẹp mớ hỗn độn kỹ thuật số sau khi tổn thương tâm lý đã xảy ra. Bằng cách đẩy trí tuệ nhân tạo trực tiếp đến rìa mạng lưới, các nhà phát triển cuối cùng cũng đang xây dựng các đường biên giới kỹ thuật số mà người dùng có thể kiểm soát. Công nghệ ban đầu đã tạo ra một môi trường không rào cản cho phép hình thức quấy rối đặc thù này phát triển mạnh, nhưng với các thuật toán thông minh hơn và tôn trọng quyền riêng tư, cuối cùng nó cũng đang cung cấp các công cụ để đóng cánh cửa đó lại.