Cómo usar ChatGPT para identificar correos y SMS falsos y no caer en estafas
17 de abril de 2026
Los estafadores usan inteligencia artificial, pero tú también puedes. ChatGPT puede ayudarte a analizar mensajes sospechosos. Así puedes evitar caer en estafas y protegerte del fraude.
Los ciberdelincuentes usan cada vez más la inteligencia artificial para crear mensajes de estafa sofisticados y convincentes. Pero la gente común ha encontrado un nuevo y poderoso aliado para combatir el fraude: la propia IA. Ahora, las personas usan modelos de lenguaje avanzados como ChatGPT de OpenAI como un detector de estafas personal. Esto ofrece una forma rápida y accesible de analizar correos electrónicos y mensajes de texto sospechosos antes de ser víctima de ataques de phishing y smishing, que se han vuelto una amenaza constante en el mundo digital. El método es simple pero efectivo. Cuando una persona recibe un mensaje dudoso, ya sea un correo que dice ser de un banco o un mensaje de texto sobre la entrega de un paquete, puede copiar el texto y pegarlo directamente en ChatGPT, pidiéndole que lo analice.
La IA examina el mensaje en busca de señales de alerta comunes asociadas con actividades fraudulentas. Analiza el lenguaje para detectar indicios claros de ingeniería social, como un sentido de urgencia creado artificialmente o la solicitud de información personal sensible. El modelo también puede revisar los detalles del remitente y la estructura de los enlaces incluidos, y a menudo detecta las pequeñas inconsistencias que indican un intento de phishing. Este proceso ofrece una segunda opinión al instante, ayudando a exponer la intención maliciosa que podría estar oculta bajo una apariencia de legitimidad. Esta capacidad es crucial, ya que los propios estafadores usan la IA para generar mensajes muy realistas y sin los errores gramaticales que antes los delataban.
Esto es parte de una tendencia más amplia en la que la IA se está convirtiendo en una tecnología de doble uso en la ciberseguridad. Mientras los delincuentes la aprovechan para mejorar sus ataques, las empresas de tecnología y ciberseguridad están integrando capacidades de IA similares en sus propios sistemas de defensa. Empresas como Google están usando IA en dispositivos con productos como Chrome y Android para identificar y bloquear comportamientos de estafa en tiempo real. Al mismo tiempo, herramientas especializadas de detección de estafas de empresas de seguridad están incorporando IA generativa para ofrecer a los usuarios un análisis de amenazas robusto. Sin embargo, ChatGPT se destaca por su fácil acceso. Es un recurso gratuito e inmediato para cualquiera con conexión a internet.
Aunque es de gran ayuda, los expertos en seguridad advierten que depender de una IA de uso general como ChatGPT no es una solución completa. Los modelos de seguridad especialmente entrenados pueden tener una mayor tasa de detección. Pero ChatGPT destaca porque explica *por qué* un mensaje es sospechoso, sirviendo como una valiosa herramienta educativa. Por ejemplo, la IA puede señalar que un número de teléfono no coincide con el contacto oficial de una empresa o que un subdominio inusual en una URL es una táctica común de phishing. Esto no solo ayuda a la persona a evitar una estafa específica, sino que también la entrena para reconocer amenazas similares en el futuro.
En última instancia, la lucha contra las estafas en línea se está convirtiendo en una carrera armamentista entre la inteligencia artificial maliciosa y la beneficiosa. La mejor defensa sigue siendo una combinación de herramientas tecnológicas y vigilancia humana. Las personas deben seguir siendo prudentes, desconfiar de las solicitudes de información no pedidas y verificar las comunicaciones a través de canales oficiales. La capacidad de consultar rápidamente a un asistente de IA como ChatGPT añade otra poderosa capa de defensa, dando a las personas más poder para proteger mejor su vida digital del peligro siempre presente del fraude en línea.
Source: moneycontrol