CDMX. 15 de enero de 2026. Hoy, desahogarse en momentos de tristeza no siempre implica recurrir a otra persona, pues de acuerdo con una reciente investigación de Kaspersky, la inteligencia artificial está adoptando un nuevo papel en la vida digital de los humanos: el de apoyo emocional.
El estudio de la compañía revela que el 21% de los mexicanos que utiliza herramientas de IA afirma hablar con chatbots cuando se siente triste o decaído, una práctica que puede intensificarse en fechas como el Blue Monday y que plantea riesgos para la privacidad de los usuarios.
El Blue Monday se conmemora el tercer lunes de enero y es considerado el día más triste del año, pues suele asociarse con factores como el clima, el regreso a la rutina tras las fiestas decembrinas o las deudas de fin de año.
En este escenario, las personas buscan hablar y sentirse escuchadas; y en el mundo digital, cada vez son más quienes recurren a herramientas de inteligencia artificial para expresar cómo se sienten, percibiéndolas como un entorno “seguro” por su disponibilidad inmediata, la rapidez de sus respuestas y la ausencia de juicios o reacciones emocionales. Sin embargo, esto puede llevar a compartir información demasiado personal con mayor confianza de la que se tendría en otros espacios.
La tendencia es especialmente visible entre los jóvenes. A nivel global, la Generación Z y los Millennials lideran el uso de la IA como apoyo: 35% afirma acudir a estas herramientas en momentos de malestar emocional, frente al 19% de las personas de 55 años o más. Esto refleja un cambio en la forma en que las nuevas generaciones gestionan sus emociones, en la que cada vez involucran más a las plataformas digitales, sin dimensionar las posibles implicaciones y riesgos de privacidad.
Aunque la interacción con chatbots parece íntima y privada, la mayoría de estas herramientas pertenecen a empresas comerciales con políticas de recopilación y tratamiento de datos. Esto implica que la información compartida, incluidas conversaciones sobre estados de ánimo o situaciones personales, puede almacenarse y analizarse para distintos fines, como la mejora de servicios o la personalización de experiencias para los usuarios. A ello se suman los riesgos de ciberseguridad.
“Al ‘hablar’ con chatbots de IA sin cautela, los usuarios pueden enfrentar riesgos de privacidad. Como cualquier plataforma digital, estas herramientas pueden presentar fallas de seguridad o ser vulneradas, derivando en la filtración de conversaciones personales que expongan información sensible. También existen bots falsos diseñados para obtener datos personales con fines maliciosos, como fraudes, robo de identidad o extorsión, lo que incluso puede impactar emocionalmente a los usuarios. Además, no toda la información que ofrecen es precisa ni reemplaza el acompañamiento profesional. Por eso, prestar atención a lo que compartimos y recurrir a fuentes confiables y apoyo especializado es clave, especialmente en temas tan sensibles como nuestras emociones. La seguridad digital también es parte de cómo nos cuidamos”, comenta María Isabel Manjarrez, Investigadora de seguridad del Equipo Global de Investigación y Análisis de Kaspersky.
Si en este Blue Monday tienes interés en interactuar con herramientas de inteligencia artificial, los expertos de Kaspersky recomiendan cuatro medidas básicas para protegerte:
Revisa la política de privacidad antes de iniciar una conversación. Algunos servicios pueden utilizar las interacciones para analizar comportamientos, personalizar publicidad o entrenar modelos de IA. Verifica si puedes evitar que tus chats se usen con estos fines para reducir la cantidad de datos compartidos.
Evita compartir información personal, identificable o financiera. Por ejemplo, tu nombre completo, fecha de nacimiento, dirección, número de teléfono, cuentas de correo, contraseñas o datos de tarjetas bancarias. Las conversaciones con chatbots no deben considerarse confidenciales, ya que la información puede almacenarse y ser accesible para terceros ante un incidente, incluyendo cibercriminales.
Verifica la información que ofrecen los chatbots y busca apoyo profesional cuando sea necesario. Las respuestas generadas por IA pueden ser incompletas, imprecisas o sesgadas y no sustituyen la orientación de expertos en salud mental; por ello, es importante contrastar la información y acudir a especialistas.
Utiliza únicamente plataformas reconocidas y confiables. Los bots anónimos o desconocidos pueden estar diseñados para recolectar datos con fines maliciosos. Protege tu información con soluciones de seguridad, como Kaspersky Premium, que bloqueen enlaces y sitios poco confiables.

