Riesgos de la exposición de conversaciones con chatbots de IA: ESET analiza el impacto y cómo reducirlo

Espiga Noticias webmaster
Publicada: marzo 5, 2026

La creciente confianza de los usuarios en los chatbots de inteligencia artificial como espacios “íntimos y seguros” para compartir inquietudes personales, laborales y médicas implica riesgos significativos si esas conversaciones quedan expuestas. ESET, compañía dedicada a la detección proactiva de amenazas, analizó qué tipo de información se comparte con estas herramientas, de qué manera podría filtrarse y cuáles son las posibles consecuencias, además de proponer buenas prácticas para minimizar el riesgo.

La interacción con chatbots como ChatGPT, Gemini, Copilot, Claude o Perplexity se ha convertido para muchas personas en un ámbito donde volcar consultas emocionales, psicológicas, laborales y médicas. Sin embargo, ESET advierte que estas plataformas no fueron diseñadas como espacios confidenciales y que las propias empresas indican que las conversaciones pueden almacenarse, analizarse o revisarse para mejorar el servicio, aun cuando afirman aplicar medidas de seguridad y privacidad como controles de acceso, monitoreo y protección de infraestructura.

“No es una novedad que muchas personas usan los chatbots como si fueran espacios privados. Utilizarlos de esa manera se contradice con la naturaleza de este tipo de herramientas ya que las propias plataformas remarcan que las conversaciones pueden almacenarse, analizarse o revisarse para mejorar el servicio. Los chatbots no fueron concebidos como un lugar confidencial, más allá que la experiencia conversacional invite a pensarlos así. Si bien las principales plataformas de IA afirman aplicar medidas de seguridad y privacidad (controles de acceso, monitoreo, protección de infraestructura), esto no elimina el riesgo de sufrir brechas de datos, ni es sinónimo de invulnerabilidad.”, destaca Martina Lopez, Investigadora de Seguridad Informática de ESET Latinoamérica.

ESET detalla que, al usar los chatbots como asistentes personales o consejeros, los usuarios suelen compartir gran cantidad de información personal y sensible sin advertirlo. Entre los datos que se vuelcan habitualmente se encuentran datos personales como nombre, edad, ciudad, país y hábitos cotidianos, incluyendo lugar de trabajo, composición del núcleo familiar y con quién se convive. Según el análisis, esa información combinada puede resultar peligrosa si cae en manos equivocadas.

En el ámbito laboral, muchos usuarios comparten correos internos, contratos, informes, presentaciones, estrategias comerciales, campañas, detalles de clientes y proveedores, conversaciones, tickets, código fuente y arquitecturas internas con el objetivo de mejorar textos o procesos. A esto se suman las consultas médicas, psicológicas o emocionales, donde las personas presentan síntomas, diagnósticos, medicación, conflictos de pareja, duelos y consultas que no realizarían en otras redes, así como pedidos de consejo. También se comparten opiniones, creencias y posturas sobre ideología política o religiosa, valoraciones sobre empresas, jefes o colegas e información que, fuera de contexto, puede generar daño reputacional.

“El problema no es lo que se comparte, sino esa falsa sensación de intimidad y privacidad, la cual puede romperse muy fácilmente. Meses de conversaciones construyen un perfil, que puede tener un valor muy alto para un ciberatacante.”, agrega Lopez de ESET.

Según el análisis, la información compartida con chatbots de IA puede quedar expuesta y ser obtenida por cibercriminales por diversos motivos. Uno de los principales es el acceso indebido a la cuenta del usuario, ya sea mediante el robo o filtración de contraseñas, ataques de phishing o el uso de la misma clave en múltiples servicios. Otra vía son los chatbots manipulados mediante prompts maliciosos, diseñados para extraer datos de los usuarios. ESET también advierte sobre la aceptación de términos y condiciones sin lectura previa, dado que muchas plataformas recopilan y almacenan información de uso, como historiales y conversaciones, para entrenar sus modelos de lenguaje de manera predeterminada. Además, se señalan como riesgos las brechas de seguridad o errores en las plataformas que dejen expuestas las conversaciones, así como extensiones, apps o plugins que, al buscar potenciar al chatbot, puedan fallar, ser vulnerables o maliciosos, sacando la conversación del control del proveedor principal.

De acuerdo con ESET, los cinco riesgos principales derivados de una filtración de conversaciones con chatbots son el robo de identidad o la ingeniería social, el espionaje corporativo, el daño reputacional, la exposición de datos sensibles y la extorsión. En el robo de identidad y la ingeniería social, las conversaciones aportan contexto humano sobre hábitos, intereses, rutinas, servicios utilizados y problemáticas personales, además del tono comunicacional del usuario. Este conjunto de datos permite a los atacantes diseñar correos o mensajes altamente personalizados, simular comunicaciones de personas cercanas, ejecutar estafas basadas en información real y realizar suplantaciones de identidad difíciles de detectar.

En el plano corporativo, la filtración de documentos laborales, estrategias, decisiones internas, información sobre clientes, detalles de precios y productos puede implicar riesgos legales, ventajas competitivas para terceros y posibles incumplimientos contractuales. El daño reputacional puede producirse si se exponen opiniones privadas, dudas profesionales o pensamientos íntimos, con potencial de derivar en conflictos laborales o pérdida de credibilidad profesional. La exposición de datos sensibles incluye información relativa a salud, tratamientos, creencias religiosas o políticas, así como conflictos personales o familiares; de filtrarse, ESET señala que el impacto para la víctima puede incluir estigmatización, discriminación y vulneración emocional. En cuanto a la extorsión, disponer de información privada permite a los ciberatacantes ejercer presión mediante amenazas y chantajes personalizados con el objetivo de obtener beneficios económicos.

Para reducir el impacto de una posible exposición de conversaciones, el equipo de ESET propone una serie de buenas prácticas al interactuar con chatbots. Entre las recomendaciones figuran no compartir datos personales como número de documento, fecha de nacimiento, correo electrónico o teléfono; anonimizar casos reales cambiando nombres, empresas y ubicaciones; evitar adjuntar documentos sensibles, información confidencial o credenciales; revisar las configuraciones de privacidad para conocer qué se guarda y qué se utiliza para entrenamiento; proteger las cuentas con contraseñas robustas y doble factor de autenticación; y utilizar cuentas distintas para el trabajo y para el uso personal. También sugieren reflexionar antes de compartir información, planteándose si lo que se va a escribir se diría en voz alta en una sala con desconocidos.

“La comodidad de una conversación fluida, natural y sin juicio, hace que bajemos la guardia y compartamos información que jamás publicaríamos en otro espacio digital. Una filtración de conversaciones no expone solo información sino rutinas, vulnerabilidades, decisiones y emociones. Ahora bien, este escenario debe tomarse como una invitación a entender qué son y qué no. No son espacios confidenciales, ni consejeros personales, ni bóvedas de información sensible. Son herramientas poderosas, pero como toda tecnología, requieren criterio, límites y hábitos digitales responsables.”, concluye la investigadora de ESET.

Recibe las noticias más importantes al instante.

Únete a nuestro Canal de WhatsApp
¡Entra a Whatsapp!
Únete a nuestro Canal de Telegram
¡Entra a Telegram!