• 12 de febrero de 2026 04:19

ChatGPT y el trend de las caricaturas: el riesgo oculto que podría exponer tu privacidad

Porradioplayjujuy

Feb 12, 2026

En las últimas semanas, una nueva tendencia copó redes como Instagram, TikTok y LinkedIn: usuarios que le piden a ChatGPT caricaturas o ilustraciones basadas en su perfil profesional.

Lo que empezó como un recurso creativo para presentarse ante colegas o seguidores encendió alertas en el mundo de la ciberseguridad. El problema no está en la imagen final, sino en la información que muchas personas entregan para obtenerla.

ChatGPT y el trend de las caricaturas: el riesgo oculto que podría exponer tu privacidad.

El riesgo del trend de las caricaturas en ChatGPT

Para lograr una caricatura “a medida”, los usuarios suelen compartir fotos personales y descripciones detalladas sobre su trabajo, cargo, empresa, ciudad, rutinas diarias, hobbies e incluso referencias familiares. Esa suma de datos, combinada con el historial de interacciones previas con el chatbot, permite construir un perfil digital extremadamente preciso. Cuanto más completo es ese perfil, mayor es el riesgo.

Especialistas en seguridad informática explican que este tipo de prácticas facilita ataques de ingeniería social. Desde Kaspersky advierten que cada dato aportado, texto, imagen o contexto, puede ser utilizado para diseñar estafas más creíbles. Un correo falso que mencione proyectos reales, nombres de superiores o información laboral específica tiene muchas más chances de engañar a la víctima.

El riesgo es aún mayor en América Latina. Estudios recientes muestran que casi uno de cada cuatro usuarios reconoce tener dificultades para identificar mensajes fraudulentos. Además, al interactuar con plataformas de inteligencia artificial no solo se comparte el contenido visible: también quedan registrados datos técnicos como la dirección IP, patrones de uso y la imagen original cargada.

ChatGPT y el trend de las caricaturas: el riesgo oculto que podría exponer tu privacidad.

Según las políticas de cada servicio, esa información puede almacenarse durante largos períodos o utilizarse para entrenar modelos, algo que muchos usuarios desconocen. A esto se suma que más de una cuarta parte de las personas no revisa los permisos que acepta al usar una aplicación, cediendo control sobre su información personal.

Para reducir riesgos, los especialistas recomiendan evitar incluir nombres completos, empresas, direcciones o rutinas en los pedidos a la IA. También sugieren no subir imágenes con credenciales, documentos o logotipos corporativos y extremar cuidados cuando se trata de menores de edad.

En las últimas semanas, una nueva tendencia copó redes como Instagram, TikTok y LinkedIn: usuarios que le piden a ChatGPT caricaturas o ilustraciones basadas en su perfil profesional. Lo que empezó como un recurso creativo para presentarse ante colegas o seguidores encendió alertas en el mundo de la ciberseguridad. El problema no está en la imagen final, sino en la información que muchas personas entregan para obtenerla.El riesgo del trend de las caricaturas en ChatGPTPara lograr una caricatura “a medida”, los usuarios suelen compartir fotos personales y descripciones detalladas sobre su trabajo, cargo, empresa, ciudad, rutinas diarias, hobbies e incluso referencias familiares. Esa suma de datos, combinada con el historial de interacciones previas con el chatbot, permite construir un perfil digital extremadamente preciso. Cuanto más completo es ese perfil, mayor es el riesgo.Especialistas en seguridad informática explican que este tipo de prácticas facilita ataques de ingeniería social. Desde Kaspersky advierten que cada dato aportado, texto, imagen o contexto, puede ser utilizado para diseñar estafas más creíbles. Un correo falso que mencione proyectos reales, nombres de superiores o información laboral específica tiene muchas más chances de engañar a la víctima.El riesgo es aún mayor en América Latina. Estudios recientes muestran que casi uno de cada cuatro usuarios reconoce tener dificultades para identificar mensajes fraudulentos. Además, al interactuar con plataformas de inteligencia artificial no solo se comparte el contenido visible: también quedan registrados datos técnicos como la dirección IP, patrones de uso y la imagen original cargada.Según las políticas de cada servicio, esa información puede almacenarse durante largos períodos o utilizarse para entrenar modelos, algo que muchos usuarios desconocen. A esto se suma que más de una cuarta parte de las personas no revisa los permisos que acepta al usar una aplicación, cediendo control sobre su información personal.Para reducir riesgos, los especialistas recomiendan evitar incluir nombres completos, empresas, direcciones o rutinas en los pedidos a la IA. También sugieren no subir imágenes con credenciales, documentos o logotipos corporativos y extremar cuidados cuando se trata de menores de edad.