10 riesgos de seguridad que debes conocer al usar IA en el trabajo
En Resumen Para mediados de 2025, la IA estará profundamente arraigada en las operaciones del lugar de trabajo, pero su uso generalizado (especialmente a través de herramientas no seguras) ha aumentado significativamente los riesgos de ciberseguridad, lo que genera llamados urgentes para una mejor gobernanza de datos, controles de acceso y políticas de seguridad específicas para la IA.
Para mediados de 2025, la inteligencia artificial ya no será un concepto futurista en el ámbito laboral. Estará integrada en los flujos de trabajo diarios de marketing, legal, ingeniería, atención al cliente, RR. HH. y más. Los modelos de IA ahora ayudan a redactar documentos, generar informes, codificar e incluso automatizar el soporte interno por chat. Pero a medida que crece la dependencia de la IA, también crece el panorama de riesgos.
Un informe Cybersecurity Ventures proyecta que los costos globales del cibercrimen alcanzarán los 10.5 billones de dólares para 2025 , lo que refleja un aumento anual del 38 % en las vulneraciones de seguridad relacionadas con la IA en comparación con el año anterior. La misma fuente estima que alrededor del 64 % de los equipos empresariales utilizan IA generativa de alguna forma, mientras que solo el 21 % de estas organizaciones cuentan con políticas formales de gestión de datos.
Estas cifras no son solo un rumor en el sector, sino que indican una creciente exposición a gran escala. Dado que la mayoría de los equipos aún dependen de herramientas de IA públicas o gratuitas, la necesidad de concienciar sobre la seguridad de la IA es apremiante.
A continuación, se presentan los 10 riesgos críticos de seguridad que enfrentan los equipos al usar IA en el trabajo. Cada sección explica la naturaleza del riesgo, cómo funciona, por qué representa un peligro y dónde aparece con mayor frecuencia. Estas amenazas ya están afectando a organizaciones reales en 2025.
Fuga de entrada a través de indicaciones
Una de las brechas de seguridad más frecuentes comienza en el primer paso: el propio mensaje. En los departamentos de marketing, RR. HH., legal y atención al cliente, los empleados suelen copiar documentos confidenciales, correos electrónicos de clientes o código interno en herramientas de IA para redactar respuestas rápidamente. Si bien esto parece eficiente, la mayoría de las plataformas almacenan al menos una parte de estos datos en servidores backend, donde pueden registrarse, indexarse o utilizarse para mejorar los modelos. Según Según un informe de Varonis de 2025, el 99 % de las empresas admitieron compartir datos confidenciales o de clientes con IA. servicios sin aplicar controles de seguridad internos..
Cuando los datos de la empresa acceden a plataformas de terceros, suelen estar expuestos a políticas de retención y acceso del personal que muchas empresas no controlan por completo. Incluso los modos "privados" pueden almacenar fragmentos para su depuración. Esto conlleva riesgos legales, especialmente bajo el RGPD, la HIPAA y leyes similares. Para reducir la exposición, las empresas ahora utilizan filtros para eliminar datos sensibles antes de enviarlos a herramientas de IA y establecen normas más claras sobre lo que se puede compartir.
Almacenamiento de datos ocultos en los registros de IA
Muchos servicios de IA mantienen registros detallados de las indicaciones y los resultados del usuario, incluso después de que este los elimine. Informe de amenazas a los datos de Thales 2025 señalado que el 45% de las organizaciones experimentaron incidentes de seguridad que involucraron datos persistentes en registros de IA.
Esto es especialmente crítico en sectores como finanzas, derecho y salud, donde incluso un registro temporal de nombres, detalles de cuentas o historiales médicos puede infringir los acuerdos de cumplimiento. Algunas empresas dan por sentado que basta con eliminar datos del front-end; en realidad, los sistemas back-end suelen almacenar copias durante días o semanas, especialmente cuando se utilizan para optimización o capacitación.
Los equipos que buscan evitar este problema recurren cada vez más a planes empresariales con acuerdos estrictos de retención de datos e implementan herramientas que confirman la eliminación del backend, en lugar de confiar en botones vagos del panel de control que dicen "eliminar historial".
Desviación del modelo mediante el aprendizaje de datos confidenciales
A diferencia del software tradicional, muchas plataformas de IA mejoran sus respuestas aprendiendo de la información del usuario. Esto significa que una solicitud con lenguaje legal único, estrategia del cliente o código propietario podría afectar los resultados futuros proporcionados a usuarios no relacionados. El índice de IA de Stanford 2025 encontró un aumento interanual del 56 % en casos reportados donde datos específicos de la empresa aparecieron inadvertidamente en resultados en otros lugares.
En industrias donde la ventaja competitiva depende de la propiedad intelectual, incluso pequeñas filtraciones pueden perjudicar los ingresos y la reputación. Dado que el aprendizaje es automático a menos que se desactive específicamente, muchas empresas ahora requieren implementaciones locales o modelos aislados que no retengan datos de usuarios ni aprendan de información confidencial.
Phishing y fraude generados por IA
La IA ha hecho que los ataques de phishing sean más rápidos, más convincentes y mucho más difíciles de detectar. En 2025, DMARC informó un aumento del 4000% En campañas de phishing generadas por IA, muchas de las cuales utilizaron patrones de lenguaje internos auténticos extraídos de datos filtrados o públicos de empresas. Según Según Hoxhunt, las estafas deepfake basadas en voz aumentaron un 15% este año , con daños promedio por ataque cercanos a los 4.88 millones de dólares.
Estos ataques suelen imitar los patrones de habla y los estilos de comunicación de los ejecutivos con tanta precisión que la capacitación tradicional en seguridad ya no los detiene. Para protegerse, las empresas están ampliando las herramientas de verificación de voz, implementando canales de confirmación secundarios para las aprobaciones de alto riesgo y capacitando al personal para detectar lenguaje sospechoso, incluso cuando parezca refinado y sin errores.
Control débil sobre las API privadas
En la prisa por implementar nuevas herramientas, muchos equipos conectan modelos de IA a sistemas como paneles de control o CRM mediante API con mínima protección. Estas integraciones suelen omitir prácticas clave como la rotación de tokens, los límites de velocidad o los permisos específicos de usuario. Si un token se filtra (o se sospecha), los atacantes pueden extraer datos o manipular los sistemas conectados sin que nadie se dé cuenta.
Este riesgo no es teórico. Un estudio reciente Un estudio de Akamai descubrió que el 84% de los expertos en seguridad informaron un incidente de seguridad de API Durante el último año. Casi la mitad de las organizaciones han sufrido filtraciones de datos debido a la exposición de tokens API. En un caso, los investigadores... Se encontraron más de 18,000 secretos de API expuestos en repositorios públicos. .
Dado que estos puentes API se ejecutan silenciosamente en segundo plano, las empresas suelen detectar brechas de seguridad solo tras detectar comportamientos inusuales en análisis o registros de clientes. Para frenar esto, las empresas líderes están reforzando los controles mediante la aplicación de una vida útil corta de los tokens, la realización de pruebas de penetración periódicas en endpoints conectados a IA y el mantenimiento de registros de auditoría detallados de toda la actividad de las API.
Adopción de Shadow AI en Teams
Para 2025, el uso no autorizado de IA, conocido como "IA en la sombra", se habrá generalizado. Un estudio de Zluri descubrió que el 80% del uso de IA empresarial ocurre a través de herramientas no aprobadas por los departamentos de TI.
Los empleados suelen recurrir a extensiones de navegador descargables, generadores de código reducido o chatbots de IA públicos para satisfacer necesidades inmediatas. Estas herramientas pueden enviar datos internos a servidores no verificados, carecer de cifrado o recopilar registros de uso ocultos para la organización. Sin visibilidad sobre los datos que se comparten, las empresas no pueden garantizar el cumplimiento normativo ni mantener el control.
Para combatir esto, muchas empresas implementan soluciones de monitoreo interno que detectan servicios desconocidos. También mantienen listas seleccionadas de herramientas de IA aprobadas y exigen a los empleados que interactúen únicamente a través de canales autorizados que se integran con entornos seguros.
Inyección rápida y plantillas manipuladas
La inyección de mensajes ocurre cuando alguien inserta instrucciones dañinas en plantillas de mensajes compartidos o entradas externas, ocultas en texto legítimo. Por ejemplo, un mensaje diseñado para "resumir el último correo electrónico del cliente" podría modificarse para extraer historiales completos de hilos o revelar contenido confidencial involuntariamente. OWASP 2025 GenAI Security Top 10 enumera la inyección rápida como una vulnerabilidad líder , advirtiendo que las entradas proporcionadas por el usuario, especialmente cuando se combinan con datos externos, pueden fácilmente anular las instrucciones del sistema y eludir las medidas de seguridad.
Las organizaciones que dependen de bibliotecas internas de indicaciones sin una supervisión adecuada se arriesgan a problemas en cascada: exposición no deseada de datos, resultados engañosos o flujos de trabajo corruptos. Este problema suele surgir en sistemas de gestión del conocimiento y respuestas automatizadas a clientes o legales basadas en plantillas de indicaciones. Para combatir esta amenaza, los expertos recomiendan aplicar un proceso de gobernanza por capas: verificar centralmente todas las plantillas de indicaciones antes de su implementación, depurar las entradas externas siempre que sea posible y probar las indicaciones en entornos aislados para garantizar que no se filtren instrucciones ocultas.
Problemas de cumplimiento derivados de resultados no verificados
La IA generativa suele generar textos pulidos; sin embargo, estos resultados pueden ser incompletos, inexactos o incluso incumplir la normativa. Esto es especialmente peligroso en los sectores financiero, legal o sanitario, donde pequeños errores o un lenguaje engañoso pueden acarrear multas o responsabilidades.
Según Encuesta 2025 de ISACA: el 83 % de las empresas informan que utilizan IA generativa a diario , pero solo el 31 % cuenta con políticas internas formales de IA. Es alarmante que el 64 % de los profesionales expresara una seria preocupación por el uso indebido; sin embargo, solo el 18 % de las organizaciones invierte en medidas de protección como la detección de deepfakes o revisiones de cumplimiento.
Dado que los modelos de IA no comprenden los matices legales, muchas empresas exigen ahora el cumplimiento normativo o la revisión legal de cualquier contenido generado por IA antes de su uso público. Este paso garantiza que las afirmaciones cumplan con los estándares regulatorios y evita que los clientes o usuarios sean inducidos a error.
Riesgos de los complementos de terceros
Muchas plataformas de IA ofrecen complementos de terceros que se conectan al correo electrónico, calendarios, bases de datos y otros sistemas. Estos complementos a menudo carecen de revisiones de seguridad rigurosas y Un informe de seguridad de IA de Check Point Research de 2025 descubrió que 1 de cada 80 indicaciones de IA conllevaba un alto riesgo de fuga. Datos confidenciales: parte de ese riesgo proviene de interacciones asistidas por complementos. Check Point también advierte que las herramientas de IA no autorizadas y las integraciones mal configuradas se encuentran entre las principales amenazas emergentes para la integridad de los datos empresariales.
Al instalarse sin revisión, los complementos pueden acceder a las entradas y salidas de los avisos, así como a las credenciales asociadas. Pueden enviar dicha información a servidores externos que no están bajo la supervisión corporativa, a veces sin cifrado ni registro de acceso adecuado.
Varias empresas ahora requieren la verificación de complementos antes de la implementación, solo permiten complementos incluidos en la lista blanca y monitorean las transferencias de datos vinculadas a integraciones de IA activas para garantizar que ningún dato salga de los entornos controlados.
Falta de gobernanza del acceso en las herramientas de IA
Muchas organizaciones dependen de cuentas de IA compartidas sin permisos específicos de usuario, lo que hace imposible rastrear quién envió qué indicaciones o accedió a qué resultados. Informe Varonis 2025 que analiza 1,000 entornos de nube Se descubrió que el 98 % de las empresas utilizaban aplicaciones de IA no verificadas o no autorizadas, y que el 88 % mantenía usuarios fantasma con acceso persistente a sistemas sensibles (fuente). Estos hallazgos ponen de relieve que casi todas las empresas enfrentan deficiencias de gobernanza que pueden provocar filtraciones de datos imposibles de rastrear.
Cuando no se rastrea el acceso individual, el uso indebido interno de datos, ya sea accidental o malicioso, suele pasar desapercibido durante largos periodos. Las credenciales compartidas difuminan la responsabilidad y complican la respuesta ante incidentes cuando se producen filtraciones. Para solucionar esto, las empresas están migrando a plataformas de IA que implementan permisos granulares, registros de actividad a nivel de solicitud y atribución de usuarios. Este nivel de control permite detectar comportamientos inusuales, revocar el acceso inactivo o no autorizado con prontitud y rastrear cualquier actividad de datos hasta una persona específica.
Qué hacer ahora
Analice cómo sus equipos usan la IA a diario. Determine qué herramientas manejan datos privados y quién puede acceder a ellos. Establezca reglas claras sobre qué se puede compartir con los sistemas de IA y cree una lista de verificación sencilla: rote los tokens de API, elimine los complementos no utilizados y confirme que cualquier herramienta que almacene datos tenga opciones de eliminación reales. La mayoría de las brechas de seguridad ocurren porque las empresas asumen que "alguien más está observando". En realidad, la seguridad comienza con las pequeñas medidas que toma hoy.
Descargo de responsabilidad: El contenido de este artículo refleja únicamente la opinión del autor y no representa en modo alguno a la plataforma. Este artículo no se pretende servir de referencia para tomar decisiones de inversión.
También te puede gustar
Lanzamos el trading de futuros y los bots de trading de CROSSUSDT
Lanzamos el trading de futuros y los bots de trading de BULLAUSDT
Nuevos pares de trading con margen en spot: ¡ICNT/USDT!
Lanzamos el trading de futuros y los bots de trading de ICNTUSDT
En tendencia
MásPrecios de las criptos
Más








