Cisco advierte: sin gobernanza, la IA corporativa puede convertirse en un “usuario interno de alto riesgo”
La IA ya está en las empresas, pero sin control: solo 9% tiene gobernanza formal, un riesgo que puede convertir a los agentes digitales en amenazas internas.
.png)

La adopción de inteligencia artificial en las empresas avanza más rápido que su regulación interna. En PROCOMER, el estudio Caracterización del Sector TIC’s Costa Rica 2025 revela que el 76% de las compañías tecnológicas ya emplea herramientas de IA generativa o agentes digitales, mientras que un 33% desarrolla soluciones propias. Sin embargo, apenas el 9% ha establecido políticas formales para gobernar su uso.
Para Cisco, esta brecha entre adopción y control representa uno de los mayores riesgos en la nueva etapa de la inteligencia artificial empresarial.
La nueva frontera: agentes autónomos con capacidad de acción
Durante la conferencia RSAC 2026, la compañía advirtió que la gestión segura de los agentes de IA se está convirtiendo en una prioridad crítica. A diferencia de los sistemas tradicionales, estos agentes no solo analizan datos: ejecutan tareas, interactúan con aplicaciones y toman decisiones con mínima intervención humana.
Esto cambia radicalmente el paradigma de seguridad
“La capacidad de delegar tareas en sistemas confiables será la diferencia entre liderar el mercado o quedar rezagado”, afirmó Jeetu Patel, presidente y chief product officer de Cisco.
El problema es que, al tener acceso a información sensible y capacidad operativa, un agente mal configurado —o comprometido— puede actuar como un “usuario interno” con potencial de causar daños significativos.
Tres claves para implementar IA de forma segura
Frente a este escenario, Cisco plantea tres ejes fundamentales para que las organizaciones puedan escalar la inteligencia artificial sin comprometer su operación:
1. Proteger a los agentes frente a amenazas externas
Los sistemas de IA deben blindarse ante ciberataques, manipulación de datos o intentos de acceso no autorizado. Esto implica integrar la seguridad desde el diseño, no como un componente posterior.
2. Proteger a la organización de los propios agentes
No todo el riesgo viene de fuera. Un agente con acceso excesivo o mal gobernado puede generar errores, filtrar información o ejecutar acciones no deseadas. Aquí, la clave es limitar permisos y definir claramente qué puede —y qué no puede— hacer cada sistema.
3. Responder a incidentes a escala y velocidad de la IA
Los incidentes ya no ocurren en tiempos humanos. Las empresas deben contar con capacidades de monitoreo y respuesta automatizada que operen en tiempo real, al ritmo de los propios sistemas inteligentes.
Del control humano al control de identidades digitales
Uno de los cambios más relevantes es que la seguridad corporativa debe evolucionar para incluir identidades digitales autónomas. Es decir, no solo gestionar usuarios humanos, sino también agentes de IA como entidades con permisos, roles y límites.
En este contexto, el modelo de Zero Trust gana protagonismo. Su principio es claro: ningún sistema —humano o artificial— debe tener acceso por defecto; todo debe ser verificado y restringido a lo estrictamente necesario.
Gobernanza: el verdadero diferencial
Más allá de la tecnología, Cisco subraya que el factor crítico será la gobernanza. Las empresas necesitan saber:
Qué agentes existen dentro de su ecosistema
Qué funciones desempeñan
Qué datos utilizan
Bajo qué reglas operan
Esto implica implementar herramientas de descubrimiento, políticas de acceso, controles sobre el ciclo de vida de los agentes y supervisión continua.
Una oportunidad con condiciones
Para mercados como Costa Rica —y, por extensión, América Latina—, la inteligencia artificial representa una oportunidad clara de eficiencia y competitividad. Pero también introduce un nuevo tipo de riesgo: sistemas autónomos operando dentro del negocio sin controles adecuados.

.png)

.png)

