.avif)
5/7/2025
Rubi Pérez Ponce, Grupo Bimbo: «El primer reto es garantizar que la IA opere bajo principios éticos»
Comparte esta nota
.avif)

La pandemia de coronavirus no solo transformó la forma en que trabajamos, sino que también aceleró la adopción de tecnologías disruptivas en sectores tradicionalmente conservadores. El mundo jurídico y del compliance no fue la excepción. Rubí Alethia Pérez Ponce, Director Global General Counsel del Grupo Bimbo, ha sido testigo de primera mano de esta transformación.
Entrevistada por SIMALCO, la ejecutiva de Bimbo explicó que el uso de la inteligencia artificial comenzó como una necesidad urgente de procesar grandes volúmenes de información legal y regulatoria durante el confinamiento, pero que en el último tiempo se ha convertido en una revolución silenciosa que está redefiniendo la práctica del derecho y el compliance.
Desde 2020, la inteligencia artificial ha encontrado su camino hacia las oficinas legales, automatizando tareas que antes consumían semanas de trabajo: la revisión de contratos, la identificación de riesgos legales, la preparación de due diligence y el análisis jurisprudencial.
A su vez, en el ámbito del compliance, los sistemas de monitoreo transaccional y la detección de patrones de riesgo han evolucionado hacia herramientas cada vez más sofisticadas.
Sin embargo, esta adopción no ha estado exenta de desafíos, destacó Pérez Ponce, una de las oradoras en el evento sobre gobernanza de la IA que organiza SIMALCO. Destacó que la comunidad jurídica, históricamente reacia al cambio, enfrenta ahora dilemas éticos y normativos que van más allá de la simple implementación tecnológica.
La transparencia algorítmica, la responsabilidad jurídica y la protección de datos personales se han convertido en los nuevos campos de batalla de una profesión que debe equilibrar la eficiencia con la integridad de sus procesos.
¿Están los abogados listos para trabajar junto a la inteligencia artificial? ¿Cómo se puede superar la resistencia cultural sin comprometer la calidad del juicio jurídico? Las respuestas a estas preguntas definen el futuro de una profesión en plena transformación digital.
Los primeros pasos de la IA en el mundo jurídico y del compliance
– ¿Cuándo empezó a meterse la inteligencia artificial en las discusiones vinculadas al mundo jurídico y al compliance?
Todo se derivó a raíz de la pandemia, porque justamente la pandemia vino a romper paradigmas en cuanto a la forma de trabajar. Lo que buscábamos era generar, en cuanto a los análisis de texto y redacción de documentos, procesamientos de grandes volúmenes de información legal y regulatoria, sobre todo por el tema de contratos.
Esto se tradujo rápidamente en un interés por automatizar tareas, como la revisión de contratos, la identificación de riesgos legales, la preparación del due diligence. Para la contratación de trabajadores, de proveedores, e inclusive para conocer a tu cliente y el análisis jurisprudencial.
En el compliance también se intensificó mucho la aplicación de la inteligencia artificial, sobre todo en sistemas de monitoreo transaccional, la detección de patrones de riesgo, evaluación de terceros y canales de denuncias inteligentes. Este furor se comenzó a percibir en el 2020, pero ya intensificado en los últimos dos años.
Actualmente, el reto no es solamente es incorporar inteligencia artificial, sino más bien hacerlo dentro de una gobernanza adecuada con transparencia algorítmica y respeto a los derechos humanos y laborales.
El potencial de la IA y el desafío de la gobernanza
– ¿Y cuáles son los desafíos?
Sobre todo aquí en México, podemos encontrar desafíos éticos y normativos, porque el primer reto es garantizar que la inteligencia artificial opere bajo principios éticos. Esto incluye la transparencia algorítmica, es decir, saber cómo y por qué la inteligencia artificial toma decisiones.
También la no discriminación, la equidad de los resultados, el respeto a los derechos fundamentales y en el ámbito del compliance, esto se vuelve crítico, por ejemplo, en canales de denuncia automáticos, donde un sesgo puede derivar en represalias o investigaciones injustificadas.
Si nos centramos en la parte del cumplimiento legal y la protección de los datos personales, muchas herramientas de la inteligencia artificial analizan grandes volúmenes de datos sensibles y por eso necesitamos cumplir con los marcos regulatorios tanto nacionales como internacionales e implicar controles sólidos de consentimiento, minimización de datos y auditorías continuas sobre el procedimiento de automatizado.
Otro de los de los temas que es todo un reto es la responsabilidad jurídica y la trazabilidad para determinar quién es el responsable con una herramienta de inteligencia artificial que falla o genera un análisis erróneo. Eso va a depender de cómo estemos alimentando el algoritmo. Muchos dicen que la carrera de abogado va a desaparecer, pero necesitamos un experto que pueda alimentarla.
La capacitación y el cambio cultural es otro desafío, porque muchos equipos todavía desconfían de las decisiones automatizadas. Por ello, sí se requiere una inversión en capacitación, en concientización, en gestión del cambio y generación de confianza, sobre todo para entender estas herramientas como auxiliares, no sustitutos.
La evaluación y la validación de proveedores tecnológicos es otro de los puntos. Son un reto poco visibilizado, pero crucial es la due diligence tecnológica. No todas las soluciones con inteligencia artificial cumplen estándares necesarios para operar en contextos de alta sensibilidad como el jurídico o el compliance.
La resistencia a su implementación
– ¿Hay reticencia dentro del mundo jurídico y del compliance al uso de la IA?
Estos temas son delicados, sobre todo en la adopción de la inteligencia artificial en el ámbito jurídico. Es algo que puede ser inclusive hasta generacional. Puede existir una resistencia cultural y la percepción de amenaza. Dentro de la propia comunidad jurídica, a diferencia de otros sectores más proclives a la opción tecnológica, históricamente ha sido muy conservadora en cuanto a los métodos, los procesos y la toma de decisiones.
Esto se basa en varios factores, por ejemplo, la percepción de deshumanización del juicio jurídico. Muchos juristas consideran que la interpretación y el razonamiento lógico-jurídico y la aplicación de principios no pueden ser replicados por una máquina, porque ellos requieren criterio, valores y ponderación contextual, pero la inteligencia artificial en lo que te puede ayudar es leer cierto número de expedientes, que pueden ser de muchos tomos.
Sin embargo, sí puede haber una desconfianza en la opacidad algorítmica, porque es una caja negra. En muchos modelos de IA no sabemos como se llegó a una determinada conclusión. Eso no es jurídicamente útil ni aceptable y se acentúa en decisiones que pueden tener consecuencias legales y disciplinarias.
El abogado personal del compliance siente que la inteligencia artificial amenaza su rol, especialmente en tareas repetitivas como análisis de contratos, el due diligence, auditorías, análisis de de riesgos. En lugar de verse como una herramienta que el tiempo para estrategias, pues se puede percibir como un sustituto.
Qué se puede hacer
– ¿Cómo crees que se pueda resolver?
Para poder resolver la resistencia a la inteligencia artificial en el mundo jurídico y de complianc, es necesario que nosotros actuemos en distintos frentes de manera simultánea. Por ejemplo, educación y alfabetización digital especializada. Basta de capacitaciones genéricas sobre inteligencia artificial.
Hay que ofrecer contenidos específicos para abogados y profesionales del compliance. Qué puede y qué no puede hacer la inteligencia artificial, lo tenemos que tener bien establecido y delimitado, cuidando los sesgos que puede tener la inteligencia artificial.
Otro de los puntos que nos puede ayudar a reducir este miedo y permitir hacer un uso consciente y no ciego es si nosotros implementamos la inteligencia artificial con mecanismos de supervisión y de validación jurídica. Por ejemplo, utilizarla en una revisión humana obligatoria antes de ejecutar acciones críticas. Eso va a aumentar la aceptación y el mensaje clave: la inteligencia artificial apoya, no reemplaza.
También puede ser utilizarse en casos de uso controlados con resultados medibles. Empezar con un proyecto piloto, en tareas que el riesgo pueda ser considerado bajo, con un impacto también bajo, como clasificación documental, análisis jurisprudencial.
Eso nos permite mostrar resultados rápidos y que sean tangibles y reduce la resistencia porque se evidencian mejoras reales en la eficiencia si poner en juego la integridad jurídica.
* Rubi Pérez Ponce será una de las expositoras del evento «Gobernanza de la IA – evaluar los riesgos y convertirlos en oportunidades» organizado por Simalco en México este 6 de noviembre. Quienes deseen inscribirse podrás hacer en el siguiente enlace.
