ia compliance

Inteligencia artificial y compliance ¿Convivencia o destrucción?

En el contexto actual, resulta innegable la influencia de las herramientas inteligentes en todos los ámbitos: personal, académico y profesional. En esta línea, los sistemas de cumplimiento normativo –compliance-, implantados por la mayoría de las entidades públicas y privadas, no han quedado al margen de su impacto transformador.  

Sin embargo, ante esta nueva realidad, surge una pregunta inevitable: ¿hasta qué punto son realmente compatibles -desde una perspectiva legal- el uso de esta herramienta y el funcionamiento del compliance

Regulación europea del uso de la inteligencia artificial

Ante el auge de la inteligencia artificial y con el objetivo de fomentar un uso fiable, se aprobó el Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo de 13 de junio de 2024 por el que se establecen normas armonizadas en materia de inteligencia artificial, y se modifican diversos reglamentos y directivas de la UE. 

Esta norma pretende establecer un marco legal que permita un desarrollo tecnológico, seguro, ético y compatible con los valores europeos. De esta manera, clasifica los sistemas de IA en cuatro niveles de riesgo

  • Riesgo inaceptable, y por tanto prohibido, en el que se encuentran aquellos sistemas considerados una amenaza para la seguridad, los medios de subsistencia y los derechos fundamentales de las personas.
  • Riesgo alto, en caso de que los sistemas puedan plantear riesgos graves para la salud, la seguridad o los derechos fundamentales, pero sin llegar a ser inaceptables. Así, en vez de prohibirse, se encuentran sujetos a unas obligaciones estrictas antes de su comercialización.
  • Riesgo limitado, relacionado con la necesidad de transparencia en el uso de la IA, especialmente en el caso de las aplicaciones que interactúan directamente con el usuario (como, por ejemplo, los chatbots).  
  • Riesgo mínimo o nulo, donde no se requieren medidas específicas de regulación.

Con ello, la Unión Europea busca generar un marco de confianza hacia la inteligencia artificial, en el que la innovación no conlleve necesariamente la asunción de riesgos indebidos para las personas o el entorno.

La inteligencia artificial y el compliance

Con respecto al ámbito del cumplimiento normativo o compliance, el uso de la inteligencia artificial se encuentra en el punto de mira al suponer una gran revolución en el modo en el que las empresas pueden llegar a prevenir y detectar posibles delitos en su seno, así como a optimizar el desempeño de los controles internos.  

Algunos de sus usos destacados incluyen:

  • Análisis de datos masivos, para identificar patrones de comportamiento que puedan indicar la comisión de infracciones penales dentro de la empresa. 
  • Elaboración automatizada de informes y evaluaciones de riesgos, para así facilitar la toma de decisiones en los procesos de control y supervisión. 

No obstante, el empleo de esta tecnológica puede acarrear importantes riesgos ético-legales, entre los que destacan: 

La falta de transparencia algorítmica:

    • Muchos sistemas generan resultados sin que sea posible entender el proceso seguido, lo que pude comprometer la confianza, trazabilidad y legalidad al crear una opacidad técnica. Por ello es necesario asegurar que los algoritmos utilizados sean éticos y no generen perjuicios para nadie. 

 

El uso y protección de datos personales:

    • Las entidades deben asegurarse de cumplir con normativas como la Ley Orgánica de Protección de Datos Personales y garantía de los derechos digitales, y el Reglamento General de Protección de Datos en Europa, entre otras, pues el uso indebido o la falta de consentimiento en el tratamiento de datos sensibles y/o personales puede derivar en sanciones legales, además de pérdida de confianza. 

 

La responsabilidad y rendición de cuentas:

    • En caso de error por parte del sistema de inteligencia artificial, puede ser complicado identificar al responsable, lo cual puede generar inseguridad jurídica y dificultar la rendición de cuentas. Por tanto, es esencial conservar una supervisión humana sobre las soluciones automáticamente generadas. 

La seguridad de la información:

    • El uso de la IA en proceso de compliance conlleva el manejo de datos confidenciales a través de redes, lo que aumenta su exposición a ciberataques. Por ello es necesario protegerse frente a accesos no autorizados o ataques mediante el refuerzo de los protocolos de ciberseguridad y la definición de políticas claras de gestión de la información, pues dichas brechas pueden conllevar consecuencias legales, económicas y reputacionales. 

 

El cumplimiento normativo en evolución:

    • La falta de armonización legal y la rápida evolución de la normativa sobre IA suponen un reto constante para los equipos de compliance, que deberán estar actualizados en todo momento, así como anticiparse y adaptar sus políticas y sistemas a las nuevas regulaciones que puedan surgir. 

En consecuencia, el uso de la inteligencia artificial representa una herramienta con un gran potencial para fortalecer la prevención de riesgos y mejorar la eficiencia en la supervisión normativa siempre y cuando se tengan bajo control los desafíos asociados con ello, esto es, las amenazas a la ciberseguridad, los riesgos éticos, el uso indebido de datos o la falta de armonización legal, entre otros. 

Es menester que para que la implementación de esta sea eficiente y eficaz se realice bajo parámetros de transparencia, seguridad y de conformidad con los marcos regulatorios, tanto nacionales como internacionales.