
La inteligencia artificial ya ha ido más allá de una simple herramienta de análisis de datos; ahora está involucrada en la configuración de la estrategia corporativa a nivel del consejo. Estos cambios plantean cuestiones complejas para el sistema de gobierno corporativo. El dilema clave se centra en las consecuencias jurídicas de las decisiones generadas por la IA a través del prisma de la ley fiduciaria, donde los deberes tradicionales de prudencia y lealtad entran en interacción con las nuevas tecnologías. A partir de ahora, los consejos de administración deben encontrar una manera de integrar las herramientas de inteligencia artificial de forma responsable sin violar sus obligaciones para con la empresa y sus accionistas. Esto crea nuevos desafíos para los directores de todo el mundo.
Responsabilidades fiduciarias y toma de decisiones con IA
Las obligaciones fiduciarias requieren que los directores actúen en el mejor interés de la corporación, lo cual a su vez implica tomar decisiones informadas y leales. Con la introducción de la inteligencia artificial, también está cambiando el enfoque de estas responsabilidades. Los directores no pueden confiar incuestionablemente en los resultados proporcionados por la inteligencia artificial. Tienen que interactuar activamente con la tecnología para cumplir adecuadamente sus obligaciones. Aunque los principios fundamentales no han cambiado, su aplicación debe evolucionar. Por ejemplo, el deber de diligencia exige que los directores estén bien informados antes de tomar decisiones comerciales. En el contexto de la IA, esto significa una comprensión perfecta del propio instrumento.
- Comprender el modelo. No se requiere que los directores sean analistas de datos. Sin embargo, deben comprender el propósito del uso de la IA, sus principales supuestos y las limitaciones existentes. Para evitar sesgos ocultos, deben saber en qué datos ha sido entrenada la IA y qué matrices utiliza.
- Evaluación crítica de los resultados. Un aspecto fundamental de la diligencia debida es el análisis crítico de la información recibida. Los directores deben tomar las recomendaciones de AI como un consejo de un consultor, no como una orden inmediata. Deben hacer preguntas críticas basadas en los resultados y considerar escenarios alternativos.
El deber de lealtad, por otra parte, exige que los directores actúen en ausencia de un conflicto de intereses personal. La IA crea un nuevo tipo de conflicto. El modelo de inteligencia artificial puede contener prejuicios creados por sus creadores o datos sobre los que ha sido formado. Si estos sesgos contribuyen a resultados que no son de interés para la empresa, el deber de lealtad puede ser violado, incluso inadvertidamente. Los consejos de administración deben velar por que los sistemas de IA funcionen exclusivamente en beneficio de la empresa.
Supervisión y rendición de cuentas del consejo de administración de los sistemas de IA
La supervisión eficaz por el consejo de administración es la base del gobierno corporativo. Cuando las empresas comienzan a utilizar la IA para la toma de decisiones estratégicas, el papel supervisor del consejo se vuelve aún más importante. Después de todo, son los directores los responsables de las decisiones, ya se hayan tomado o no con AI. Esto significa que delegar su autoridad a los juicios del algoritmo no es aceptable. Por lo tanto, es necesario un sistema claro de gestión de la IA.
Este sistema debería regular la forma en que la empresa selecciona, prueba y controla sus sistemas de IA. El consejo debería establecer normas para el uso de la inteligencia artificial y supervisar su cumplimiento por parte de la dirección. Esto incluye la definición de límites claros de responsabilidad. ¿Quién será responsable si el sistema AI falla o sus acciones causan daños? El Consejo debe tener respuestas a estas preguntas antes de que se produzca la crisis. Los informes periódicos sobre el rendimiento y los riesgos de la inteligencia artificial deberían convertirse en una característica habitual del orden del día del consejo. Esto garantizará un compromiso constante y no permitirá que la tecnología se convierta en una «caja negra» incontrolada.
Transparencia y explicación de la IA en el gobierno corporativo
Uno de los mayores desafíos asociados con la IA moderna es su opacidad. Algunos modelos son tan complejos que ni siquiera sus creadores pueden explicar por qué se llegó a una conclusión particular. Este problema de la «caja negra» constituye una amenaza directa para el buen gobierno corporativo. Si el consejo no explica la lógica de una decisión estratégica importante, corre el riesgo de fracasar en su deber de cuidado. Debe recordarse que los accionistas, reguladores y otras partes interesadas tienen un derecho legítimo a exigir explicaciones claras sobre las acciones de la empresa.
La salida de esta situación es la demanda de explicación. Esto significa que los consejos de administración deben insistir en la aplicación de tales sistemas de IA, capaces de justificar claramente sus recomendaciones. Este enfoque permite a los directores analizar la lógica del algoritmo, identificar sus debilidades y, como resultado, tomar decisiones verdaderamente informadas. Igualmente importante es que esto constituye la base de pruebas para su posible defensa en el tribunal.
Si posteriormente alguien apelara la decisión, la junta podrá demostrar la racionalidad de sus acciones basándose tanto en datos de control humano como de análisis tecnológico. Cuando se ignora el principio de explicabilidad, los directores corren el riesgo de asumir la responsabilidad personal por decisiones que no han comprendido plenamente.
Escenarios de responsabilidad por abusos causados por la IA
El uso de la inteligencia artificial sin un control adecuado amenaza a las empresas con graves pérdidas jurídicas y financieras. En tal situación, los directores pueden recibir reclamaciones de los accionistas por incumplimiento de las obligaciones fiduciarias. Con la difusión de esta tecnología, se observan varios escenarios típicos que conducen al riesgo. Cada uno de ellos es el resultado de una cierta negligencia administrativa, que puede ser la razón para hacer responsable al consejo. He aquí algunos ejemplos prácticos:
- Error en el modelo AI. Imaginemos que la junta directiva aprueba una gran inversión, basándose en un pronóstico de mercado erróneo de la AI. Si el modelo no tiene en cuenta un factor clave, esto puede dar lugar a pérdidas significativas. Entonces los accionistas bien pueden presentar una demanda, acusando a la junta de verificación insuficiente del instrumento, y por lo tanto de violar el deber de cuidado.
- Sesgo algorítmico. Si el sistema de contratación favorece sistemáticamente a un grupo social sobre otro, esto puede dar lugar a una demanda por discriminación. Además de los daños a la reputación, el consejo puede ser considerado responsable por no vigilar la imparcialidad del sistema.
- Confianza incuestionable en la automatización. A veces la junta se vuelve demasiado dependiente de la inteligencia artificial, por ejemplo, en el seguimiento financiero. El algoritmo puede no detectar un esquema fraudulento complejo que una persona con experiencia probablemente descubriría. En tal caso, se puede acusar a la junta de eludir sus funciones directas de supervisión.
- Ignorar las actualizaciones. Digamos que la junta implementó un sistema de IA, pero no se encargó de su actualización regular. Las condiciones del mercado están en constante cambio, y los datos anticuados del sistema generarán asesoramiento estratégico ineficaz. Esta negligencia puede considerarse como una violación directa del deber de diligencia.
Elaboración de legislación y jurisprudencia
El campo legal en torno a la inteligencia artificial todavía se está formando activamente. Tanto los reguladores como los tribunales intentan adaptarse al rápido progreso tecnológico. En este momento, no tenemos muchos casos judiciales relacionados con el uso de la inteligencia artificial a nivel de junta. Sin embargo, se puede suponer que los tribunales aplicarán a las nuevas circunstancias ya existentes construcciones legales, tales como «Regla de juicio comercial». Esta regla protege a los directores de la responsabilidad por errores de buena fe, pero solo funciona cuando han actuado con conocimiento de causa, honestamente y sin conflicto de intereses.
Los reguladores tampoco están excluidos. Nuevas iniciativas legislativas, como la Ley de Inteligencia Artificial de la UE, están sentando las bases para la regulación de la IA de alto riesgo. Aunque estas normas no se dirigen directamente a los consejos de administración, crean ciertas normas de discreción que los tribunales probablemente tendrán en cuenta en el futuro. Por lo tanto, el Consejo debería seguir de cerca estas tendencias. Si la compañía implementa prácticas confiables de gestión de IA con anticipación, no solo ayudará a proteger a los directores de posibles responsabilidades, sino que también será evidencia de un enfoque responsable hacia la innovación.
Conclusión
La integración de la IA en el trabajo del consejo de administración ofrece oportunidades adecuadas, y no deben cerrar los ojos ante los riesgos legales. Los principios básicos, es decir, los principios de las responsabilidades fiduciarias, no cambian. Los directores, como siempre, están llamados a ejercer la precaución, dedicación y hacer todo con el máximo interés para la empresa. Sólo la forma de su aplicación ha cambiado en una nueva era tecnológica. Por lo tanto, las juntas deben considerar la IA como una herramienta poderosa y también como la base para una evaluación significativa y un enfoque equilibrado sin pensamiento intuitivo y experimentado humano. Es la supervisión proactiva, los requisitos de transparencia y el sano escepticismo lo que permitirá una adopción exitosa de las nuevas tecnologías mientras se minimizan los riesgos.