Pasar al contenido principal

Política de desarrollo y uso responsable de herramientas de inteligencia artificial

Iberdrola garantiza el uso responsable, transparente, seguro y fiable de los sistemas de inteligencia artificial y de los algoritmos

Política de desarrollo y uso responsable de herramientas de inteligencia artificial
Política de desarrollo y uso responsable de herramientas de inteligencia artificial

Política de desarrollo y uso responsable de herramientas de inteligencia artificial

    

25 de marzo de 2025

El Consejo de Administración de IBERDROLA, S.A. (la “Sociedad”) tiene atribuida la competencia de diseñar, evaluar y revisar con carácter permanente el Sistema de gobernanza y sostenibilidad de la Sociedad y, específicamente, de aprobar y actualizar las políticas, las cuales contienen las pautas que rigen la actuación de la Sociedad y, además, en lo que sea de aplicación, informan las políticas que, en ejercicio de su autonomía de la voluntad, decidan aprobar las sociedades integradas en el grupo cuya entidad dominante es, en el sentido establecido por la ley, la Sociedad (el “Grupo”).

En el ejercicio de estas competencias y en el marco de la normativa legal, de los Estatutos Sociales y del Propósito y Valores del Grupo Iberdrola, el Consejo de Administración aprueba esta Política de desarrollo y uso responsable de herramientas de inteligencia artificial (la “Política”) que respeta, desarrolla y adapta, en relación con la Sociedad, los Principios éticos y básicos de gobernanza y de sostenibilidad del Grupo Iberdrola.

El desarrollo e implementación de las herramientas de inteligencia artificial es un elemento esencial para la creación de valor sostenible, así como para la estrategia de innovación y de transformación digital del Grupo. Por ello, la Sociedad reconoce la importancia de promover su uso responsable, acorde con su ideario corporativo y los principios que informan su cultura corporativa, basada en la ética y en el compromiso con la sostenibilidad. 

Esta Política esta alineada con la Recomendación del Consejo de la Organización para la Cooperación y el Desarrollo Económico (OCDE) sobre inteligencia artificial.

1. Ámbito de aplicación

Esta Política es de aplicación a la Sociedad. Sin perjuicio de lo cual, esta Política incluye principios básicos que complementan en materia de uso y desarrollo de herramientas de inteligencia artificial, los contenidos en los Principios éticos y básicos de gobernanza y de sostenibilidad del Grupo Iberdrola y, en esta medida, deben informar la actuación y los desarrollos normativos que, en el ejercicio de sus competencias y al amparo de su autonomía de la voluntad, lleven a cabo las demás sociedades del Grupo en esta materia.

En la medida en que formen parte del Grupo sociedades subholding cotizadas, ellas y sus filiales, al amparo de su propio marco especial de autonomía reforzada, podrán establecer principios y normas que deberán tener un contenido conforme a los principios de esta Política. 

Estos principios deberán informar también, en lo que proceda, la actuación de las entidades de naturaleza fundacional vinculadas al Grupo.

La Sociedad promoverá, igualmente, en aquellas otras compañías en las que participe y que no formen parte del Grupo, así como en las joint ventures, uniones temporales de empresas y otras entidades en las que asuma la gestión, el alineamiento de su normativa con los principios básicos en materia de uso y desarrollo de herramientas de inteligencia artificial contenidos en esta Política.

2. Finalidad

La finalidad de esta Política es establecer los principios básicos de actuación que deben regir el diseño, el desarrollo y la aplicación de las herramientas de inteligencia artificial, entendida como todo sistema automatizado diseñado para funcionar con distintos niveles de autonomía y que puede, con objetivos explícitos o implícitos, generar resultados tales como predicciones, recomendaciones o decisiones, que a su vez influyen en entornos físicos o virtuales.

También tiene como finalidad regular un uso responsable de estas herramientas, garantizando el cumplimiento de la legislación aplicable, el Propósito y Valores del Grupo Iberdrola, los Principios éticos y básicos de gobernanza y de sostenibilidad del Grupo Iberdrola y las demás normas que forman parte del Sistema de gobernanza y sostenibilidad de la Sociedad.

3. Principios básicos de actuación

La Sociedad utilizará los sistemas de inteligencia artificial de forma responsable, transparente, segura y fiable. Para ello, asume y promueve los siguientes principios básicos de actuación que deben presidir sus actividades relativas al diseño, desarrollo, aplicación y uso de herramientas de inteligencia artificial:

a) Principio de respeto al ser humano y al bienestar social

Los sistemas de inteligencia artificial se desarrollarán y utilizarán como herramientas al servicio de las personas, con pleno respeto a la dignidad humana y al entorno, conforme al estado de la tecnología en cada momento y de manera que beneficien a todos los seres humanos.

La Sociedad velará por el uso responsable de las herramientas de inteligencia artificial en el marco de su cumplimiento con su compromiso con el respeto de los derechos humanos, con el Propósito y Valores del Grupo Iberdrola y con los Principios éticos y básicos de gobernanza y de sostenibilidad del Grupo Iberdrola, facilitando que su diseño y utilización pueda ser controlado y supervisado por las personas.

En todo caso, la Sociedad prestará especial atención a que los sistemas de inteligencia artificial no perjudiquen a la salud y la seguridad, o puedan tener repercusiones negativas para los derechos fundamentales de las personas.

b) Principio de igualdad de oportunidades y no discriminación

La Sociedad procurará que los sistemas de inteligencia artificial se desarrollen y utilicen de forma que promuevan la igualdad de acceso, la igualdad de oportunidades y la diversidad, evitando al mismo tiempo los sesgos con efectos discriminatorios (por ninguna condición o característica tales como la raza, origen étnico, religión, orientación sexual o política y los prejuicios injustos)

c) Principio de cultura innovadora

La Sociedad velará por que el diseño, el desarrollo y la aplicación de las herramientas de inteligencia artificial estén alineados con la estrategia de innovación, que persigue mantener a la Sociedad en la vanguardia de las nuevas tecnologías y los modelos de negocio disruptivos, fomentando una “cultura innovadora” que impregne toda la organización y promueva ambientes de trabajo motivadores que favorezcan y premien la generación de ideas y de prácticas innovadoras.

d) Principio de privacidad

La Sociedad procurará que los sistemas de inteligencia artificial se desarrollen y utilicen de conformidad con la legislación sobre privacidad y protección de datos, así como con el Sistema de gobernanza y Sostenibilidad y procesen datos que cumplan con los criterios establecidos de calidad e integridad.

e) Principio de transparencia

La Sociedad promoverá que los sistemas de inteligencia artificial se desarrollen y utilicen de forma que permitan una trazabilidad y transparencia adecuadas, velando por que los usuarios sean conscientes de que se comunican o interactúan con un sistema de inteligencia artificial, a cuyo efecto informará debidamente a las personas afectadas sobre las capacidades y limitaciones de dicho sistema, así como sobre los derechos que les amparan.

f) Principio de seguridad y resiliencia

La Sociedad procurará que los sistemas de inteligencia artificial se desarrollen y utilicen de forma que se reduzcan al mínimo los daños involuntarios e inesperados y sean resilientes frente a intentos de acceso no autorizados, de alteración de su uso o rendimiento, y frente al uso ilícito por parte de terceros maliciosos, asegurando en todo momento la continuidad en la prestación de los servicios.

La Sociedad dispondrá de sistemas y mecanismos de seguridad física, técnica y lógica para proteger y velar por el correcto funcionamiento de sus sistemas de inteligencia artificial, contra cualquier alteración, uso indebido o acceso no autorizado (ya sea físico o cibernético), así como para velar por la integridad de los datos almacenados o transmitidos a través de ellos.

Con carácter general, y sin perjuicio de las excepciones que pudieran establecerse por causas justificadas por la Dirección de IT (o por la dirección que, en cada momento, asuma sus facultades) no se desarrollarán o usarán aquellos sistemas de inteligencia artificial que sean clasificados, conforme a los criterios establecidos en cada momento, como de riesgo alto.

g) Principio de formación y sensibilización

La Sociedad velará por que los desarrolladores de las herramientas de inteligencia artificial reciban formación sobre todos los aspectos necesarios para entender los riesgos implícitos en el uso de estos sistemas, tales como consideraciones legales y éticas, aspectos conductuales y mejores prácticas de seguridad, de tal forma que se asegure que el usuario final de las herramientas de inteligencia artificial pueda hacer un uso seguro de las mismas.

4. Coordinación a nivel de Grupo

La Dirección de IT (o a la dirección que, en cada momento, asuma sus facultades) actuará de forma coordinada con las direcciones correspondientes de las sociedades subholding y elaborará los procedimientos necesarios para asegurar el correcto uso de la inteligencia artificial y la gestión de los potenciales riesgos derivados de su uso.

5. Implementación y desarrollo

Para la implementación y seguimiento de lo previsto en esta Política, el Consejo de Administración cuenta con la Dirección de IT (o a la dirección que, en cada momento, asuma sus facultades) que desarrollará los procedimientos necesarios para ello e informará periódicamente a la Comisión de Auditoría y Supervisión del Riesgo.

La Dirección de IT (o a la dirección que, en cada momento, asuma sus facultades) revisará esta Política al menos una vez al año a fin de garantizar que su contenido sea adecuado a los constantes avances, innovaciones, riesgos y cambios normativos que se producen en la materia. 

* * *

Esta Política fue aprobada inicialmente por el Consejo de Administración el 10 de mayo de 2022 y modificada por última vez el 25 de marzo de 2025.