Túnel informático. Foto: Istock.

Túnel informático. Foto: Istock.

Xavier Gil Pecharromán El Economista.

Establece un marco jurídico que cubre todo el ciclo de vida de los sistemas de Inteligencia Artificial

La automatización de procesos ahorra miles de horas de trabajo en la Justicia

La inteligencia artificial desembarca en la reforma digital de la Justicia

El acuerdo, que es vinculante, tiene objetivo la protección de derechos humanos, democracia y Estado de Derecho y establece un marco jurídico que cubre todo el ciclo de los sistemas de Inteligencia Artificial (IA) y trata sobre los riesgos que pueden aparecer y que es necesario afrontar para evitar abusos.

El Consejo de Europa ha adoptado el primer tratado internacional legalmente vinculante cuyo objetivo es «garantizar el respeto a los Derechos Humanos, el estado de Derecho y los estándares de legalidad democrática» sobre el uso de sistemas de Inteligencia Artificial, según informa la revista Buen Gobierno, Iuris & Lex y RSC de El Economista.

El tratado, que también está abierto a países no europeos, establece un marco jurídico que cubre todo el ciclo de vida de los sistemas de IA y aborda los riesgos que pueden plantear, al tiempo que promueve la innovación responsable.

La convención adopta un enfoque basado en el riesgo para el diseño, el desarrollo, el uso y el desmantelamiento de los sistemas de IA, lo que requiere considerar cuidadosamente las posibles consecuencias negativas del uso de sistemas de IA.

El Convenio Marco del Consejo de Europa sobre inteligencia artificial y derechos humanos, democracia y Estado de Derecho ha sido adoptado en Estrasburgo durante la reunión ministerial anual del Comité de Ministros del Consejo de Europa del pasado mes de mayo, que reunió a los ministros de Asuntos Exteriores de los 46 Estados miembros. Con este nuevo tratado se pretende garantizar un uso responsable de la IA que respete los derechos humanos, el Estado de derecho y la democracia.

El convenio es el resultado de dos años de trabajo de un organismo intergubernamental, el Comité de Inteligencia Artificial (CAI), que reunió para redactar el tratado a los 46 Estados miembros del Consejo de Europa, la Unión Europea y 11 Estados no miembros (Argentina, Australia, Canadá, Costa Rica, Estados Unidos de América, Israel, Japón, México, Perú, Santa Sede, Estados Unidos de América, y Uruguay), así como representantes del sector privado, la sociedad civil y la academia, que participaron en calidad de observadores.

El tratado abarca el uso de sistemas de IA en el sector público, incluidas las empresas que actúan en su nombre, y en el sector privado. El convenio ofrece a las partes dos formas de cumplir con sus principios y obligaciones al regular el sector privado: las partes pueden optar por quedar directamente obligadas por las disposiciones pertinentes del convenio o, como alternativa, adoptar otras medidas para cumplir con las disposiciones del tratado, respetando plenamente sus obligaciones internacionales en materia de derechos humanos, democracia y estado de derecho.

Este enfoque es necesario debido a las diferencias entre los sistemas jurídicos de todo el mundo.

El convenio establece requisitos de transparencia y supervisión adaptados a contextos y riesgos específicos, incluida la identificación de contenidos generados por sistemas de IA.

Las Partes tendrán que adoptar medidas para identificar, evaluar, prevenir y mitigar los posibles riesgos y evaluar la necesidad de una moratoria, una prohibición u otras medidas apropiadas en relación con los usos de los sistemas de IA cuando sus riesgos puedan ser incompatibles con las normas de derechos humanos.

También tendrán que garantizar la rendición de cuentas y la responsabilidad por los impactos adversos y que los sistemas de IA respeten la igualdad, incluida la igualdad de género, la prohibición de la discriminación y los derechos a la privacidad.

Además, las partes en el tratado tendrán que garantizar la disponibilidad de recursos legales para las víctimas de violaciones de derechos humanos relacionadas con el uso de sistemas de IA y garantías procesales, incluida la notificación a cualquier persona que interactúe con sistemas de IA de que está interactuando con dichos sistemas.

Por lo que se refiere a los riesgos para la democracia, el Tratado exige a las partes que adopten medidas para garantizar que los sistemas de IA no se utilicen para socavar las instituciones y los procesos democráticos, incluido el principio de separación de poderes, el respeto de la independencia judicial y el acceso a la justicia.

Las Partes en la Convención no estarán obligadas a aplicar las disposiciones del tratado a las actividades relacionadas con la protección de los intereses de seguridad nacional, pero estarán obligadas a garantizar que estas actividades respeten el derecho internacional y las instituciones y procesos democráticos.

El Convenio no se aplicará a las cuestiones de defensa nacional ni a las actividades de investigación y desarrollo, excepto cuando el ensayo de sistemas de IA pueda interferir en los derechos humanos, la democracia o el Estado de Derecho.

Con el fin de garantizar su aplicación efectiva, el convenio establece un mecanismo de seguimiento en forma de Conferencia de las Partes. El convenio exige que cada parte establezca un mecanismo de supervisión independiente para supervisar su cumplimiento.

El convenio marco se abrirá a la firma en Vilna -Lituania- el 5 de septiembre.