Sobre Inteligencia Artificial

JAGV, 13/12/2023

 

Resumen RD 817/2023, de 8 de Noviembre

por JOSÉ ANGEL GARCÍA-VALDECASAS, Registrador de la propiedad y Mercantil

 

INTELIGENCIA ARTIFICIAL

Real Decreto 817/2023, de 8 de noviembre, que establece un entorno controlado de pruebas para el ensayo del cumplimiento de la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial.

Resumen: El Real Decreto, teniendo en cuenta el auge que puede tener la IA en un futuro próximo, y a la espera de la aprobación del Reglamento de la UE sobre la materia, viene a establecer la `posibilidad para AAPP y particulares de crear un entorno en el que se puedan probar y configurar los sistemas de IA creados por los proveedores. Como curiosidad la vigencia del RD es limitada en el tiempo.

Planteamiento. Una de las cuestiones que mayor inquietud causan actualmente a la sociedad en general y a los Gobiernos en particular es el de la configuración, los límites o el uso que deba darse a la tecnología informática conocida como Inteligencia Artificial (IA).

Fruto de esta inquietud o preocupación es el primer Real Decreto que en España se ocupa de la materia. Se trata del Real Decreto 817/2023, de 8 de noviembre, que establece un entorno controlado de pruebas para el ensayo del cumplimiento de la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial.

Ya en su Preámbulo nos dice que, “La inteligencia artificial es una tecnología disruptiva con una alta capacidad de impacto en la economía y la sociedad”. Puede prestar una gran ayuda al aumento de la productividad, a la creación de nuevas líneas de negocios, a la eliminación de tareas repetitivas, a la automatización e incluso en lo relativo a la innovación. Pero junto a estas indudables ventajas, “los sistemas de inteligencia artificial también pueden suponer riesgos sobre el respeto de los derechos fundamentales de la ciudadanía, como por ejemplo los relativos a la discriminación y a la protección de datos personales, o incluso causar problemas graves sobre la salud o la seguridad de la ciudadanía.

Como consecuencia de ello la Comisión Europea ha presentado una propuesta de Reglamento del Parlamento Europeo y del Consejo en el que se establecerán “las normas armonizadas en materia de inteligencia artificial con el objetivo de asegurar el respeto de los derechos fundamentales de la ciudadanía y generar confianza en el desarrollo y la utilización de la inteligencia artificial de manera holística en la economía y la sociedad”.

El Reglamento se centrará, más que en la tecnología en sí, en las aplicaciones de la IA. Pues bien, en tanto en cuanto el Reglamento citado sea aprobado el Gobierno de España  “pone en marcha el primer entorno controlado de pruebas para comprobar la forma de implementar los requisitos aplicables a los sistemas de inteligencia artificial de alto riesgo de la propuesta de reglamento europeo de inteligencia artificial con el ánimo de obtener, como resultado de esta experiencia, unas guías basadas en la evidencia y la experimentación que faciliten a las entidades, especialmente las pequeñas y medianas empresas, y a la sociedad en general, el alineamiento con la propuesta del Reglamento Europeo de Inteligencia Artificial”. La finalidad de estas pruebas es la de llevar a cabo una autoevaluación de las aplicaciones de IA, encuadrando todo ello en el plan de digitalización de la Agenda 2026 y en el mismo Plan de Recuperación, Transformación, y Resiliencia.

La norma se dicta de conformidad con “la habilitación prevista en el artículo 16 de la Ley 28/2022, de 21 de diciembre, de Fomento del Ecosistema de las Empresas Emergentes, donde se contempla la creación de entornos controlados, por períodos limitados de tiempo, para evaluar la utilidad, la viabilidad y el impacto de innovaciones tecnológicas aplicadas a actividades reguladas, a la oferta o provisión de nuevos bienes o servicios, a nuevas formas de provisión o prestación de los mismos o a fórmulas alternativas para su supervisión y control por parte de las autoridades competentes”. Esta misma norma señala que “la creación de los entornos controlados de pruebas para la evaluación de su impacto está justificada por razones imperiosas de interés general. Cabe destacar que, inspirada por la Carta de Derechos Digitales, esta iniciativa pretende dar una forma concreta y práctica al compromiso español de «establecer un marco ético y normativo que refuerce la protección de los derechos individuales y colectivos» al avanzar la hoja de ruta establecida por dicha Carta para guiar la transformación digital humanista de España”.

Sobre las bases anteriores haremos un extracto del Real Decreto.

Objeto y ámbito de aplicación. Art. 1 y 2.

El objeto se centra en “establecer un entorno controlado de pruebas para ensayar el cumplimiento de ciertos requisitos por parte de algunos sistemas de inteligencia artificial que puedan suponer riesgos para la seguridad, la salud y los derechos fundamentales de las personas”. También en la selección de sistemas y entidades que participarán en las pruebas. Se aplica a las administraciones públicas y entidades del sector público institucional, y a las entidades privadas seleccionadas.

Definiciones. Art. 3.

Destacamos:

— Órgano competente: Secretaría de Estado de Digitalización e Inteligencia Artificial.

— Sistema de inteligencia artificial: sistema diseñado para funcionar con un cierto nivel de autonomía y que, basándose en datos de entradas proporcionadas por máquinas o por personas, infiere cómo lograr un conjunto de objetivos establecidos utilizando estrategias de aprendizaje automático o basadas en la lógica y el conocimiento, y genera información de salida, como contenidos (sistemas  de inteligencia artificial generativos), predicciones, recomendaciones o decisiones, que influyan en los entornos con los que interactúa.

— Sistema de inteligencia artificial de alto riesgo: son aquellos que deben someterse a una evaluación de un tercero, que tenga función de seguridad, cuyo fallo implique un riesgo para la salud o seguridad.

— Sistema de inteligencia artificial de propósito general: los que tengan la función de reconocimiento de texto, imágenes y del habla; la generación de textos, audios, imágenes y/o vídeos; detección de patrones; respuesta a preguntas; traducción y otras.

— Modelo fundacional: es un modelo de inteligencia artificial entrenado en una gran cantidad de datos no etiquetados a escala que da como resultado un modelo que se puede adaptar a una amplia gama de tareas posteriores.

— Proveedor de sistemas de Inteligencia Artificial, en adelante Proveedor IA: Toda persona jurídica privada, o pública que ha desarrollado o para quien se ha desarrollado un sistema de inteligencia artificial, y que lo introduce en el mercado o lo pone en servicio bajo su propio nombre o marca comercial, ya sea de forma onerosa o gratuita.

— Usuario: persona jurídica privada o pública que puede ser solicitante o participante.

— Autoevaluación de cumplimiento: para la verificación del cumplimiento de los requisitos del sistema.

— Se incluyen otras definiciones menos técnicas como la de “comercialización”, la de “introducción en el mercado”, la de “puesta en servicio”, la de “PYME”, la de “empresa emergente” y finalmente la de “incidente” que es  el no cumplimiento de determinados procedimientos sin consecuencias lesivas.

Participación en el entorno controlado de pruebas.
Régimen jurídico. Art. 4.

— Es el contenido en el RD y en las convocatorias aprobadas a su amparo. Se aplica también a los sistemas de IA que podemos llamar privados.

— Los proveedores y usuarios en el entorno controlado de pruebas no percibirán retribución alguna.

Requisitos de elegibilidad para la participación en el entorno. Art. 5.

— Pueden participar todos los proveedores IA y usuarios residentes en España o que tengan un establecimiento permanente en España, o bien, sean parte de una agrupación de entidades.

— Como usuario participante pueden serlo las personas jurídicas privadas y administraciones públicas y entidades del sector público institucional.

— La participación se solicita por escrito en forma electrónica cumpliendo determinados requisitos relativos a los sistemas de IA propuestos, sobre todo en materia de protección de datos personales y con algunas prohibiciones específicas relativas a posibles delitos sobre personas o de posible discriminación.

Procedimiento de admisión en el entorno controlado de pruebas. Art 6 y ss.

— La convocatoria se hará por la Secretaría de Estado de Digitalización e Inteligencia Artificial.

 — Se publicará en su página web.

— El plazo de presentación de solicitudes es de veinte días hábiles.

— La convocatoria expresará sus condiciones. Con su duración y los criterios de evaluación.

— La solicitud deberá hacerse en modelo publicado en la convocatoria.

— Se puede participar en uno o varios sistemas de IA.

— Órgano competente para la instrucción del procedimiento:  la Subdirección General de Inteligencia Artificial y Tecnologías Habilitadoras Digitales.

— Para la evaluación se tiene en cuenta lo siguiente: innovación y complejidad, impacto social, explicabilidad del algoritmo, su respeto a la Carta de Derechos Digitales del Gobierno de España, su capacidad de despliegue, el grado de madurez del sistema de IA, la calidad de memoria técnica, el tamaño y tipología del proveedor, la evaluación de la declaración de responsable.

— La propuesta de resolución se comunica conforme a las normas de la LPA, Ley 39/2015. Se pueden hacer alegaciones en el plazo de 10 días hábiles.

— La resolución se dicta conforme a la misma Ley citada. El órgano competentes es la Secretaría de Estado de Digitalización e Inteligencia Artificial, que tiene un plazo  máximo de sesenta días hábiles contando desde la fecha de publicación de la convocatoria. El silencio es negativo.

— La resolución pone fin a la vía administrativa siendo posibles el recurso de reposición o directamente el Contencioso Administrativo de acuerdo con lo previsto en la Ley 39/2015, de 1 de octubre, del Procedimiento Administrativo Común de las Administraciones Públicas y en la Ley 29/1998, de 13 de julio, reguladora de la Jurisdicción Contencioso administrativa.

Desarrollo de las pruebas, validación del cumplimiento, seguimiento e incidencias. Art. 11 y ss.

— El objeto del entorno de las pruebas es la comprobación del cumplimiento de una serie de requisitos en relación con la IA. Así los sistemas de seguimiento y de validación, la documentación técnica, el posible registro de eventos, su transparencia, instrucciones para su uso, su posible supervisión por humanos, su precisión, solidez y ciberseguridad. Estas dimensiones deberán funcionar de manera consistente a lo largo de su ciclo de vida.

— Se pondrá a disposición de los participantes guías técnicas.

— Se posibilitarán mecanismos de diálogo e intercambio de información entre los proveedores de IA participantes y usuarios participantes.

 — Se realizarán reuniones para fomentar un aprendizaje colaborativo con todos los participantes, proveedores IA y usuarios.

— Se llevará a cabo finalmente una declaración de cumplimiento.

— Si el participante no cumple con los requisitos señalados, se le da un plazo de tres meses para cumplir.

— También se establece un seguimiento posterior a la comercialización.

— Tanto los proveedores como los participantes y usuarios están obligados a comunicar las posibles incidencias de los sistemas de IA.

Garantías y responsabilidad de los participantes. Art. 16.

— Deberán cumplir en todo caso con las normas relativas a la protección de datos personales y los derechos de propiedad intelectual.

— Tanto el proveedor IA participante como, en su caso, el usuario participante será responsable de los daños sufridos por cualquier persona como consecuencia de la aplicación del sistema de inteligencia artificial en el contexto del entorno controlado de pruebas.

— Los usuarios participantes se comprometen a cumplir con la normativa laboral vigente.

 — La confidencialidad se aplicará sobre la información que aporten tanto los proveedores IA participantes como, en su caso, los usuarios participantes.

— Si se produce alguna modificación estructural o de los sistemas de IA, deberá ponerse en conocimiento de la Secretaría de Estado de Digitalización e Inteligencia Artificial.  

Canales de comunicación, obtención de información, refinamiento de guías y otros documentos del entorno controlado de pruebas. Art. 20 y ss.

— Se habilitará un buzón de consultas específico en la sede electrónica del órgano competente para solución de dudas o cuestiones surgidas.

— Otro buzón para la comunicación urgente de incidencias y fallos.  

— Se habilitará un canal para los participantes con la finalidad de establecer una comunicación con el órgano competente durante el desarrollo del entorno controlado de pruebas.

— Todas las comunicaciones deberán hacerse en castellano.

— Por la Administración se puede solicitar información a proveedores, usuarios y participantes.

— Si no se aporta la información ello puede suponer la finalización anticipada de la experiencia tanto del proveedor de IA como del usuario.

— La Secretaría de Estado de Digitalización e Inteligencia Artificial podrá ofrecer guías técnicas u otros documentos sobre aspectos que faciliten el desarrollo de sistemas de inteligencia artificial.  

Finalización del entorno controlado de pruebas. Artículo 23. 

— Antes de la finalización del entorno de pruebas deberá entregarse un informe a la Subdirección General de Inteligencia Artificial y Tecnologías Habilitadoras Digitales.

— Ese informe formará parte de las guías elaboradas por el órgano competente.

— Se podrán abrir nuevas convocatorias en el futuro.

— El órgano competente es el que determina la finalización del entorno controlado de pruebas cuando considere que ha cumplido con su objetivo.

— Los proveedores y los usuarios, podrán solicitar la retirada voluntaria del entorno controlado de pruebas por motivos justificados. Se resuelve en 15 días hábiles.

— La salida de un proveedor IA participante o de un usuario participante no generará en ningún caso derecho de indemnización ni compensación alguna.  

— Sus vacantes se pueden cubrir con otros solicitantes en lista de espera.

— También se puede declarar la finalización anticipada del entorno de pruebas.

— La finalización anticipada del entorno controlado de pruebas no dará lugar a indemnización alguna por parte del órgano competente.

Participación y coordinación de otras entidades. Artículo 26.

— Podrán colaborar con el órgano competente otras administraciones públicas y entidades del sector público institucional y organismos internacionales y otras autoridades de otros Estados miembros de la Unión Europea.  

— Es posible la existencia de un grupo de personas asesoras expertas formado por profesionales independientes de reconocido prestigio y experiencia técnica multidisciplinares con conocimientos de IA y otra materia como podría ser género, protección de datos, seguridad, ética, derecho, etc.

— Ese grupo velará por el cumplimiento del principio de igualdad de género. 

— La colaboración de las personas asesoras expertas no conllevará ningún tipo de contraprestación económica o compensación de ningún otro tipo.

— Se admite la participación de personas jurídicas privadas, administraciones públicas y entidades del sector público institucional como usuarias de un sistema de inteligencia artificial.

 — También se admite la colaboración de entidades observadoras, previa invitación por el órgano competente.

 — Estas observadoras podrán emitir opiniones o alertas.  

— Se establece una coordinación con organismos de normalización españoles, europeos e internacionales, con la finalidad de contribuir a la redacción de normas técnicas

Disposición adicional primera. 

— Se ocupa de los medios a disposición del entorno controlado de pruebas, que serán los de la Secretaría de Estado de Digitalización e Inteligencia Artificial.

 Disposición adicional segunda.

— Se ocupa del resultado del entorno controlado de pruebas, que deberá ser publicado en su portal web junto con el informe de las conclusiones sobre el desarrollo, buenas prácticas, y recomendaciones al mismo, así como otros aspectos de interés.

— El órgano competente, partiendo de los resultados obtenidos en el entorno controlado de pruebas, podrá desarrollar una plataforma de software que facilite una primera autoevaluación no vinculante sobre el cumplimiento de los principios de la propuesta del Reglamento de la UE.

Entrada en vigor y vigencia.

Este real decreto entrará en vigor al día siguiente de su publicación en el «Boletín Oficial del Estado», teniendo una vigencia máxima de treinta y seis meses desde su entrada en vigor o, en su caso, hasta que sea aplicable en el Reino de España el Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial.

Anexos.

El Real Decreto va seguido por siete anexos.

— El primero da cuenta de la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial.

— El segundo contiene un listado de áreas de sistemas de inteligencia artificial de alto riesgo específicos, como los sistemas de identificación biométrica o que se relacionen con el sistema educativo, laboral, aplicación de la Ley o judiciales, u otros especialmente sensibles.

— El tercero va a tratar del contenido mínimo de la Memoria Técnica para la solicitud de participación en el entorno de pruebas.

— El cuarto trata sobre declaración responsable de cumplimiento del principio de responsabilidad proactiva en materia de protección de datos.

— El quinto sobre documentación que se podrá requerir para cumplimiento de la normativa del tratamiento de datos de carácter personal.

— El sexto sobre documentación Técnica a presentar a la finalización de la implantación de los requisitos.

— Y el séptimo sobre listado de legislación de la Unión Europea basada en el nuevo marco legislativo.

En definitiva y resumiendo, el Real Decreto 817/2023 establece un entorno controlado de pruebas para el ensayo del cumplimiento de la propuesta de Reglamento del Parlamento Europeo y del Consejo por el que se establecen normas armonizadas en materia de inteligencia artificial. La propuesta de Reglamento busca proveer a la Unión Europea de un marco normativo con el fin de promover una inteligencia artificial fiable, ética y robusta. La propuesta no regula la tecnología en sí, sino las aplicaciones de alto riesgo de inteligencia artificial 

El Real Decreto establece los requisitos para la elegibilidad y la participación en el entorno controlado de pruebas, la figura del proveedor de sistema de inteligencia artificial, los criterios de elegibilidad y el modo de participación y procedimiento de admisión.

La norma se dicta de conformidad con la habilitación prevista en el artículo 16 de la Ley 28/2022, de 21 de diciembre, de Fomento del Ecosistema de las Empresas Emergentes (ver resumen), donde se contempla la creación de entornos controlados, por períodos limitados de tiempo, para evaluar la utilidad, la viabilidad y el impacto de innovaciones tecnológicas aplicadas a actividades reguladas, a la oferta o provisión de nuevos bienes o servicios, a nuevas formas de provisión o prestación de los mismos o a fórmulas alternativas para su supervisión y control por parte de las autoridades competentes.

ENLACES

Estudio sobre contratos inteligentes por Candelaria Martín.

Real Decreto 817/2023, de 8 de noviembre.

Los contratos inteligentes en España (La disciplina de los smart contracts).
Smart contracts in Spain; the regulation of smart contracts. Antonio Legerén-Molina
.

Obras generadas por algoritmos.Algorithms-generated works. About their legal protection. Susana Navas Navarro.

 

RESÚMENES DE NORMAS MÁS DESTACADAS

RECURSOS EN ESTA WEB SOBRE: NORMAS  –  RESOLUCIONES

OTROS RECURSOS: Secciones – Participa – Cuadros – Práctica – Modelos – Utilidades

WEB: Qué ofrecemos – NyR, página de inicio – Ideario Web

PORTADA DE LA WEB

 

 

 

 

Print Friendly, PDF & Email

Deja una respuesta