jueves, 6 de julio de 2023

La UE y la inteligencia artificial

La IA puede ayudar a encontrar soluciones a muchos de los problemas de nuestra sociedad. Esto solo puede lograrse si la tecnología es de gran calidad y se desarrolla y se utiliza de tal manera que merezca la confianza de los ciudadanos. Por lo tanto, un marco estratégico de la UE basado en los valores de la Unión ofrecerá a los ciudadanos la confianza necesaria para que acepten las soluciones basadas en la IA, animando al mismo tiempo a las empresas a desarrollarlas e impulsarlas.

Por eso la Comisión Europea ha propuesto un conjunto de acciones para impulsar la excelencia en IA, así como normas para garantizar que la tecnología sea fiable.

El Reglamento sobre un planteamiento europeo en materia de inteligencia artificial y la actualización del Plan Coordinado sobre la IA garantizarán la seguridad y los derechos fundamentales de las personas y las empresas, reforzando al mismo tiempo la inversión y la innovación en todos los países de la UE.

Generar confianza mediante el primer marco jurídico sobre la IA

La Comisión propone nuevas normas para garantizar que los sistemas de IA utilizados en la UE sean seguros, transparentes, éticos e imparciales y estén bajo control humano. Por lo tanto, se clasifican en función del riesgo: 




Inaceptable
Se prohibirá todo lo que se considere una amenaza clara para los ciudadanos de la UE: desde la clasificación social por parte de los gobiernos a los juguetes que utilicen un asistente de voz que incentive comportamientos peligrosos en los niños.

Riesgo alto
Las infraestructuras críticas (por ejemplo, el transporte) que puedan poner en peligro la vida y la salud de los ciudadanos.
La educación y formación profesionales que puedan determinar el acceso a la educación y la trayectoria profesional de una persona (por ejemplo, la calificación de exámenes).
Los componentes de seguridad de los productos (por ejemplo, la aplicación de la IA en la cirugía asistida por robots).
El empleo, la gestión de los trabajadores y el acceso al autoempleo (por ejemplo, el software para la clasificación de los currículos en los procesos de selección de personal).
Los servicios públicos y privados esenciales (por ejemplo, las calificaciones crediticias que denieguen a los ciudadanos la oportunidad de obtener un préstamo).
Los asuntos relacionados con la aplicación del Derecho que puedan interferir en los derechos humanos fundamentales (por ejemplo, la evaluación de la fiabilidad de las pruebas).
La gestión de la migración, el asilo y el control fronterizo (por ejemplo, la verificación de la autenticidad de los documentos de viaje).
La administración de justicia y los procesos democráticos (por ejemplo, la aplicación del Derecho a un conjunto concreto de hechos).
Todos ellos serán evaluados cuidadosamente antes de su introducción en el mercado y a lo largo de su ciclo de vida.

Riesgo reducido
Los sistemas de IA como los robots conversacionales están sujetos a unas obligaciones mínimas de transparencia, para que quienes interactúen con los contenidos tomen decisiones con conocimiento de causa. El usuario puede entonces decidir si quiere continuar o dejar de utilizar la aplicación.

Riesgo mínimo
Libre utilización de aplicaciones tales como videojuegos basados en la IA o filtros de correo no deseado. La gran mayoría de los sistemas de IA pertenece a esta categoría, en la que las nuevas normas no serán de aplicación porque solo representan un riesgo mínimo para los derechos o la seguridad de los ciudadanos, o ningún riesgo en absoluto.


Nuevas normas para los proveedores de sistemas de IA de riesgo alto

Etapa 1
Se desarrolla un sistema de IA de riesgo alto

Etapa 2
Debe someterse a la evaluación de la conformidad y cumplir los requisitos de la IA. En el caso de algunos sistemas, interviene un organismo notificado.

Etapa 3
Registro de los sistemas de IA autónomos en una base de datos de la UE.

Etapa 4
Debe firmarse una declaración de conformidad y el sistema de IA tiene que llevar el marcado CE. El sistema puede introducirse en el mercado.

Si se producen cambios sustanciales en el ciclo de vida del sistema de IA, debe volverse a la etapa 2.

Una vez que el sistema de IA está en el mercado, las autoridades son responsables de la vigilancia del mercado, los usuarios se ocupan de la supervisión y el seguimiento humanos y los proveedores disponen de un sistema de seguimiento poscomercialización. Los proveedores y los usuarios también notificarán incidentes graves y fallos de funcionamiento.

fuente: UE


La propuesta de reglamento de la IA tiene la estructura por títulos siguientes

I  DISPOSICIONES GENERALES                                 art.1 al 4
II PRÁCTICAS DE INTELIGENCIA ARTIFICIAL PROHIBIDAS   art 5  
III SISTEMAS DE IA DE ALTO RIESGO                      art 6 al 51
IV OBLIGACIONES DE TRANSPARENCIA PARA DETERMINADOS SISTEMAS DE IA art52
V MEDIDAS DE APOYO A LA INNOVACIÓN           art 53 al 55
VI GOBERNANZA                                                         art 56 al 59
VII  BASE DE DATOS DE LA UE PARA SISTEMAS DE IA DE ALTO RIESGO INDEPENDIENTES                                                     art 60 
VII SEGUIMIENTO POSTERIOR A LA COMERCIALIZACIÓN, INTERCAMBIO DE INFORMACIÓN, VIGILANCIA DEL MERCADO    art 61 al 68
 IX CÓDIGOS DE CONDUCTA                                  art 69 
 X CONFIDENCIALIDAD Y SANCIONES                art 70 al 72
XI DELEGACIÓN DE PODERES Y PROCEDIMIENTO DE COMITÉ  art 73 al 74
XII DISPOSICIONES FINALES                                 art 75 al 85

El 14 de junio de 2023, los eurodiputados adoptaron su posición negociadora sobre la ley de IA. Ahora comenzarán las conversaciones sobre la forma final de la ley en el Consejo, junto a los países de la UE.
El objetivo es alcanzar un acuerdo a finales de este año.



indica en su Artículo 1 Objeto lo siguiente:

El presente Reglamento establece: 
a) normas armonizadas para la introducción en el mercado, la puesta en servicio y la utilización de sistemas de inteligencia artificial («sistemas de IA») en la Unión;
 b) prohibiciones de determinadas prácticas de inteligencia artificial; 
c) requisitos específicos para los sistemas de IA de alto riesgo y obligaciones para los operadores de dichos sistemas; 
d) normas armonizadas de transparencia aplicables a los sistemas de IA destinados a interactuar con personas físicas, los sistemas de reconocimiento de emociones y los sistemas de categorización biométrica, así como a los sistemas de IA usados para generar o manipular imágenes, archivos de audio o vídeos; 
e) normas sobre el control y la vigilancia del mercado.


Ratios de crecimiento de la IA por regiones



CRONOLOGIA IA

1950 Alan Turing propone el Test de Turing. Viene a decir que si una máquina es capaz de engañar a una persona y hacerle creer que también lo es entonces es inteligente. Es aún el estándar en cuanto a pruebas de inteligencia artificial
1956 John McCarthy inventa la expresión inteligencia artificial y la define como «la ciencia e ingeniería de construir máquinas inteligentes»

1961 Entra en servicio Unimate, el primer robot industrial, que sustituye a humanos en una de las plantas de ensamblado de General Motors.
1964 Joseph Weizenbaum escribe Eliza, un chatbot que mantiene conversaciones con humanos.
1966 Entra en funcionamiento Shakey, la «primera persona electrónica», un robot móvil que razona acerca de sus propias acciones.

1997 Deep Blue, un ordenador programado para jugar al ajedrez, derrota al campeón del mundo Garry Kasparov.
1998 Cynthia Breazeal presenta KISmet, un robot que intenta detectar y responder a las emociones de las personas que interactúan con él.
1999 Sony lanza el perro robot Aibo, la primera mascota robótica con habilidades y personalidad que se van desarrollando con el tiempo.

2002 iRobot presenta Roomba, la primera aspiradora robot producida en masa capaz de aprender a navegar por sí misma por los espacios que ha de limpiar.

2011 Apple integra Siri, un asistente virtual inteligente con interfaz de voz, en el iPhone 4S.
2011 La inteligencia artificial Watson de IBM consigue ganar el juego de preguntas Jeopardy.
2014 El chatbot Eugene Goostman consigue, según sus creadores, pasar el test de Turing, aunque es una afirmación más que discutida.
2014 Amazon lanza Alexa, un asistente virtual inteligente con interfaz de voz capaz de comprar cosas. A veces sin mucho control por parte de quienes la usan.
2016 El chatbot Tay de Microsoft pierde los papeles y se pone a hacer comentarios incendiarios y racistas en redes sociales.
2017 La inteligencia artificial AlphaGo de Google gana al Go al campeón del mundo Lee Sedol. Y ojo que AlphaGo Master le da sopas con ondas a AlphaGo


RECOMENDACIONES DE LA OCDE 2019













No hay comentarios:

Publicar un comentario