viernes, 15 de marzo de 2024

IA: Parlamento europeo aprobó el Ley de Inteligencia Artificial - Act-IA

 Luego de casi 3 años de revisiones, el Parlamento Europeo aprobó la primera Ley de inteligencia artificial (IA). El 13 de marzo del 2024 la regulación logró el apoyo de 523 legisladores en el Parlamento Europeo. Hubo también 46 votos en contra y 49 abstenciones del Acta de Inteligencia Artificial (AI Act), como se le denomina.

En diciembre del 2023 ya se había pactado su aprobación con el Consejo de la Unión Europea, que representa a 27 estados, pero faltaba su ratificación. Fue propuesta por primera vez en abril de 2021 por la Comisión Europea. Desde entonces empezó a ser revisada y debatida por los parlamentarios. A fines del 2022 el Consejo de la UE alcanzó un acuerdo sobre una orientación general y entabló conversaciones interinstitucionales con el Parlamento Europeo en junio del 2023, quien acaba de rarificada.

El siguiente paso es que cada estado que integra la Unión Europea respalde la ley y luego esta sea publicada en el Diario Oficial de la UE, (mayo o junio 2024). Entrará en vigor un año después de que la ley se haga oficial y las empresas tendrán hasta 2 años para adecuarse a lo mandado, detallaron las agencias de noticias internacionales.

La ley entrará en vigor en etapas, con la suspensión de sistemas de IA prohibidos, 6 meses después de su aprobación y la aplicación de reglas para sistemas de IA de propósito general un año después. Cada país de la UE establecerá su propio organismo de vigilancia de la IA, mientras que Bruselas creará una Oficina de IA para hacer cumplir y supervisar la ley.

La ley establece sanciones de acuerdo con el riesgo que representan para la sociedad y los derechos humanos, desde la propiedad intelectual hasta la libertad de credo. Cuanto más riesgoso es el sistema, más prohibiciones. Las multas oscilan entre 7,5 millones y 35 millones de euros (US$ 8,2 y 38,2 millones), según el tipo de infracción y el tamaño de la empresa.

Las soluciones de IA que representen riesgos inaceptables quedarán prohibidas, si valoran que representan una clara amenaza para la seguridad, los medios de vida y los derechos de las personas. Si el sistema implica una manipulación de la persona o una vigilancia masiva, no podrá ser comercializada en el territorio europeo.


Los sistemas de IA de “Alto riesgo” quedarán sujetos a cumplir estrictas medidas para minimizarlos antes de ser comercializados. Las autoridades deberán evaluar su cumplimiento. En este nivel entran los sistemas de identificación biométrica remota para entornos privados e infraestructura crítica.

Los de “Riesgo limitado” por problemas de transparencia en el uso de la IA, deberán cumplir ciertas recomendaciones. En el caso de un chatbot se debe informar que no se está hablando con un humano para que el consumidor decida si lo seguirá usándolo o no. Si el contenido de texto, audio o video que difunde una web ha sido generado por IA deberá ser etiquetado como generado artificialmente.

Los de “Riesgo mínimo o nulo” no tendrán limitaciones y podrán ser ofrecidos al público. En esta categoría están muchas herramientas de productividad que ya se emplean en la actualidad.


El reglamento será aplicable a todos los usos de la IA que afecten a los ciudadanos de la UE, independientemente de la sede del proveedor de servicios o del lugar donde se desarrolle o ejecute el sistema, dentro o fuera de las fronteras de la UE. Este es también el caso de otros reglamentos de la UE, como el RGPD (Reglamento General de Protección de Datos), y otras propuestas legislativas, como la DMA (Digital Markets Act) y la DSA (Digital Services Act).


ANTECEDENTES

2021-Mayo

Proyecto de Reglamento de Inteligencia Artificial de la UE 

El proyecto de Reglamento de Inteligencia Artificial de la UE tiene sanciones más altas que el RGPD y también puede resultar aplicable a tu organización por más que no esté en UE.

La Comisión de la Unión Europea ha presentado al Parlamento Europeo un proyecto de Reglamento para regular el uso de la inteligencia artificial (IA), que muchos consideran puede llegar a tener una trascendencia similar al que supo tener el Reglamento General de Protección de datos (RGPD). Por cierto, si la trascendencia estuviese dada por el valor de las sanciones aplicables frente a su incumplimiento corresponde prestarle atención atento que las sanciones máximas son superiores a las previstas en el RGPD, al alcanzar Euros 30 millones o el 6% de la facturación anual global, lo que resulte mayor.

De la misma forma que el RGPD obliga a las compañías a expandir significativamente el compliance en materia de protección de datos...

Te invitamos a ver el artículo completo:
https://lnkd.in/gNSZam2



La Inteligencia Artificial tendrá un gran desarrollo en los próximos años, y su impacto será transversal a muchas actividades de la sociedad, de allí la importancia de conocer más sobre su ecosistema actual

ORGANISMOS PROMOTORES

1. AI4GOOD  tiene como objetivo construir comunidades, facilitar el acceso a datos e infraestructura, incubar soluciones innovadoras y educar al mundo sobre el impacto de la Inteligencia Artificial en la sociedad. Analizamos específicamente el impacto social a través de los Objetivos de Desarrollo Sostenible de las Naciones Unidas, y estamos orgullosos de trabajar con la ONU en soluciones reales.


2. Asociación sobre Inteligencia Artificial "Partnership on AI to Benefit People and Society" (Partnership on AI) formado el 2016 para promover la apreciación pública de la tecnología.



La organización tiene como objetivo establecer las mejores prácticas para las oportunidades y desafíos en el campo de la IA. Aborda temas como privacidad, interoperabilidad y colaboración entre las personas y los sistemas de AI.

La alianza entiende que AI puede mejorar muchos aspectos de la vida de las personas, mientras que mantiene su preocupación por el impacto negativo de AI podrían tener sobre la humanidad en su conjunto.

3.  Ethics and Governance of Artificial Intelligence Fund  (2017) se enfoca en el impacto ético y humanitario de la tecnología



LA ETICA EN LA INTELIGENCIA ARTIFICIAL

La IA tiene la capacidad de generar una cantidad infinita de beneficios y mejorar la calidad de vida de la humanidad, pero también abre camino a situaciones de riesgo y plantea preguntas acerca de su uso y sus efectos, por ello es necesario incorporar la dimensión ética para iluminar el desarrollo de la IA, y hacer distinciones de su uso correcto o incorrecto.

En enero 2020, fue publicado el estudio de consenso en enfoques éticos y derechos basados en los principios éticos para la Inteligencia Artificial elaborado por la Universidad de Harvard (su centro Berkam Klein) dedicado por la internet y la sociedad. Ética y gobernanza de la IA. adjunto link



INTELIGENCIA ARTIFICIAL EN LATINOAMERICA

En Agosto 2020, se presentó el estudio “la Inteligencia Artificial en las Empresas de América Latina” realizado por la consultora Everis, en alianza con MIT Tech Review, en 6 países de América Latina (Argentina, Brasil, Chile, Colombia, México y Perú), que en conjunto representan más del 85% del PBI de la región, para. Para ello, han entrevistado a más de 40 directivos y encuestado a más de 100 personas responsables de liderar la adopción de IA en sus empresas. Han considerado compañías con más de 1000 empleados y una facturación superior a 100M USD.  Se puede descargar aqui



En Junio 2020, el BID a través de su iniciativa fAir LAC, con la cual se propone promover la adopción responsable de la InteligenciaArtificial IA en Latinoamérica, presentó un estudio sobre el estado actual de la IA en 12 países. Sobre Perú concluye “Si bien Perú no ha formulado todavía una estrategia de IA a nivel nacional, el sector emprendedor y la sociedad civil han impulsado una serie de iniciativas enfocadas en la formación de talento (PUCP, UNMSM, UPCH), la Innovación (Innóvate Perú), la disminución de la brecha digital y el aprovechamiento de nuevas tecnologías. Menciona 2 casos de uso: Detección temprana de anemia del MIDIS y IRBin sobre reciclaje.

El estudio "La inteligencia artificial al servicio del bien social en América Latina y el Caribe: Panorámica regional e instantáneas de doce países" puede descargarse aquí 

Noticias sobre IA en Latinoamérica; IA Latam


INTELIGENCIA ARTIFICIAL EN EUROPA

En febrero 2002 se publicó el Libro Blanco sobre Inteligencia Artificial: un enfoque europeo hacia la excelencia y la confianza. En asociación con los sectores público y privado, el objetivo es movilizar recursos a lo largo de toda la cadena de valor y crear los incentivos apropiados para acelerar la implantación de la IA, también entre las pequeñas y medianas empresas. Para ello será también necesario colaborar con los Estados miembros y la comunidad investigadora, con el fin de atraer y retener el talento. En vista de que los sistemas de IA pueden ser complejos y conllevar unos riesgos importantes en determinados contextos, es esencial crear confianza. Son necesarias normas claras, que aborden los sistemas de IA con un elevado nivel de riesgo sin suponer una excesiva carga para los que entrañan unos riesgos menores. Las estrictas normas de la UE en materia de protección de los consumidores, que abordan las prácticas comerciales desleales y protegen los datos personales y la privacidad, siguen siendo aplicables.

En 2018, la Comisión presentó por primera vez una estrategia de IA. El marco para la IA presentado en febrero también se fundamenta en el trabajo llevado a cabo por el grupo de expertos de alto nivel sobre la IA, que presentó sus directrices éticas para una IA fiable en abril de 2019.

Desde 2014, la Comisión ha dado una serie de pasos para facilitar el desarrollo de una economía ágil en el manejo de los datos, como el Reglamento sobre la libre circulación de datos no personales, la norma sobre ciberseguridad, la Directiva sobre los datos abiertos y el Reglamento General de Protección de Datos.


MACHINE LEARNING, el aprendizaje automático en IA

Una de las claves de la IA (Inteligencia Artificial) avanzada está en el aprendizaje. Es decir les pidamos a las máquinas que aprendan por sí solas. No queremos pre-programar reglas para lidiar con las infinitas combinaciones de datos de entrada y situaciones que aparecen en el mundo real.

Necesitamos que las máquinas sean capaces de auto-programarse, que aprendan de su propia experiencia. La disciplina del Aprendizaje Automático (Machine Learning) se ocupa de este reto y los gigantes de Internet han entrado de lleno en el mundo del aprendizaje automático, ofreciendo servicios en la nube para construir aplicaciones que aprenden a partir de los datos que ingieren. Para experimentar con estos servicios tenemos plataformas como IBM Watson Developer Cloud, Amazon Machine Learning, Azure Machine Learning, TensorFlow o BigML.


El aprendizaje por refuerzo engloba un grupo de técnicas de aprendizaje automático. En estos sistemas, las conductas que se premian tienden a aumentar su probabilidad de ocurrencia, mientras que las conductas que se castigan tienden a desaparecer.

Este tipo de enfoques se denominan aprendizaje supervisado, pues requiere de la intervención de los humanos para indicar qué está bien y qué está mal (para proporcionar el refuerzo). Aparte del refuerzo, también proporcionan parte de la semántica necesaria para que los algoritmos aprendan. Una vez que los algoritmos cuentan con un conjunto de entrenamiento proporcionado por los humanos, entonces son capaces  de trabajar en forma automática sin intervención humana.

El futuro del aprendizaje automático será el aprendizaje no supervisado, donde los algoritmos son capaces de aprender sin intervención humana previa, sacando ellos mismos las conclusiones acerca de la semántica embebida en los datos, como Loop AI Labs, cuya plataforma cognitiva es capaz de procesar millones de documentos no estructurados y construir de forma autónoma representaciones estructuradas.



El aprendizaje automático está en desarrollo en el mundo del Big Data y el IoT y hay avances y mejoras de los algoritmos más tradicionales, desde los conjuntos de clasificadores (ensemble learning) hasta el Deep Learning, por sus capacidad de acercarse cada vez más a la perceptiva humana.

En el enfoque Deep Learning se usan estructuras lógicas que se asemejan  a la organización del sistema nervioso de los mamíferos, teniendo capas de unidades de proceso (neuronas artificiales) que se especializan en detectar determinadas características existentes en los objetos percibidos.. Existen varios entornos y bibliotecas de código de Deep Learning que se ejecutan en las potentes GPUs modernas tipo CUDA, ejemplo NVIDIA cuDNN.

Los modelos computacionales de Deep Learning imitan las características arquitecturales del sistema nervioso, permitiendo que dentro del sistema global haya redes de unidades de proceso que se especialicen en la detección de determinadas características ocultas en los datos. Este enfoque ha permitido mejores resultados en tareas de percepción computacional.

Hasta ahora la computación cognitiva se basa en la integración de procesos psicológicos típicamente humanos como el aprendizaje o el lenguaje. En los próximos años veremos como los sistemas cognitivos artificiales se expanden en múltiples aplicaciones en el ecosistema digital.

ADOPCIÓN DE AI

Apple con su asistente virtual Siri, que se implementó en los iPhones desde 2011


AI: Inteligencia Artificial - las mayores adquisiciones

Los gigantes corporativos Google, Twitter, IBM, Yahoo, Intel, Apple y Salesforce durante los últimos 5 años han comprado más de 30 empresas privadas que trabajan en tecnologías de Inteligencia Artificial (IA) .  De acuerdo con CB Insights, las mayores compras de empresas de Inteligencia Artificial  hasta 2016 fueron:





No hay comentarios:

Publicar un comentario