La UE propone la Ley de Inteligencia Artificial para abordar riesgos y ética en IA

24-04-2023

Una de las noticias más fascinantes de estos días es que la Unión Europea (UE) se encuentra evaluando un marco jurídico novedoso con el objetivo de intensificar de manera considerable las regulaciones en torno al desarrollo y empleo de la inteligencia artificial (IA). La Unión Europea últimamente se ha esforzado mucho por intentar regular esta materia que está despertando el interés del mundo entero, por lo que la regulación adecuada es el próximo paso a seguir.

La propuesta de la Ley de Inteligencia Artificial (IA Act) ha sido presentada por la Unión Europea, enfocándose en fortalecer las normas relativas a la calidad de los datos, transparencia, supervisión humana y rendición de cuentas. La legislación también busca abordar desafíos éticos y de implementación en distintos sectores, como sanidad, educación, finanzas y energía. Temáticas que indudablemente permitirán establecer las bases para el uso ético y responsable de la IA en el territorio que abarca la Unión Europea.

Thierry Breton, Comisario de Mercado Interior y de Servicios de la UE, destacó que, aunque la IA ha existido durante décadas, ha evolucionado significativamente gracias a la potencia de cálculo. La IA Act tiene como objetivo «consolidar la posición de Europa como centro mundial de excelencia en IA desde el laboratorio hasta el mercado, garantizar que la IA en Europa respete nuestros valores y normas, y aprovechar el potencial de la IA para uso industrial».

Uno de los elementos clave de la Ley de IA es un sistema de clasificación que determina el nivel de riesgo que una tecnología de IA podría representar para la salud y la seguridad, así como los derechos fundamentales de una persona. El marco propuesto incluye cuatro niveles de riesgo: inaceptable, alto, limitado y mínimo. La importancia de determinar el nivel de riesgo se debe a que permitirá evaluar el impacto del uso de los sistemas de IA, así como las posibles afectaciones a los usuarios.

Los sistemas de IA con riesgos limitados y mínimos, como filtros de spam o videojuegos, podrán utilizarse cumpliendo únicamente con las obligaciones de transparencia. En contraposición, los sistemas considerados como de riesgo inaceptable -tales como sistemas gubernamentales de puntuación social y de identificación biométrica en tiempo real en espacios públicos- estarán prohibidos, salvo contadas excepciones.

IA de alto riesgo permitida bajo estricta normativa y regulación de IA de propósito general

Los sistemas de IA catalogados como de alto riesgo están permitidos, aunque sus desarrolladores y usuarios deben cumplir con una normativa exigente que incluye pruebas rigurosas, documentación adecuada sobre la calidad de los datos y un marco de rendición de cuentas que especifique la supervisión humana. Ejemplos de IA de alto riesgo abarcan vehículos autónomos, dispositivos médicos y maquinaria de infraestructuras críticas. Por la fuerte inversión que se está llevan a cabo en estas u otras áreas de estudio y su implicación con la IA, el control debe ser aún mayor, para que los resultados esperados puedan ajustarse a la regulación propuesta por la Unión Europea y que tengamos a futuro sistemas de IA eficientes que no violenten derechos fundamentales de los seres humanos con su uso.

La legislación propuesta también establece normativas referentes a la llamada IA de propósito general, que comprende sistemas de IA utilizables en diferentes objetivos con variados grados de riesgo. Estas tecnologías engloban, por ejemplo, sistemas de IA generativa con grandes modelos lingüísticos, como ChatGPT.

Aprovechando el potencial de la IA con seguridad: Ley de Inteligencia Artificial de la UE

«Esta ley sitúa a la UE a la vanguardia en el esfuerzo por adaptar los sistemas de IA al futuro que deseamos como humanos», afirmó Kay Firth-Butterfield, responsable de IA del Foro Económico Mundial. La Ley de Inteligencia Artificial establece severas sanciones en caso de incumplimiento. Para las empresas, las multas podrían llegar a los 30 millones de euros o al 6% de los ingresos globales. Además, presentar documentación falsa o engañosa a los reguladores también podría conllevar multas.

Margrethe Vestager, Vicepresidenta Ejecutiva para una Europa adaptada a la Era Digital, agregó en un comunicado: «Con estas normas históricas, la UE lidera el desarrollo de nuevas reglas globales para asegurar que la IA sea confiable. Preparadas para el futuro y propicias para la innovación, nuestras normas actuarán donde sea estrictamente necesario: cuando la seguridad y los derechos fundamentales de los ciudadanos de la UE estén en juego».

La propuesta de ley busca establecer una Junta Europea de Inteligencia Artificial encargada de supervisar la aplicación del Reglamento y garantizar un enfoque uniforme en toda la UE. Este organismo tendría la responsabilidad de emitir opiniones y recomendaciones sobre las cuestiones planteadas, así como de brindar orientación a las autoridades nacionales.

«La Junta debe representar los diversos intereses del ecosistema de la IA y estar conformada por representantes de los Estados miembros», señala la legislación propuesta.

La Comisión Europea propuso originalmente la Ley de Inteligencia Artificial en abril de 2021. A finales de 2022, el Consejo Europeo adoptó una posición de enfoque general sobre la legislación, que se encuentra actualmente en debate en el Parlamento Europeo.

«La inteligencia artificial es esencial para nuestro futuro», afirmó Ivan Bartoš, Viceprimer Ministro checo de Digitalización, en una declaración después de la adopción del Consejo. «Hemos logrado un equilibrio delicado que impulsará la innovación y la adopción de la tecnología de inteligencia artificial en toda Europa».

Cuando el Parlamento Europeo adopte su propia posición sobre la legislación, comenzarán las negociaciones interinstitucionales de la UE, un proceso conocido como diálogos tripartitos, para finalizar y aplicar la ley. Los diálogos tripartitos pueden variar considerablemente en duración, ya que los legisladores debaten puntos conflictivos y revisan las propuestas. De acuerdo con funcionarios de la UE, en el caso de textos legislativos complejos como la Ley de Inteligencia Artificial, los diálogos tripartitos suelen ser procesos prolongados.

La importancia de una regulación adecuada y oportuna sobre la inteligencia artificial a nivel mundial

El rápido avance de la inteligencia artificial está transformando la forma en que vivimos y trabajamos, ofreciendo oportunidades sin precedentes para impulsar la innovación, el crecimiento económico y la mejora de la calidad de vida. No obstante, también plantea desafíos éticos, legales y sociales que deben ser abordados de manera proactiva que son importantes tenerlos presentes. La adopción de una regulación adecuada y oportuna a nivel mundial es esencial para garantizar que la IA se desarrolle de manera responsable, segura y ética.

Una regulación efectiva puede ayudar a prevenir el uso indebido de la IA, proteger los derechos humanos, garantizar la privacidad y la seguridad de los datos y fomentar la confianza pública en la tecnología. Así también, la armonización de las normativas a nivel internacional puede facilitar la cooperación entre países, promoviendo un enfoque global para abordar los desafíos compartidos y aprovechar las oportunidades que ofrece la IA.

Posibles riesgos de la desregulación en el corto, mediano y largo plazo en países desarrollados sobre IA

Corto plazo

 

  • Abuso de la privacidad: La falta de regulación puede llevar a un uso indebido de la IA en la recopilación, almacenamiento y procesamiento de datos personales, lo que podría poner en riesgo la privacidad de las personas.
  • Sesgos en algoritmos: La desregulación podría permitir la proliferación de sistemas de IA con sesgos no intencionales que afecten negativamente a ciertos grupos o individuos.

Mediano Plazo

 

  • Desigualdades económicas y sociales: La falta de regulación puede exacerbar las brechas económicas y sociales, debido a que la IA podría beneficiar desproporcionadamente a ciertas industrias y sectores, dejando atrás a otros.
  • Desplazamiento laboral: La ausencia de regulaciones adecuadas podría conducir a una rápida automatización de ciertos empleos, lo que podría aumentar el desempleo y provocar tensiones sociales.

Largo Plazo

 

  • Inseguridad en ciberseguridad: La desregulación de la IA podría aumentar los riesgos de ciberseguridad, en virtud de que los sistemas de IA podrían ser utilizados con fines maliciosos, como la creación de software malicioso o el acceso no autorizado a sistemas críticos.
  • Pérdida de confianza pública: La falta de regulación podría erosionar la confianza del público en la IA, obstaculizando su adopción y desarrollo en áreas que podrían beneficiarse de la tecnología.

La Carrera de las Superpotencias USA y China en la Conquista de la IA

China y Estados Unidos son dos de las principales superpotencias en el ámbito de la inteligencia artificial, y ambos países están invirtiendo fuertemente en su desarrollo. China ha establecido un plan gubernamental para convertirse en líder mundial en IA para 2030, enfocándose en la investigación, el desarrollo y la aplicación de la tecnología en diversos sectores económicos.

Mientras que por otro lado, Estados Unidos no cuenta con un plan gubernamental específico en cuanto a regulación de IA, pero alberga a las principales empresas tecnológicas, como Google, Microsoft y Apple, que están impulsando el desarrollo y la innovación en IA. Estas empresas están trabajando en mejorar la productividad y eficiencia en áreas como la atención médica, la energía, la logística y la fabricación, utilizando la IA.

A pesar de las diferencias en sus enfoques, tanto China como Estados Unidos comparten el objetivo de liderar la revolución de la IA. La carrera por la supremacía en IA entre estos dos gigantes tecnológicos está impulsando una mayor inversión y desarrollo en el campo, lo que podría acelerar el progreso y la adopción de la tecnología en todo el mundo. No obstante de ello, también destaca la importancia de una regulación global adecuada y equilibrada para garantizar que la IA se desarrolle de manera ética, segura y beneficiosa para todos.

El Papel de la Cooperación Internacional en la Regulación de IA

La inteligencia artificial es una tecnología global con impactos que trascienden las fronteras nacionales. En tal sentido, es fundamental que los países trabajen juntos para abordar los desafíos y oportunidades que presenta la IA. En cuanto a la cooperación internacional en materia de regulación de la IA puede ayudar a:

  • Establecer estándares globales: La cooperación entre países puede facilitar el desarrollo de normas y principios comunes para guiar el uso ético y responsable de la IA.
  • Fomentar la innovación y el intercambio de conocimientos: La colaboración entre países y empresas puede impulsar la innovación en IA y facilitar el intercambio de conocimientos y mejores prácticas en el desarrollo y la aplicación de la tecnología.
  • Abordar desafíos globales: La IA tiene el potencial de contribuir a la solución de problemas globales, como el cambio climático, la pobreza y las enfermedades. Por medio de la cooperación internacional puede ayudar a maximizar el impacto positivo de la IA en estos desafíos.

La importancia de la participación de la sociedad civil en la regulación de IA

La inteligencia artificial afecta a la sociedad en su conjunto y en cada aspecto de nuestras vidas, y es esencial que la regulación de la IA incluya la participación de la sociedad civil, incluidos grupos de consumidores, organizaciones no gubernamentales y expertos en ética y derechos humanos. Este aspecto es esencial y en cuanto a la participación la IA puede garantizar que:

  • Se aborden preocupaciones y perspectivas diversas: La participación de la sociedad civil puede ayudar a garantizar que las regulaciones de IA aborden una amplia gama de preocupaciones y perspectivas, incluidos los derechos humanos, la equidad y la inclusión.
  • Se fomente la confianza y la transparencia: La inclusión de la sociedad civil en el proceso de regulación puede aumentar la confianza del público en la IA y garantizar que la tecnología se desarrolle de manera transparente y responsable.
  • Se promueva el debate y la reflexión ética: La colaboración entre reguladores, empresas y la sociedad civil puede fomentar un diálogo abierto y reflexiones éticas sobre el uso y las implicaciones de la IA en nuestra sociedad.

Con base a lo que hemos analizado, la regulación de la inteligencia artificial es un tema complejo y de gran importancia para el futuro de nuestra sociedad. Es fundamental abordar esta cuestión de manera oportuna, equilibrada y con una amplia participación de todos los interesados, para garantizar que la IA se desarrolle y se utilice de manera ética, segura y beneficiosa para todos.

Contáctanos

Checoslovaquia y Eloy Alfaro, Edificio Cuarzo Of. 305