Aprobada la Ley de Inteligencia Artificial de la UE

0
607
PBC -comparte

Al mismo tiempo que los legisladores de la UE presentaron una nueva demanda antimonopolio contra Google, la votación del Parlamento Europeo para aprobar su proyecto de Ley de Inteligencia Artificial ponía la guinda a una importante semana para la política tecnológica en Europa.

Sin embargo, no se espera que todas las cuestiones se aclaren de inmediato ya que el sistema europeo es complejo

La votación de la Ley de IA se aprobó por abrumadora mayoría y ha sido anunciada como uno de los avances más importantes del mundo sobre la regulación de la IA. Roberta Metsola, presidenta del Parlamento Europeo, la describió como «una legislación que, sin duda, marcará la pauta mundial en los próximos años».

Sin embargo, no se espera que todas las cuestiones se aclaren de inmediato ya que el sistema europeo es complejo. A partir de ahora, los miembros del Parlamento Europeo tendrán que discutir los detalles con el Consejo de la Unión Europea y la Comisión Europea, el brazo ejecutivo de la UE. Después, el proyecto de ley se convertirá en legislación. Esta versión final será un compromiso entre tres proyectos diferentes de tres instituciones muy distintas. Es posible que pasen unos dos años antes de que la ley se aplique realmente.

Gracias a la votación del 14 de junio, se aprobó la posición del Parlamento Europeo en las próximas negociaciones. Con una estructura similar a la Ley de Servicios Digitales de la UE, un marco jurídico para las plataformas online, la Ley de IA adopta un «enfoque basado en el riesgo». Ya que introduce restricciones basadas en el grado de peligrosidad que los legisladores prevén que tendría una aplicación de IA. Las empresas también tendrán que presentar sus propias evaluaciones de riesgo sobre su uso de la inteligencia artificial.

Algunas aplicaciones de la IA se prohibirán por completo, si los legisladores consideran que el riesgo es inaceptable. Mientras que las tecnologías consideradas de «alto riesgo» tendrán nuevas limitaciones en su uso y requisitos en torno a la transparencia.

Estas son algunas de las principales implicaciones:

  • Prohibición de la IA de reconocimiento de emociones. El borrador del Parlamento Europeo prohíbe el uso de la IA que intente reconocer las emociones de las personas bajo vigilancia, o en espacios como las escuelas y los lugares de trabajo. Los fabricantes de software de reconocimiento de emociones afirman que la IA es capaz de determinar cuándo un estudiante no está entendiendo cierta materia, o cuándo el conductor de un coche puede quedarse dormido. El uso de la IA para la detección y el análisis facial ha sido criticado por su inexactitud y parcialidad, pero no se ha prohibido en el borrador de las otras dos instituciones. Esto sugiere que se avecina una lucha política.
  • Prohibición de la biometría en tiempo real y la vigilancia predictiva en los espacios públicos. Será una gran batalla legislativa, ya que los distintos organismos de la UE tendrán que decidir si la prohibición se aplica por ley y cómo. Los grupos de vigilancia no están a favor de prohibir las tecnologías biométricas en tiempo real, que consideran necesarias para una policía moderna. Algunos países, como Francia, tienen previsto aumentar el uso del reconocimiento facial.
  • Prohibición de puntuación social. Se prohibiría la calificación social por parte de las agencias públicas, o la práctica de utilizar datos sobre el comportamiento social de las personas para hacer generalizaciones y perfiles. Dicho esto, la perspectiva de la calificación social, comúnmente asociada con China y otros gobiernos autoritarios, no es tan simple como parece . La práctica de utilizar datos de comportamiento social para evaluar a las personas es común en la concesión de hipotecas y la fijación de tarifas de seguros, así como en la contratación y la publicidad.
  • Nuevas restricciones para la IA generativa. Este borrador es el primero que propone formas de regular la IA generativa y prohíbe el uso de cualquier material protegido por derechos de autor en el entrenamiento de grandes modelos lingüísticos, como el GPT-4 de OpenAI. Esta empresa ya ha estado bajo la lupa de los legisladores europeos debido a la preocupación por la privacidad de los datos y los derechos de autor. El proyecto de ley también exige que los contenidos generados por IA se etiqueten como tales. Ahora, el Parlamento Europeo tiene que vender su política a la Comisión Europea y a los distintos países, que se enfrentarán a la presión de la industria tecnológica.
  • Nuevas restricciones a los algoritmos de recomendación en redes sociales. El nuevo borrador asigna a los sistemas de recomendación una categoría de «alto riesgo«, lo que supone un grado mayor con respecto a las otras propuestas de ley. Esto significa que, si se aprueba, los sistemas de recomendación de las redes sociales estarán sujetos a una inspección mayor sobre su funcionamiento. Y las empresas tecnológicas podrían ser más responsables del impacto de los contenidos generados por los usuarios.

Los riesgos de la IA descritos por Margrethe Vestager, vicepresidenta ejecutiva de la Comisión Europea, están muy extendidos. Vestager destacó su preocupación por el futuro de la confianza en la información, la vulnerabilidad ante la manipulación social por parte de actores con malas intenciones y la vigilancia masiva.

«Si acabamos en una situación donde no creemos nada, habremos socavado nuestra sociedad por completo», declaró Vestager a la prensa.

Fuente Las cinco restricciones clave de la ley de IA de la UE | MIT Technology Review en español

Print Friendly, PDF & Email

Leave a reply

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Más información.