De las consecuencias de la Inteligencia Artificial a los principios: la roboética

0
1614
PBC -comparte

Los avances en Inteligencia Artificial están empezando a mostrar algunos atisbos de cómo será un futuro no muy lejano –coches autónomos o drones, el triunfo de la IA contra humanos en ajedrez, póker o Go– y sus más que previsibles consecuencias con respecto al empleo por la automatización. Los grandes cambios futuros y su profundo impacto social levantan por igual expectativas de un mundo distinto y mejor, pero también temores fundados sobre un dominio de las máquinas en un mundo sin empleo.

Ante esto, distintos actores se están posicionando. En primer lugar, los gobiernos. La Casa Blanca hizo públicos dos informes sobre la Inteligencia Artificial el pasado octubre de 2016 y sobre su efecto en la economía americana en diciembre de 2016. También las universidades y la academia lo están poniendo en el centro de sus discusiones. La Universidad de Stanford publicó en septiembre de 2016 su informe sobre “Inteligencia Artificial y la vida en 2030”. Y muchos otros actores, de la industria o no, están posicionándose sobre algunos de los temas principales.

En este sentido, tanto el Parlamento Europeo, por un lado, como algunos de los principales exponentes de la inteligencia artificial mundial, por el otro, se han puesto a reflexionar sobre los componentes éticos de la inteligencia artificial. ¿En qué se basan?

Una aproximación institucional: El código ético de conducta europeo

Inmersos en el debate sobre la Inteligencia Artivicial, el Parlamento Europeo (PE), tras una propuesta de borrador (junio 2016) y un informe razonado (febrero 2017)  ha aprobado un informe sobre Robótica en el que se establece un Código Ético de Conducta.

La propuesta de resolución del PE establece que es necesario establecer “un marco de guía ético para el diseño, producción y uso de los robots” que sirva de complemento a las diferentes recomendaciones puramente legales que se realizan. Es decir, profundizar en una nueva disciplina que aborde los problemas éticos de la Inteligencia Artificial, la “roboética”. La idea de fondo es que los estándares éticos deberían ir dirigidos a la humanidad –esto es, los diseñadores, productores y usuarios de los robots–  y no tanto a los robots en sí mismos. Como indica la profesora Nathalie Nevejans, responsable del informe encargado por el propio PE, no hay que confundir la ética en la robótica con la ética en las máquinas, es decir, una ética que obligue a los propios robots a adherirse a reglas éticas. Existen varios principios fundamentales que han sido recogidos por la resolución que incluyen la protección de la dignidad humana, la privacidad, la libertad, la igualdad de acceso o los efectos sociales, entre otros.

Ética e Inteligencia Artificial: los principios sancionados por el Parlamento Europeo

  1. Proteger a los humanos del daño causado por robots: la dignidad humana.
  2. Respetar el rechazo a ser cuidado por un robot.
  3. Proteger la libertad humana frente a los robots.
  4. Proteger la privacidad y el uso de datos: especialmente cuando avancen los coches autónomos, los drones, los asistentes personales o los robots de seguridad.
  5. Protección de la humanidad ante el riesgo de manipulación por parte de los robots: Especialmente en ciertos colectivos –ancianos, niños, dependientes-  que puedan generar una empatía artificial.
  6. Evitar la disolución de los lazos sociales haciendo que los robots monopolicen, en un cierto sentido, las relaciones de determinados grupos.
  7. Igualdad de acceso al progreso en robótica: Al igual que la brecha digital, la brecha robótica puede ser esencial.
  8. Restricción del acceso a tecnologías de mejora regulando la idea del transhumanismo y la búsqueda de mejoras físicas y/o mentales.

La visión de los expertos: los 23 principios de la IA de Asilomar

Como indica Cade Metz en Wired, en febrero de 1975 un grupo de genetistas se reunió en un pequeño pueblo de California, Asilomar, para decidir si su trabajo podría destruir el mundo. Estábamos al inicio de la ingeniería genética y la manipulación del ADN, y de esa reunión surgieron una serie de principios y un estricto marco ético para la biotecnología. Cuatro décadas después –organizado por el Future of Life Institute– otro grupo de científicos se reunió en el mismo lugar y con el mismo problema. Pero esta vez se trataba de analizar las posibles consecuencias de la Inteligencia Artificial. La idea de fondo fue clara y compartida: un profundo cambio está llegando y afectará a toda la sociedad y las personas que tengan algún tipo de responsabilidad en esta transición tienen tanto una gran responsabilidad como la oportunidad de darle la mejor forma posible.

Tras una profunda deliberación de meses, se aprobaron una serie de principios que fueron apoyados por al menos el 90 % de los asistentes. Estos 23 principios aprobados no son exhaustivos, pero muestran la necesidad de que ciertos principios fundamentales se respeten y que, a través del desarrollo de este debate, la Inteligencia Artificial se utilice para mejorar la vida de todos. De este modo, se plantean una serie de principios agrupados en tres consideraciones generales: a) Principios relativos a la investigación; b) Ética y valores; y c) Temas a largo plazo.

Roboética: ¿Una perspectiva común?

El modo de reflexionar y plantear los marcos éticos –y posteriormente legales–  ofrece un ejemplo claro de la distinta forma que tienen los americanos y europeos de enfrentarse a los problemas: desde un punto de vista más institucional, con comités, subcomités, informes, propuestas y marcos legales (más o menos obligatorios), frente a una discusión más flexible, abierta y voluntaria que caracteriza al modo de hacer anglosajón. Aun así, podemos observar una serie de parámetros e ideas comunes, que pueden servir de base compartida para intentar conceptualizar y regular, en su momento, las prácticas y consecuencias de la IA.

Podemos observar que existen una serie de consideraciones comunes en los dos modos de realizar esta aproximación a la ética de la IA.

  • La IA debe realizarse por el bien de la humanidad y beneficiar al mayor número. Es necesario reducir el riesgo de exclusión.
  • Los estándares con respecto a la IA deben ser altísimos en lo que respecta a la seguridad de los humanos: Para ello, es necesario un control ético y finalista de investigación, transparencia y cooperación en el desarrollo de la Inteligencia Artificial.
  • Los investigadores y diseñadores tienen una responsabilidad crucial: toda la investigación y desarrollo de la IA debe estar caracterizada por la transparencia, la reversibilidad y trazabilidad de los procesos.
  • Necesidad de control humano: Que en todo momento sean los humanos los que decidan qué pueden hacer o no los sistemas robóticos o basados en IA.
  • Gestionar el riesgo: Cuanto más grave sea el riesgo potencial, más estrictos deberán ser los sistemas de control y gestión del riesgo.
  • No desarrollo de la IA para realizar armas de destrucción.
  • Incertidumbre: Se reconoce que los avances en estos campos son inciertos, en ámbitos y alcances que en ciertos casos son inimaginables. Por ello, las regulaciones y marcos deben repensarse en el medio plazo cuando otros avances se hayan hecho realidad.

¿Existen diferencias? Como en muchos casos, más que diferencias explícitas suelen ser implícitas. En primer lugar, la cultura legislativa europea y americana es distinta. Esto puede tener efectos en el futuro. El proceso por el cual se han identificado los distintos principios -más ‘burocrático’ en el caso europeo, en una conferencia entre expertos y emprendedores en el caso americano-  ejemplifica el distinto modo de abordarlo. Consecuentemente, la Carta sobre Robótica europea es, en un cierto sentido, más exhaustiva, e intenta comenzar a regular también a los usuarios finales, y no sólo a los diseñadores.

Por último, y esto es una diferencia fundamental, parece que existen dos visiones distintas: el transhumanismo, esto es, la mejora de las capacidades humanas –físicas y/o intelectuales– a través de la tecnología y que trascienden los límites humanos. Desde la óptica europea, el transhumanismo debería ser regulado ya que potencialmente puede ir en contra de mucho de los principios básicos de la Inteligencia Artificial como la igualdad de acceso y la dignidad humana, entre otros. En cambio, en los principios de Asilomar no se limita explícitamente.

Para la reflexión

La robótica y la IA afectarán en profundidad a nuestras relaciones económicas, sociales o políticas. Todos los sectores y grupos sociales se verán afectados: ¿qué principios deberán regir a los robots? ¿Cómo afecta de manera distinta a diversos grupos sociales? ¿Y en distintas regiones del mundo? ¿Cómo será la IA en un futuro próximo?

Muchas preguntas y muchas incertidumbres, pero una realidad: la inteligencia artificial se va a desarrollar y debemos comenzar a pensar y gestionar su cambio.

Fuente del artículo

 

Print Friendly, PDF & Email

Leave a reply

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Más información.