Ética para el desarrollo de la inteligencia artificial (I)

0
1488
PBC -comparte

Decía Kant que la invención del puñal había precedido a la misma moral, en concreto al imperativo categórico del No Matarás. El avance de las tecnociencias en un marco descontrolado, bajo intereses geopolíticos y empresariales, en pleno crecimiento exponencial, pone de manifiesto esta diferencia y esta asincronía entre la «nueva ciencia experimental» y la moral que debería guiar sus pasos.

El caso Michihito (el político sin «mancha»)

En Tama, un distrito de Tokio en las elecciones de 2018, se produjo algo que hasta ahora solo podríamos ver en el cine o libros de ciencia ficción. Ficción hasta ahora, porque una Inteligencia Artificial (IA) se presentó por primera vez a la alcaldía. En este distrito japonés, las paredes se llenaron de carteles electorales con rostros de los candidatos de cada partido. Hay uno que resaltó sobre los demás, Michihito Matsuda. Un robot androide con rasgos femeninos que con sus algoritmos, supliría la falta de honradez, de eficacia, de sentimientos mal enfocados de los políticos. Además se le suponía capacidad para predecir hechos, anticiparse a problemas, todo muy tentador. El robot quedó tercero en la segunda vuelta, con 4000 votos…

Sin duda, este caso nos sirve para plantear uno de los primeros dilemas éticos que se producen, si hacemos uso de los sistemas inteligentes para tomar decisiones.  ¿Somos (nosotros profesionales) los que tomamos las decisiones o «delegamos» en estos sistemas evaporando la responsabilidad? ¿Podemos caer en el mismo error que Eichman durante el régimen nazi.?  ¿Podemos llegar a despreciar hasta ese punto las capacidades humanas sujetas a la compasión, a la empatía, al ejercicio del Bien Común…? Todo esto exige un debate serio.  Pero ¿Cómo está el marco institucional?

Universidades y ciencia desacopladas o a remolque de la «caja negra» de la IA

Es evidente que el primer paso lo han dado humanos al realizar el algoritmo, al fabricar la máquina y su mecanismo, al desarrollar estas tecnologías, son instituciones gobernadas por personas. Hoy el desarrollo de la IA, es el de una «ciencia experimental», que solo está sujeta al mercado puro y duro, al poder económico y político que devuelve a sus inversores.

El mes pasado, Nature publicó una dura crítica firmada por 31 científicos sobre un estudio de Google Health publicado en la revista a principios de este año. En el artículo, Google describía sus exitosos ensayos con una inteligencia artificial (IA) que buscaba signos de cáncer de mama en imágenes médicas. Pero, según los críticos, el equipo de Google proporcionó tan poca información sobre su código y sobre cómo se había probado que el estudio no era nada más que una acción promocional de la tecnología. El código abierto no existe. Hay demasiado en juego y posiblemente mucho que ocultar.

La IA está que arde por varias razones. En la última década «se ha convertido en una ciencia experimental», resalta la científica informática de Facebook AI Research y McGill University y coautora de la crítica Joelle Pineau. Y añade: «Antes era algo teórico, pero cada vez realizamos más experimentos. Y nuestra dedicación para proporcionar una metodología sólida se está quedando atrás por la ambición de nuestros experimentos».

El problema no es solo académico. La falta de transparencia impide que los nuevos modelos y técnicas de IA se evalúen adecuadamente en términos de solidez, rigor ético, prejuicios y seguridad. La IA pasa de los laboratorios de investigación a las aplicaciones del mundo real cada vez más rápido, con un impacto directo en la vida de las personas. Pero los modelos de aprendizaje automático que funcionan bien en el laboratorio pueden fallar en el mundo real, con consecuencias potencialmente peligrosas. La replicación por parte de diferentes investigadores en distintos entornos revelaría los problemas con antelación y daría lugar a una mejor IA para todos. Pero estos mínimos nos se dan.

Hoy el desarrollo legislativo va muy detrás, y está muy atomizado en cuanto a los axiomas éticos y morales.  Eso sí, hay un común de líneas rojas que el neocapitalismo sostiene cercando a la cuestión… Pero como decimos, el desarrollo legistativo es a día de hoy tan variopinto, como el número de paises que entran en juego, y hacen la guerra por su cuenta, nunca mejor dicho.

Criterios y guías morales ¿dónde?

Recordemos las tres leyes de la robótica que Isaac Asimov «insertaba» en sus robots de las novelas de ciencia ficción de los años 40-50 (Yo Robot, Círculo vicioso…) Estas leyes ya nos daban un anticipo del debate ético que se nos venía encima:

  1. Un robot no puede hacer daño a un ser humano o, por su inacción, permitir que un ser humano sufra daño.
  2. Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entran en conflicto con la Primera Ley.
  3. Un robot debe proteger la existencia en su misma medida para no autodestruirse en la medida en que esta protección no entre en conflicto con la Primera o la Segunda Ley.

Pero, ¿estas leyes hacían de los robots seres autónomos con sus propias leyes, o sin embargo, solo los diseñadores de los robots son quienes inscriben esas leyes pero los robots continuan siendo heterónomos? Es el caso planteado en múltiples ocasiones de los coches autónomos; cuando la máquina se plantea la posibilidad de salvar la vida del viandante que se cruza inesperadamente o del pasajero que se encuentra en el asiento de atrás…

Ciertamente, los 23 Principios de Asilomar, propuestos por el Future of Life Institute en la Conferencia Asilomar de 2017, a los que se considera como una ampliación de las Leyes de Asimov, pretenden asegurar que la IA sea diseñada para el bien. Consideran que los sistemas IA son instrumentos valiosos, que pueden favorecer a las personas y de ahí que se formulen principios para conseguirlo. Veremos donde llegan.

¿En qué consiste entonces la ética de la inteligencia artificial?

Adela Cortina (filósofa, catedrática de Ética de la Universidad de Valencia…) plantea varias cuestiones importantes.

Podemos llamar “inteligencia” en sentido amplio a la capacidad de perseguir metas, planificar, prever consecuencias de las acciones y emplear herramientas para alcanzar las metas. La inteligencia en el sentido en que hablamos sería el de la capacidad de resolver problemas con instrumentos.

Si recurrimos a la caracterización del High-Level Expert Group on Artificial Intelligence, creado por la Comisión Europea, en sus Orientaciones Éticas para una IA confiable, publicadas en 2019, tras haber sacado a la luz y discutido con expertos dos borradores.  Según el texto de las Guidelines, los sistemas de IA son sistemas de software (y posiblemente también de hardware), diseñados por humanos que, dada una meta compleja, actúan en la dimensión física o digital percibiendo su entorno mediante la adquisición de datos, interpretando los datos recogidos, estructurados o no estructurados, razonando sobre el conocimiento o procesando la infor- mación derivada de estos datos y decidiendo las mejores acciones que hay que realizar para alcanzar la meta.

Para la académica existen 3 tipos de IA, y por tanto tres respuestas éticas:

  • La inteligencia téoricamente superior a la humana, ¡dicen que la mejora!. Nos referimos a un tipo de inteligencia que pretende superar a la humana en el amplio sentido de la palabra humano. Esta modalidad de IA es la que da lugar a las propuestas transhumanistas y posthumanistas con la idea de la “singularidad”.

Nota: Esta teoría apenas tiene base científica actualmente, pero genera una nuevo iluminismo.

Adela C. plantea entre otras cosas: »

¿Cuál será la ética de esas superinteligencias? Nick Bostrom, uno de los adalides del posthumanismo, aconseja integrar valores en esas inteligencias que, aprendiendo, se independizarán de los humanos. Pero —a mi juicio— si esto fuera posible, y las máquinas aprendieran por su cuenta, poco podríamos hacer por conseguir que siguieran manteniendo como valores el respeto, la solidaridad, la justicia o la compasión. Serían los propios sistemas superinteligentes los que irían proponiendo sus valores y actuando o no de acuerdo con ellos. Ésta sí que sería una “ética de la inteligencia artificial”, que no estaría en nuestras manos. ¿Es ahora un deber moral propiciarla?

Y sobre todo, en un mundo en que es una realidad sangrante el sufrimiento causado por las guerras, la pobreza, la aporofobia y la injusticia, ¿es un deber moral invertir una ingente cantidad de recursos en construir presuntos seres pluscuamperfectos, o es el modo en que empresas poderosas consiguen todavía más riqueza y poder? ¿No es una exigencia ética palmaria utilizar los grandes beneficios de la inteligencia artificial para resolver estos problemas acuciantes?

  • Un segundo tipo de inteligencia es la inteligencia general, aquella que puede resolver problemas. Ésta es la forma teórica de inteligencia «humana», y constituye el fundamento de la IA, en que trabajan muchos investigadores: el objetivo de la IA, como disciplina científica, es conseguir que una máquina tenga una inteligencia de tipo general, similar a la humana. Pero no humana. ¡Le falta el cuerpo!

En este sentido afirma Adela C.

«Que este punto es central: las máquinas carecen del conocimiento de sentido común que es posible por nuestras vivencias corporales. El cuerpo es esencial para dar significado a lo que nos rodea mediante la intencionalidad, para comprender e interpretar desde los contextos concretos, para contar con valores, emociones y sentimientos, para tomar decisiones desde ese êthos. La cuestión es entonces: ¿es posible dotar de sentido común a las máquinas, aunque no tengan un cuerpo como el humano? Realmente, la financiación que reciben quienes trabajan en ello es astronómica, pero por el momento no parece haberse logrado. Sin embargo, en el caso de que fuera posible construir sistemas inteligentes con una inteligencia general como la humana, ¿tendríamos que aceptar que están dotadas de autonomía y, por lo tanto, son personas y que, en consecuencia, es preciso reconocerles dignidad y exigirles responsabilidad?, ¿tendrían derechos y deberes?, ¿deberíamos tratarlas con respeto y compasión?, ¿deberían ser ciudadanas del mundo político, elegibles como representantes en sociedades democráticas, sin estar manejadas por un ser humano?

  • Por último, la inteligencia especial es la que lleva a cabo trabajos específicos, es la propia de sistemas inteligentes capaces de realizar tareas concretas de forma muy superior a las capacidades humanas en muchos trabajos, porque pueden contar con una inmensa cantidad de datos y también con algoritmos sofisticados, que pueden llevar a conseguir fines de todo tipo. Es lo que tenemos en funcionamiento desde 1958 en diversos ámbitos.

El caso más conocido es el de la supercomputadora de IBM Deep Blue, que jugó al ajedrez con Gary Kasparov, campeón del mundo, en 1996 y 1997. res y derrotó a Kasparov. Pero también son conocidos, aunque menos, los algoritmos que mueven la ciberguerra, los robots soldado y los que especulan a «corto» en las bolsas mundiales.

Sin embargo, en todos estos casos el elemento directivo sigue siendo la persona humana que se vale de la potencia del sistema inteligente para calcular y tratar gran cantidad de datos, incluso para aprender de sus “experiencias”, como ocurre con las plataformas como Amazon o Uber…
Es en este tipo de IA en el que actualmente nos encontramos. No se trata, pues, por el momento de una ética de los sistemas inteligentes, sino de cómo orientar el uso humano de estos sistemas de forma ética.

……

Sigamos dialogando, continuará…

Fuentes del post

https://www.boe.es/biblioteca_juridica/anuarios_derecho/abrir_pdf.php?id=ANU-M-2019-10037900394_ANALES_DE_LA_REAL_ACADEMIA_DE_CIENCIAS_MORALES_Y_POL%C3%8DTICAS_%C3%89tica_de_la_inteligencia_artificial

https://www.technologyreview.es/s/12852/como-la-ia-se-convirtio-en-el-juguete-roto-de-la-investigacion-cientifica

 

 

 

Print Friendly, PDF & Email

Leave a reply

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Más información.