Geopolítica de la Ética de la Inteligencia Artificial

0
1732
PBC -comparte

Esta cuestión de la ética en la IA se engloba dentro de una temática más amplia sobre el control de la tecnología por los propios humanos.

La ética de la IA se ha convertido en un tema de debate global, no sólo entre expertos. No ha llegado aún al estadio de la regulación, pero sienta las bases para su futuro, y ese va a ser el momento de la verdad.

Hay una amplia coincidencia en las diversas propuestas. Pero tras la coincidencia en términos se pueden esconder divergencias en la práctica presente y futura. Hay también diferencias culturales importantes que conviene tener en cuenta en la búsqueda de unos patrones comunes y universales para la ética de la IA.

¿Qué se entiende por ética? Wikipedia la define como “disciplina filosófica que estudia el bien y el mal y sus relaciones con la moral y el comportamiento humano”. En segundo lugar, como “conjunto de costumbres y normas que dirigen o valoran el comportamiento humano en una comunidad”. El Diccionario de la Real Academia Española como “conjunto de normas morales que rigen la conducta de la persona en cualquier ámbito de la vida”. Se podrían citar muchos autores. Nos limitaremos, como ejemplo, a Juan Manuel Orti y Lara, quien en su obra Ética o principios de filosofia moral, describía en 1853 la ética como “la ciencia que expone los principios de la moralidad de las acciones humanas y muestra cuáles son las que debe ejecutar el hombre en las diferentes relaciones en que se haya constituido”. En el caso que nos ocupa se trata de las personas que diseñan máquinas, las que las utilizan, probablemente también sus propietarios, y las propias máquinas y algoritmos que las conforman (¿robo-ética?).

Conviene señalar que la ética, como la moral, no están definidas por principios estables en el tiempo, sino que han ido cambiando a lo largo de diversas culturas y tiempos. Como también en la actualidad en lo referente a la IA. El problema es: ¿Quién va introduciendo estos principios?

Conviene señalar que la ética, como la moral, no están definidas por principios estables en el tiempo, sino que han ido cambiando a lo largo de diversas culturas y tiempos. Como también en la actualidad en lo referente a la IA. El problema es: ¿Quién va introduciendo estos principios?

A este estadio de la búsqueda y del debate, más allá de las buenas intenciones, se trata esencialmente de hacer nuestras intuiciones morales más explícitas y de construir una brújula moral para la IA. En un estadio en el que, como han indicado el emprendedor y psicólogo cognitivo Gary Marcus y el científico de computadores Ernest Davis, los sistemas de IA carecen de la capacidad para comprender conceptos de sentido común, como el tiempo, el espacio y la causalidad.7 Aunque el objetivo es imbuir esta ética y este sentido común en los algoritmos –y muchos tecnólogos y científicos están trabajando en ello–, es aún una cuestión de suma dificultad técnica lograr que los algoritmos incorporen esos valores. También dependerá de los datos que se utilicen. El desarrollo de una ética de los datos será también interesante. ¿Ética para las máquinas o para las personas? ¿Ética para los programas o para los programadores? De momento, los esfuerzos van más dirigidos a las personas, a los que diseñan y son propietarios de esta IA, aunque con diversas tecnologías, la IA esté comenzando en algunos casos, en alguna algorítmica, a diseñarse a sí misma. Puede haber consecuencias no intencionadas en este debate sobre la ética en la IA.

Hay elementos novedosos respecto a las primeras propuestas de Isaac Asimov y sus leyes de la robótica. Las consideraciones éticas abarcan ahora cuestiones sociales (sobre todo la idea una tecnología inclusiva, al servicio de las personas, sin que nadie se quede atrás). E incluso a los posibles derechos de máquinas con IA “sensible”. O la especial inquietud, como puso de relieve el profesor Mori con su teoría “Del Valle Inquietante”,8 que provocan humanoides demasiado realistas o incluso animaloides. Mori desaconsejaba hacer robots demasiado parecidos a los humanos. En todo caso, no es lo mismo darle una patata a un robot aspirador Roomba que a un perro Aibo de Sony: no hay la misma sensibilidad ante hechos parecidos. No se dan en todos los casos las mismas afinidades afectivas humano-máquina.

Dicho todo esto, hasta ahora, como indica Brent Mittelstadt,9 del Oxford Internet Institute, las iniciativas han producido “declaraciones vagas, basadas en principios y valores de alto nivel, pero en la práctica pocas recomendaciones específicas y no logran abordar tensiones fundamentales normativas y políticas contenidas en conceptos clave (como equidad –fairness– o privacidad)”. Aunque algunas de las propuestas, como la iniciativa europea o la del IEEE, sí proporcionan una lista de preguntas que deberían ayudar a las empresas y sus empleados a abordar eventuales problemas ético-jurídicos de la IA.

Hay otro factor que conviene tener en cuenta en el actual debate: La cuestión de la ética es diferente para las grandes empresas que para las pequeñas. Las grandes está inmersas en este debate, y lo marcan. Las pequeñas no disponen de los medios suficientes, y seguirán, si acaso, las líneas generales que se vayan imponiendo.

Hay una cuestión de confianza en la ética de las empresas. Salvo alguna excepción, la realidad empresarial va aún por delante de la regulación por parte de las autoridades públicas. Según un informe de la consultora Capgemini, el 86% de los directivos encuestados en varios países (como EEUU, el Reino Unido, Francia, Alemania y China) admiten haber observado prácticas éticamente cuestionables de IA en su empresa en los últimos dos o tres años. El informe considera que abordar las cuestiones éticas beneficiará a las organizaciones y su reputación. Es un factor positivo.

Fuente Real Instituto Elcano

Print Friendly, PDF & Email

Leave a reply

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Más información.