Ética en la IA: La inteligencia artificial ha de ser insegura

0
2315
PBC -comparte

Los algoritmos están diseñados para perseguir un único objetivo matemático, pero los dilemas morales son mucho más complejos. Las máquinas entrenadas para valorar las consecuencias de varias opciones devolverían la responsabilidad de tomar la decisión final a las personas…

El uso de algoritmos para tomar decisiones éticas es cada vez más común. Quizás el mejor ejemplo sea la versión de alta tecnología sobre el problema ético conocido como dilema del tranvía: si un coche autónomo no puede evitar matar a uno de los dos peatones, ¿cómo debería el software de control del coche elegir quién vive y quién muere?

Aunque este dilema no refleja de forma demasiado realista el comportamiento de un coche autónomo, muchos otros sistemas en uso (o muy cerca de implementarse) se enfrentan a todo tipo de decisiones éticas realesLas herramientas de evaluación que se utilizan actualmente en el sistema de justicia penal deben considerar los riesgos para la sociedad frente los daños a los acusados ​​individuales…

El problema es que los algoritmos nunca fueron diseñados para abordar decisiones tan difíciles. Están concebidos para perseguir un único objetivo matemático, como maximizar el número de vidas salvadas de los soldados o minimizar el número de muertes de los civiles. Cuando empiezan a aparecer múltiples objetivos, a menudo contrapuestos, se consideran cuestiones intangibles como la «libertad» y el «bienestar», no existe siempre una solución matemática satisfactoria.

El director de investigación de la Asociación para la IA, Peter Eckersley, ha publicado un artículo en el que analiza este problema. Su texto afirma: «Nosotros, como seres humanos, queremos múltiples tareas incompatibles. Existen muchas situaciones de alto riesgo en las que es realmente inapropiado, o incluso peligroso, programar una única función de objetivo que trata de describir la ética».

Estos dilemas sin solución no se limitan a los algoritmos. Los expertos en ética llevan décadas estudiándolos y se refieren a ellos como el teorema de la imposibilidad. Así que, cuando Eckersley descubrió que podrían aplicarse a la inteligencia artificial, tomó una idea del campo de la ética para proponer una solución: ¿qué pasaría si incorporáramos incertidumbre a nuestros algoritmos?

En su artículo, el experto detalla: «Los seres humanos tomamos las decisiones de forma bastante insegura la mayor parte del tiempo. Nuestro comportamiento, siendo seres morales, está lleno de incertidumbre. Pero cuando intentamos aplicar ese comportamiento ético a la inteligencia artificial, suele ser concreto y más preciso». En lugar de eso, Eckersley propone la idea de diseñar algoritmos para que explícitamente no estén seguros de lo que deben hacer.

Para representar matemáticamente esta idea, el autor presenta dos posibles técnicas. Comienza con la premisa de que los algoritmos normalmente se programan con unas reglas claras sobre las preferencias humanas.

La primera técnica, conocida como clasificación parcial, comienza a introducir un poco de incertidumbre. Podríamos programar el algoritmo para que prefiera nuestros soldados a los soldados enemigos y nuestros civiles a los soldados enemigos, pero no especificaríamos la preferencia entre nuestros soldados y nuestros civiles.

En la segunda técnica, conocida como clasificación de incertidumbre, existen varias listas de preferencias absolutas, pero cada una de ellas lleva adjunta una probabilidad. Tres cuartas partes del tiempo es posible preferir nuestros soldados a nuestros civiles y antes que a los soldados enemigos. Una cuarta parte del tiempo sería posible preferir nuestros civiles frente a nuestros soldados y antes que los soldados enemigos.

El algoritmo podría manejar esta incertidumbre calculando las múltiples soluciones y ofreciendo a los humanos una lista de opciones con sus consecuencias asociadas, opina Eckersley. Si el sistema de inteligencia artificial estuviera destinado a ayudar a tomar decisiones médicas, en lugar de recomendar un tratamiento sobre otro, podría presentar tres posibles opciones: una para maximizar la vida útil del paciente, otra para minimizar el sufrimiento del paciente y una tercera para minimizar el coste. El autor continúa: «Haciendo que el sistema sea explícitamente inseguro, el dilema vuelve a ser responsabilidad de los humanos«.

Fuente

Print Friendly, PDF & Email

Comments are closed.

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Más información.