Código deontológico «Si un algoritmo toma una decisión, ¿quién es responsable?

“La inteligencia artificial afecta la mayoría de los aspectos de nuestras vidas. Considerando esta omnipresencia, ¿cómo no iban a suscitar profundas dudas e interrogantes de carácter ético e incluso legal?”.

Quien formula esta pregunta es Julian David, director ejecutivo de techUK, entidad que representa a más de 900 empresas con un objetivo común: definir cómo será el mundo el futuro.

Lo hace a partir de la constatación de que corporaciones como Facebook, Amazon o IBM tienen privilegios similares a los que poseen los ciudadanos de carne y hueso.

A estos grupos y a muchas otras compañías les asisten derechos como los que, por una parte, les permiten expresarse libremente, y por otra, defenderse en los tribunales ante las acusaciones que a menudo recaen sobre ellas. Entonces, si IBM cuenta con una personalidad jurídica propia, ¿es posible que Watson, su motor de inteligencia artificial, el algoritmo complejo que, entre muchos otros, emplea Google, disponga de un estatus legal con sus correspondientes responsabilidades y facultades?

Para el profesor de la University of Surrey (Reino Unido) Ryan Abbott, “la idea no es tan pintoresca como podría parecer”. “Supone un grave problema que la inteligencia artificial tenga que someterse a las reglas establecidas hace siglos para regular el comportamiento de las personas”, comenta este investigador antes de añadir: “Una de las principales preguntas que debemos responder es qué hacer con unas máquinas que cada vez actúan de una manera más autónoma”.

Sin embargo, cuando el Parlamento Europeo se planteó que los algoritmos o los robots podrían llegar a responder por sus actuaciones, aproximadamente 200 expertos internacionales firmaron una carta de protesta. Uno de estos especialistas, Noel Sharkey, docente de la University of Sheffield (Reino Unido), sostiene que los códigos y los programas “no comprenden lo que hacen”. Si la medida hubiese prosperado, agrega, “las empresas podrían librarse alegremente” en los procedimientos judiciales.

Un investigador asociado a The Alan Turing Institute, Josh Cowls, matiza: “Para ser digno de confianza por parte de los usuarios, el funcionamiento de la inteligencia artificial debería ser más claro. Si se les otorga el aire mítico que se les está concediendo ahora a las máquinas, perderemos la capacidad de interrogar a los técnicos acerca de la tecnología que diseñan y despliegan”. Al acceder a la presidencia de la Comisión Europea, Ursula von der Leyen se fijó el objetivo de tratar adecuadamente la inteligencia artificial.

El Open Data Institute (ODI) ha analizado diversos códigos deontológicos sobre esta innovación. Pues bien, ninguno incorpora normas, y aun menos, sanciones, sobre su aplicación. Las autoridades están convencidas de que, en breve, esta situación cambiará. “Trabajamos en un área muy diferente de la medicina o el derecho, donde es habitual prohibir el ejercicio profesional si no se respetan los preceptos básicos”, concluye el jefe de política pública del ODI, Peter Wells. En cualquier caso, sigue sin resolverse una cuestión crucial: si un algoritmo toma una decisión, ¿quién es responsable de sus consecuencias?

Print Friendly, PDF & Email

Written by PBC

Profesionales por el Bien Común-Blog


Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*
*

*

code