¿Permitirán los grandes las propuestas éticas sobre la Inteligencia Artificial?

Jack Poulson, un ex profesor de Stanford que trabajaba en el departamento de máquinas inteligentes de Google, anunció su dimisión en protesta por el Proyecto Libélula, un plan para desarrollar un motor de búsqueda censurado para China, alegando que la compañía había prometido no crear o usar tecnología que «contraviniera los derechos humanos».

 

La empresa le instó a que se reuniera con Jeff Dean, el jefe de la división de inteligencia artificial.Poulson creía que tras la reunión se sentiría mejor sobre las líneas rojas éticas de Google, pero lo que sucedió fue lo contrario. Dean le dijo lo siguiente: «Las organizaciones de derechos humanos son entidades ajenas a la empresa que responden a los intereses del público y no creemos que nuestro plan constituya una violación de los derechos humanos». Poulson dejó la compañía al día siguiente.

 

 

En los últimos meses, otros empleados de Google han protestado por la oferta que ha presentado la empresa por un contrato de informática en la nube del Pentágono y por su participación en un programa de armas de inteligencia artificial (IA) del Gobierno estadounidense.

 

El desarrollo y la aplicación de la IA están causando grandes divisiones tanto dentro como fuera de las empresas tecnológicas. Las compañías que lideran la investigación en IA en EEUU y China, como Google, Amazon, Microsoft, Baidu, SenseTime y Tencent, han adoptado estrategias muy diferentes sobre el tema y sobre si desarrollar o no tecnología que en última instancia pueda utilizarse con fines militares y de vigilancia.

 

Por ejemplo, Google ha dicho que no venderá servicios de reconocimiento facial a los gobiernos, mientras que Amazon y Microsoft sí lo hacen. En respuesta a las críticas, las empresas han empezado a autorregularse estableciendo sus propios planes de ética de la IA, que engloban desde la investigación académica hasta establecer directrices y recurrir a grupos de supervisión externos.

 

Reto ético

 

Pero tanto los partidarios como los críticos de la IA opinan que esta fragmentación aún no ha dado resultados visibles. Por ejemplo, el comité asesor externo sobre IA de Google duró sólo una semana porque sus empleados protestaron por el nombramiento del conservador Kay Coles James.

 

Luciano Floridi, uno de los miembros del comité que ahora es director del Laboratorio de Ética Digital de Oxford, declara que el comité quería ayudar a Google a resolver dilemas difíciles: «Algunos proyectos son perfectamente legales, pero puede que no sean lo que la gente espera de una empresa como Google».

 

La práctica más habitual es que las compañías hagan públicos sus principios éticos sobre la IA. Pero Poulson afirma que estos principios no tienen mucho peso y que a la hora de tomar una decisión importante sólo el consejero delegado tiene la última palabra.

AI Now, una organización sin fines de lucro cuyo objetivo es fomentar la ética en la tecnología, señaló en su último informe la falta de transparencia y de aplicación de la ley: «Las empresas piden implícitamente al público que las crea cuando dicen que se comportarán de manera ética, pero no informan de sus procesos de toma de decisiones».

 

Muchas empresas se han unido con organismos académicos y de la sociedad civil para formar asociaciones sobre el tema. Una de ellas, la Asociación para la IA, fue fundada en 2017 por Google, DeepMind, Facebook, Amazon, Microsoft y Apple. Ahora pertenecen a ella casi 90 entidades; la mitad son compañías, mientras que el resto son organizaciones sin fines de lucro, instituciones académicas y otros organismos. «Creo que este trabajo es muy importante, el hecho de que sus miembros puedan conectarse abiertamente entre sí y trabajar juntos», señala Francesca Rossi, directora de ética de IBM y miembro fundadora de la asociación.

 

Comités

 

A menudo las mismas personas son miembros de varios comités de ética. Por ejemplo, Mustafa Suleyman, cofundador de DeepMind, dirige la unidad de ética de su empresa, es miembro del Consejo de Revisión de Tecnología Avanzada de su matriz Google y copreside la Asociación para la IA. Floridi ha sido miembro de los comités de ética de Cisco, Facebook, Google, IBM, Microsoft y Tencent: «Cada vez hay más comités de ética y creo que se está reconociendo que es necesario que la coordinación y la convergencia sean las mayores posible», declara Rossi.

En China las empresas están adoptando estrategias diferentes con respecto a la IA ética. De Kai, experto informático de la Universidad de Ciencia y Tecnología de Hong Kong y miembro del comité de ética de Google, declara que a las empresas chinas generalmente les interesa más resolver problemas del mundo real como una forma de hacer el bien que los principios éticos abstractos. Sin embargo, la definición de «hacer el bien» ha sido objeto de críticas por parte de algunos sectores.

 

Compañías de IA como CloudWalk, Yitu y SenseTime se han asociado con el Gobierno chino para crear sistemas de reconocimiento facial y de vigilancia, especialmente para minorías como los musulmanes uigures.

En marzo, Robin Li, consejero delegado de Baidu, instó a «aplicar la sabiduría china al debate ético» y subrayó que el objetivo final era proporcionar una «vida buena a la gente corriente». Tencent declara en su web que uno de sus objetivos es «utilizar la tecnología para fomentar el bien público».

 

Los expertos dicen que este campo es todavía incipiente y que será necesario que los sectores público y privado lleguen a un consenso. «A menos que haya un debate abierto y se hagan muchos experimentos no se podrá encontrar una solución. Tenemos tres herramientas: la ley, la autorregulación y la opinión pública. Usémoslas todas», señala Floridi.

Fuente

Written by PBC

Profesionales por el Bien Común-Blog


One thought on “¿Permitirán los grandes las propuestas éticas sobre la Inteligencia Artificial?”

  • Alberto Mangas

    mayo 9, 2019 at 9:45 am

    ¿Estamos pensando en el presente y futuro de la IA de cara al Bien Común?

Comments are closed.