Moratoria de la Inteligencia Artificial: «La carta del zorro en el gallinero»

0
606
PBC -comparte

Expertos en inteligencia artificial han reclamado frenar seis meses la “carrera sin control” de los ChatGPT. El magnate Elon Musk, el cofundador de Apple Steve Wozniak y el historiador Yuval N. Harari destacan entre el millar de firmantes de una carta abierta.

El belga Marc Coeckelbergh, que recientemente ha publicado un libro sobre filosofía de la inteligencia artificial, y es profesor de Filosofía de la Tecnología de la Universidad de Viena, ha sido bastante crítico con la carta publicada, argumentos no le faltan.*

Todo parece oler a un intento de una disidencia controlada al propio poder de muchos de los autores de la carta.

Para este profesor la carta encaja en una exageración transhumanista de la inteligencia artificial y en una narrativa a largo plazo que no comparte. El profesor Coeckelbergh no cree que la IA vaya a revolucionar hasta convertirse en una superinteligencia, ni que debamos centrarnos en un futuro lejano. “Tenemos que fijarnos en la ética y centrarnos en los riesgos de ahora”. “No necesitamos ciencia ficción” afirma. No es el primer académico que se preocupa de que solo estemos pendientes de los diálogos, muchas veces impuestos sin ninguna base científica, sobre el alcance de la IA dentro de 100 años. Diálogos en torno a una IA fuerte que supere al ser humano (muy cuestionable), mientras dejamos avanzar (hoy) a las grandes tecnológicas y estados generando un grave deterioro en la sociedad y las democracias. No se trata de una visión cortoplacista, se trata de poner en el centro del debate los temas que afectan y afectarán a nuestras vidas de forma drástica en todos los ámbitos.

Para este experto, también es cuestionable, que una moratoria tenga sentido, porque los grandes emporios sabrán cómo burlarla. En el mensaje está quizás está la misma trampa: querer mostrar una imagen preocupada respecto a la IA.

“Inteligencias” como el ChatGPT recogen información de los usuarios y de las bases de datos de Internet, información muchas veces inexacta, con un funcionamiento más que cuestionable. El funcionamiento del programa también puede dar lugar a mezclas de información falsa y engañosa.

Sabemos que la IA también puede utilizarse para manipular y, a la vez, sobre todo a través de sus respuestas, puede persuadir a la gente para que haga cosas, o no las haga. En Bélgica ha habido un caso de un ChatBot que persuadió a alguien para que acabara con su vida. Se trata de riesgos muy graves. También podríamos hablar de la manipulación de las elecciones políticas, por supuesto.

Para el profesor, hay que elegir entre funcionalidad (funcionalismo)[1] y poner límites éticos y afirma: “Es bueno regular y restringir este tipo de inteligencia artificial”. Y se pregunta sobre la IA “¿Pero, hasta qué punto sigue siendo funcional?” “¿Si, por ejemplo, se filtra en determinadas opiniones en nombre de la corrección política?” “¿Hasta qué punto está justificado este tipo de censura?  ¿Y quién debe tomar las decisiones al respecto?”

Actualmente hay un gran problema, y es que el desarrollo de la IA está en manos de unas pocas grandes empresas y esto no es democrático. Existe un gran miedo a la pérdida de control y al caos. Pero no hay pérdida de control ni caos cuando se regulan democráticamente estas tecnologías. O cuando la sociedad tiene el suficiente protagonismo en la vida política, y ésta a su vez pone los límites.

La verdadera pérdida de control es la que sucede cuando unas pocas empresas multinacionales controlan la mayoría de las tecnologías, y cuando la sociedad lo vive con absoluta pasividad, quizás resignada.

Pero los medios resaltan la opinión de los magnates, de personas poderosas que tienen gran parte del control de la IA, de pensadores al servicio de estas grandes tecnológicas, como si se tratara de fomentar o conducir una posible disidencia a su propio poder. Entonces el zorro, ¿es el guardián del gallinero?

Hace falta una investigación más a fondo sobre la ética, sobre las filosofías que deben regular todo esto. Estamos viendo cómo estados y gobiernos de todo signo, utilizan estas tecnologías. Forma parte necesaria de este sistema que desea un control máximo de las sociedades. Hay muchas personas que están pensando en estos temas, y cuestionando la deriva de la IA, desde hace muchos años.

Pero los medios resaltan la opinión de los magnates, de personas poderosas que tienen gran parte del control de la IA, de pensadores al servicio de estas grandes tecnológicas, como si se tratara de fomentar o conducir una posible disidencia a su propio poder. Entonces el zorro, ¿es el guardián del gallinero?

Es interesante la reflexión que hace D. Javier Sánchez Cañizares, profesor de la Universidad de Navarra[2], afirmando que Siri, Cortana o Google no hacen sino reflejar la opinión de sus creadores humanos, pues quedan al margen de las finalidades y capacidades que corresponden a la inteligencia natural. Y pregunta: ¿Qué finalidad última puede tener la IA más allá de la que le venga impuesta por sus creadores (hombre o robot construido por un hombre)? El tema no parece ser muy tratado por los teóricos de la IA, confiando quizás en que de la complejidad de los procesos emergerán las finalidades de las máquinas.

¿Pero cuánto de supervisado es, en realidad, el aprendizaje no supervisado? ¿Hay finalidades intrínsecas de las máquinas o se trata más bien de finalidades subrepticiamente impuestas por los creadores humanos en base a su ser natural con tendencias?

Alberto Mangas. Grupo de Tecnología de PBC.

[1] El funcionalismo es la teoría filosófica que sirve de soporte a muchos de los desarrolladores de la inteligencia artificial.

[2] profesor de la Universidad de Navarra, Director del Grupo “Ciencia, Razón y Fe” (CRYF) y miembro del Grupo “Mente-cerebro” del Instituto Cultura y Sociedad (ICS).

*Marc Coeckelbergh en declaraciones en el diario El Mundo 4-4-2023

Contacto con PBC Tecnología
Print Friendly, PDF & Email

Leave a reply

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Más información.