El problema no es la “inteligencia artificial”, el problema es hacer ideología de la misma.

La inteligencia artificial, tal como funciona en la actualidad, se basa en realizar procesos inductivos, estadísticas, regresiones matemáticas, ensayos estocásticos (aleatorios), con millones de datos; que nos ayudan, junto con la experiencia almacenada en esos datos, en la toma de decisiones rutinarias que hasta ahora podría hacer un ser humano, pero en un bajo primer nivel. Comparar este salto tecnológico, con la mente y capacidades del ser humano, nos lleva a situar la naturaleza humana en un plano de pura ideología, en una situación de fragilidad ante su misma creación.

Las diferencias son palmarias entre la inteligencia humana y estos procesos matemáticos.

El niño pequeño se acerca mediante procesos deductivos de unos pocos ensayos o situaciones, a conocer cómo funciona el mundo que le rodea; por ejemplo, la experiencia con sus padres en casa, o la absorción en el aprendizaje de la lengua desde la temprana edad, incluso en el vientre materno.

Este tipo de procesos deductivos con pocos datos (y con mucho de presencia empática) no son los de la IA actual. La semántica que se usa en este lenguaje, como el de “inteligencia” o “aprendizaje de máquina” de la IA, son meros antropomorfismos, de una herramienta como es la IA. Es una herramienta técnica que se encuentra en otro paradigma, en otro estatus, sujeta también a orientaciones sociales, culturales y políticas.

Un niño pequeño distingue un perro de un gato con pocas imágenes, sin embargo, una red neuronal “inteligente” necesita millones de imágenes para inferir conclusiones con alta fiabilidad… Lo que ocurre en el cerebro humano, es claramente un misterio, sin dejar de valorar en todo momento los estudios y avances en neurociencia… Por tanto analizar cómo emergen las capacidades cognitivas de un ser humano no está a nuestro alcance, y no parece estar cercano ese momento.

Otro problema que aleja la IA de la naturaleza del ser humano, es el llamado “olvido catastrófico”. Una red neuronal puede después de “entrenarse” con millones de imágenes a distinguir perros y gatos…pero si la entrenamos a otra tarea, por ejemplo en el juego de estrategia GO[1], se produce lo que se llama “olvido catastrófico”, olvidará el aprendizaje anterior. La contextualización, incluso a nivel básico, está muy lejano para la IA. Todos los intentos de robots clínicos, por ejemplo, no han podido contextualizar si el paciente sufre o no…

La naturaleza llega a soluciones fantásticas por caminos que el hombre no ensaya porque simplemente no conoce sus mecanismos reales.

La naturaleza llega a soluciones fantásticas por caminos que el hombre no ensaya porque simplemente no conoce sus mecanismos reales. Por eso hemos de tener cuidado con las antropomorfizaciones gratuitas y de las manipulaciones de filosofías que sirven a los grandes. La máquina nos puede ganar al ajedrez, pero no puede entender el sentido profundo de una frase o de un verso…

Procesos de automatización con algoritmos y bancos de datos, sugerencias y probabilidades, con gran potencial comercial e incluso sanitario están aquí, pero hemos de evitar el ideologizar al extremo la tecnología para otros objetivos, ideología que forma parte ya de algunos procesos y proyectos empresariales. Por eso algunos plantean mejorar al ser humano con la IA, minorando su propio ser. Cuidado.

Alberto Mangas

Profesionales por el Bien Común

[1] DeepMind, que fue adquirida por Alphabet (Google) en 486.4 millones de dólares en 2014, es más conocida por haber creado un software de AI capaz de vencer a los mejores jugadores del mundo en el antiguo juego de estrategia asiático Go.

 

Written by Alberto Mangas

Ingeniero. Gestor Web. Mantenimiento Industrial y Minero. Redes electricas aéreas y subterráneas. Prevencionista de Riesgos y Experto en Impacto ambiental.


Suscríbete a nuestro boletín de noticias por mail