Debate: Máquinas y ¿consciencia?

0
1019
PBC -comparte

¿Qué nos hace humanos? A esta pregunta, muchos – incluidos personajes famosos como el historiador israelí Yuval Noah Harari[1] y el fundador de OpenAI, Sam Altman[2] – responden: «el humor», «la imaginación», «las emociones». Nosotros sostenemos que estas respuestas son filosófica y teológicamente ingenuas y, en última instancia, inadecuadas: la característica definitoria de la condición humana se encuentra más bien en la consciencia, que también suele considerarse el «santo grial» de la investigación en inteligencia artificial (IA).

En este artículo queremos demostrar que la llamada «inteligencia artificial generativa» no puede, en principio, ser tan inteligente como nosotros, es decir, que las máquinas nunca serán «conscientes de sí mismas». Por supuesto, estas afirmaciones requieren una explicación más matizada, para evitar las trampas del pensamiento anticientífico y de la «arrogancia clerical»: dos trampas en las que los teólogos han caído ocasionalmente desde el comienzo de la era moderna.

Fuente Civiltà Católica Leer completo aquí. Artículo realizado por Ferenc Patsch  ¿Máquinas conscientes?

La cuestión fundamental

Introduzcamos el tema presentando una breve anécdota. Dos monjes están en la orilla de un arroyo y contemplan las ondulaciones del agua. De repente, uno de ellos dice pensativo: «¡Ojalá pudiera ser tan feliz como ese pez en el agua!». El otro responde: «¿Cómo puedes estar seguro de que ese pez es feliz? Tú no eres un pez». El primero responde: «¿Cómo sabes que no puedo saberlo? Tú no eres yo».

Este cuento expresa con acierto uno de los problemas más debatidos en la investigación de la IA hoy en día: ¿cómo sabemos que las máquinas actuales son realmente «inteligentes»? ¿Puede un ordenador ser más listo o más creativo que su creador, el hombre? ¿Y quién está cualificado para decidir tales cuestiones?

La posibilidad de crear robots inteligentes no es, desde luego, una cuestión nueva. Al contrario, ha sido una viva preocupación de la imaginación de novelistas y cineastas que han trabajado en el género de la ciencia ficción durante las últimas décadas. Aquí queremos referirnos a tres películas que se han convertido ya en clásicos.

1) 2001: Odisea del espacio es una película estadounidense de ciencia ficción de 1968 que tuvo gran éxito. Fue tan famosa que su impacto dejó una huella duradera en la cultura del séptimo arte debido a sus originales soluciones cinematográficas. El guion también llamó la atención del público: por ejemplo, uno de los personajes principales de esta película era un superordenador infalible llamado HAL, con personalidad propia, que de repente se rebela contra su creador, toma el control de la nave espacial (pues descifra, leyendo los labios, una conspiración humana contra él) y sólo después de muchas adversidades y emociones es finalmente desarmado.

2) Toda una generación de mediana edad recordará el primer episodio de Star Wars: Una nueva esperanza («A New Hope»), estrenado en 1977. Uno de los principales «personajes» de esta película era C-3PO, un robot humanoide algo torpe que expresaba emociones y se hacía amigo de su compañero robot – a veces incluso «peleaba» con él – mientras charlaba y balbuceaba simpáticamente en pantalla. Su compañero inseparable era R2D2. Esta película es una señal para los diseñadores que trabajan hoy en el campo de la robótica social, una demostración de que una máquina no tiene por qué parecerse necesariamente a un ser humano (humanlike) para ser querida y provocar empatía: basta con que sea simplemente «benévola» y «servicial», y por supuesto no está de más que posea habilidades especiales útiles para los humanos. Como estos robots poseían sin duda tales cualidades, millones de personas los admiraron, y los convirtieron en figuras icónicas para toda una generación.

3) Recordemos también Terminator 2 («Judgement Day» / «El juicio final»), un clásico del cine que disfrutó una generación posterior. Una de las escenas de esta película de 1991 es la de Arnold Schwarzenegger entrando desnudo como «Terminator» en un bar, en busca de un motociclista hostil, al que primero pide amablemente que le entregue su ropa y su moto, y luego, tras encontrar resistencia, se las arrebata por la fuerza. En este punto, la idea distópica de que los humanos deben luchar a muerte con robots «inteligentes» por su supervivencia alcanza su clímax.

La cuestión de los «ordenadores inteligentes» parece haber cobrado más actualidad que nunca. Algunos dicen que la visión de ciencia ficción de hace unas décadas es ya una realidad, mientras que otros afirman que se hará realidad en un futuro próximo[3]. Hoy en día, toda una industria – la llamada «industria de la IA» – se basa en la idea de ordenadores cada vez más inteligentes y, como oímos regularmente en los medios de comunicación, expertos de OpenAI, DeepMind y Anthropic trabajan incansablemente para desarrollar una «Inteligencia Artificial General», es decir, una IA fuerte o de nivel humano, que quizás represente una especie de singularidad, un nuevo comienzo en la investigación.

Lo que está en juego no es nada trivial: incluso los observadores más moderados advierten de que la IA tiene una importancia estratégica y geopolítica inconmensurable: quien gane la «carrera armamentística» de la IA podrá controlar el futuro del mundo[4]. Pero, ¿está realmente en juego la supervivencia de la humanidad, como sugieren los medios sensacionalistas? Y si es así, ¿en qué sentido? Para aclarar estas preguntas, primero debemos hacer un breve análisis de la cuestión.

¿Qué es la consciencia artificial?

Según la definición del sitio web oficial de OpenAI, la «Inteligencia Artificial General» (IAG) es un «sistema altamente autónomo que supera a los humanos en la mayoría de los trabajos de valor económico»[5]. La gran ventaja de esta definición es que es breve y concreta (y, por tanto, relativamente fácil de verificar); sin embargo, su inconveniente es que es simplista y, en última instancia, filosóficamente inadecuada. Si el superordenador Deep Blue de IBM venció al campeón mundial de ajedrez Garry Kasparov en 1997, ¿significa eso que era más inteligente que él? O, cuando en 2016 AlphaGo triunfó sobre Lee Sedol, el campeón mundial del juego de mesa go – infligiendo así a la psique asiática una herida difícilmente imaginable en Europa –, ¿podría verse esto también como una solemne declaración de que el ordenador es más inteligente que el principal jugador de go del mundo? Y, por último, si el ChatGPT es más hábil planificando un viaje de negocios que una secretaria de empresa, entonces, sólo porque la máquina haga mejor un determinado trabajo de valor económico, ¿puede considerarse realmente más inteligente que los humanos? O, como afirman algunos, ¿son también conscientes de sí mismas? La respuesta es, por supuesto, una cuestión de interpretación: depende de lo que entendamos por «inteligencia» y «consciencia» (o «autoconsciencia»). Como nunca se ha definido el significado de estos términos, debemos aventurarnos más allá del ámbito de las ciencias, en lo que es propiamente el reino de la filosofía y la teología.

 

Un intento de aclarar el concepto

Desde luego, la cuestión de la inteligencia informática no es nueva. Los llamados «filósofos de la mente» llevan décadas trabajando en una definición más precisa de la inteligencia. En general, sus investigaciones les han llevado a distinguir tres componentes o aspectos principales de la misma: la consciencia, la percepción y la autopercepción.

1) La cuestión de la «consciencia» ha sido abordada en profundidad, entre otros, por el filósofo estadounidense Thomas Nagel. En su ensayo de 1974 titulado Whatis it like to be a bat?, sostenía que sólo los que son conscientes pueden «sentir». Según su famoso argumento, la pregunta «¿qué se siente al ser un murciélago?» sólo puede hacerse sobre un murciélago, mientras que no tiene sentido sobre una tostadora. La diferencia es que un murciélago tiene obviamente algún tipo de consciencia (específica de la vida animal), mientras que no puede decirse lo mismo de una lavadora o una tostadora[6]. Por tanto, la consciencia debe concebirse como una especie de continuo. La consciencia humana es superior a la del murciélago en la medida en que también es consciente de sí misma; los delfines y los monos representan una especie de estado intermedio entre el hombre y el murciélago, porque se reconocen en el espejo, lo que sugiere que tienen un nivel de consciencia de sí mismos, evidentemente inferior al del hombre, pero superior al de los demás animales[7].

2) Otro componente de la inteligencia humana es el de «ser sensible» (sentience), es decir, la capacidad que tenemos de ser conscientes de nuestras percepciones y emociones. También ésta es una capacidad exclusivamente humana en comparación con la de los animales: no hay pruebas detectables de que otras especies sean conscientes de lo que perciben o sienten. Por supuesto, en un sentido similar, un ordenador también puede percibir, ya que es posible crear un algoritmo que permita a un robot, por ejemplo, detectar objetos amarillos en su campo de visión, y luego percibir esta propiedad y reaccionar ante ella. Del mismo modo, se puede enseñar a los robots a percibir y reconocer comportamientos hostiles y, en caso necesario, a responder a un ataque con agresividad. Sin embargo, esto no significa que la máquina entienda lo que es el amarillo (color) o que sea consciente de la agresión como emoción.

3) Por último, para hablar de inteligencia también se requiere «consciencia de sí» («self-awareness»). El término inglés «self-awareness» no es lo mismo que «consciousness», porque no se trata sólo de una intuición cognitiva, sino también de una especie de «consciencia del propio cuerpo» (bodyawareness). Esta última también puede observarse en la vida animal, a distintos niveles. En el caso de los humanos, «consciencia de sí» significa ser consciente de uno mismo como individuo separado de todos los demás, con sus propios pensamientos, decisiones e ideas conscientes. Es algo más que la capacidad de representarse a sí mismo, que también se observa en mamíferos superiores (como han demostrado, por ejemplo, los experimentos con Koko, una gorila a la que se enseñó el lenguaje de signos). Hay que señalar que incluso los sistemas operativos o depuradores de los ordenadores modernos pueden representarse a sí mismos, pero esto no es todavía consciencia, autodeterminación o autopercepción.

La consciencia en sentido estricto – como consciencia, percepción y autopercepción – es una forma de ser exclusiva de los seres humanos, al menos por ahora. Esta situación sólo podría cambiar si la llamada «inteligencia general artificial»[8] se realizara no sólo hipotéticamente, sino también en la realidad, es decir, si se creara al menos «un robot inteligente» capaz de realizar cualquier tarea mental que el ser humano sea capaz de realizar, es decir, que también tuviera consciencia, percepción y autopercepción en el sentido mencionado. Muchos futurólogos creen que los grandes modelos lingüísticos que existen hoy en día, como ChatGPT, son precursores o «chispas» de la aparición de una inteligencia artificial general de este tipo[9]. Nosotros, en cambio, coincidimos con la mayoría de los estudiosos en que, en principio, no será posible alcanzar ese objetivo nunca.

Extracto del artículo.

Print Friendly, PDF & Email

Comments are closed.

Las cookies nos permiten ofrecer nuestros servicios. Al utilizar nuestros servicios, aceptas el uso que hacemos de las cookies. Más información.