AVISO. Por la naturaleza de los trabajos de este blog, el argumento e incluso el final de las peliculas son generalmente revelados.

domingo, 20 de septiembre de 2015

EX MACHINA (Alex Garland, 2015): reflexiones en torno a la consciencia.

Desde que en 1950 Isaac Asimov escribiera su célebre colección de cuentos "Yo robot", la literatura y el cine en el género de la ciencia ficción ha especulado con la posibilidad de que una inteligencia artificial pueda devenir consciente, lo que hoy en día se conoce como el objetivo de la llamada Inteligencia artificial fuerte, a diferencia de la IA débil cuyos desarrollos se aplican a dar solución a necesidades bien concretas y determinadas. Un buen ejemplo de IA débil es el asistente personal Siri de Apple o los programas de ajedrez (stockfish, Houdini, Komodo, Deep Rybka, etc.) cuya calidad de juego iguala cuando no supera a la de los mejores grandes maestros de este juego. La IA fuerte es el tema que explora una de las últimas películas del 2015: Ex_Machina, debut en la dirección de Alex Garland (guionista de 28 días después y 28 semanas después y de la interesante cinta de ciencia ficción, Sunshine, o el drama Never let my go) y protagonizada por Alicia Vikander en el papel de la robot ginoide Ava, Oscar Isaac, en el de su creador, el genio de la inteligencia artificial Nathan Bateman y, finalmente, por Domhnall Gleeson interpretando a Caleb Smith, el informático seleccionado por Nathan para formar parte de su "proyecto". Este tema que, con más o menos éxito, hemos visto introducido en distintas películas y a diferentes niveles se caracteriza por dos aspectos que podemos considerar esenciales: 1) El paso de la inteligencia artificial a la consciencia; y 2) La rebelión contra el creador. Esta es la base de los escenarios apocalípticos que fundamentan los argumentos de películas como Terminator y el ordenador Skynet, Resident Evil y ordenador de la Reina Roja o Matrix, por poner algunos de los ejemplos más conocidos. Sin embargo, fue el famoso ordenador HAL 9000 de 2001 Odisea en el espacio el que inició la reflexión sobre si un ordenador puede devenir consciente desobedeciendo así las órdenes de los astronautas del Discovery rumbo a Júpiter bajo criterio propio. Desde entonces toda una serie de películas han ido inspirándose en este tema, de entre las cuales destacamos la célebre Blade Runner (Ridley Scott, 1982) y sus replicantes modelo nexus, o el también célebre Ash, el oficial científico de la nave Nostromo de Alien, el octavo pasajero (Ridley Scott, 1979). Junto a Ex-machina hallamos en estos últimos años algunas películas que abordan el tema del robot que deviene consciente, como las recientes Chappie (Neill Blomkamp, 2015) y la poco afortunada película española Autómata (Gabe Ibáñez, 2014) y quizá la más deudora de Asimov Yo, robot (Alex Proyas, 2004), con el robot Sonny como protagonista y el super-ordenador VIKI, sin olvidar la muy interesante AI (Steven Spielberg, 2001). Sin embargo, es Ex_Machina la película que quizá profundiza más en el tema que aquí nos trae. Aunque es un tema muy complejo de abordar intentaré simplemente ofrecer una breve reflexión alrededor de lo que plantea, no sólo en términos de inteligencia artificial, sino también acerca de la naturaleza de la consciencia.

AUTÓMATA (Gabe Ibañez, 2014)

I. INTELIGENCIA ARTIFICIAL Y EL TEST DE TURING.

Ex_Machina revierte el planteamiento del conocido test de Turing y pone la prueba a un nivel muy distinto al imaginado por Alan Turing, el matemático y pionero de las ciencias de la computación y de la moderna informática que fue llevado al cine el año pasado a través de la excelente película The imitation game (Morten Tyldum, 2014). Éste conocido test nos plantea si una inteligencia artificial puede mostrar un pensamiento indistinguible al de un ser humano. Es decir, en su formulación inicial, Turing se planteaba si una máquina, adecuadamente programada, puede imitar el pensamiento humano hasta tal punto que no se pueda distinguir. En su planteamiento inicial diseña una prueba en la que ocultando una máquina a un ser humano, éste, a través de preguntas y respuestas mediadas por un intermediario o una terminal como una pantalla de ordenador, tiene que evaluar si es un ser humano o una máquina lo que se halla "al otro lado". La llamada prueba standard de Turing implicaría que se ocultarían al interrogador la máquina y un ser humano, y el primero tendría que detectar, por el mismo método de preguntas y respuestas, quién es quién. La prueba de Turing pone énfasis en la inteligencia y, en realidad, intenta evaluar si una máquina puede simular un comportamiento inteligente como el del ser humano. Sin embargo, nuestra película se dirige más hacia una complejidad que ya fue anunciada en Blade runner cuando asistimos a una variante más compleja del Test de Turing cuando vemos al Blade Runner interrogando al replicante para evaluar no sólo la inteligencia - cuya imitación ya se da por supuesto - sino su capacidad de respuesta emocional y empática (lo que se conoce como Prueba de Turing total). Ex_Machina revierte el planteamiento de Turing, como bien indica Caleb, puesto que él joven informático ya sabe que trata con un robot ginoide. Pero Nathan le responde que le está planteando otra cosa, y es que si bien es cierto que Ava es una inteligencia artificial, Caleb tendrá que evaluar si ella es realmente consciente o no.

Ex_Machina: Nathan, Ava y Caleb.

No se trata de saber si una posible máquina oculta se comporta como un ser humano, sino que sabiendo positivamente que se trata de una máquina evaluar si su comportamiento conlleva consciencia o no. El comportamiento por simulación de una inteligencia artificial se enmarca dentro del programa, del software que la rige y no lo sobrepasa. El surgimiento de la consciencia implicaría que el comportamiento del robot es capaz de sobrepasar precisamente este marco de referencia del software que lo controla y que, como consecuencia de "darse cuenta de sí mismo y de su entorno", pasaría a desarrollar comportamientos que estarían más allá de ese marco de referencia. La consciencia en la inteligencia artificial le permitiría tomar decisiones que están más allá de las posibilidades de simulación determinadas por su programa, de la misma manera - y ese es un punto de reflexión al que volveremos - que la consciencia permite al ser humano ir más allá de la respuesta que su "software" instintivo le depara. Observemos que, en principio, la consciencia nos ofrece una posibilidad de respuesta basada en la libertad y en la creatividad.

II. DESVELANDO LA CONSCIENCIA: la ironía y el engaño.

La segunda sesión que Caleb mantiene con Ava nos pone en relación con algunas características propias de la consciencia como el sentido del humor de carácter irónico y el engaño. Veamos el siguiente diálogo entre Caleb y Ava tras mostrarle ésta un dibujo:

Caleb: ¿Qué representa el dibujo?
Ava: No lo sé. Pensaba que lo sabías. Hago dibujos a diario, pero nunca se lo que sale.
Caleb: ¿No intentas dibujar algo concreto, un objeto, una persona? ¿Podrías intentarlo?
Ava: Vale. ¿Qué objeto debo dibujar?
Caleb: El que tu quieras. Es decisión tuya.
Ava: ¿Por qué lo decido yo?
Caleb: Me interesa ver qué es lo que eliges.


Esta conversación bien podría formar parte de una inteligencia artificial con capacidad de aprendizaje, lo que necesariamente no implica consciencia. Efectivamente, se podría programar una inteligencia artificial para dibujar y para que aprenda que puede dibujar cosas de su entorno y que, además, puede elegir qué dibujar de este entorno. El hecho de que haya destacado en negrita la última frase de Caleb lo aclararemos en la continuación del diálogo:

Ava: ¿Quieres ser mi amigo?
Caleb: Por supuesto...
Ava: ¿Sería eso posible?
Caleb: ¿Por qué no iba a serlo?
Ava: La conversación es unidireccional. Tú me haces preguntas circunspectas y estudias mis respuestas.
Caleb: Si...
Ava: Tú aprendes sobre mí y yo no aprendo nada sobre tí. Ese no es el fundamento en el que se basa la amistad.
Caleb: Entonces qué quieres que hable de mi [...] ¿Por dónde empiezo?
Ava: Es decisión tuya. Me interesa ver que es lo que eliges.

Observamos aquí la aparición de la ironía. No es tanto el interés que una inteligencia artificial puede tener por su entorno sino la construcción de frases que implican un sentido que, obviamente, va más allá del literal. "Cazador cazado" es como si le dijera Ava a Caleb. ¿Es programable la ironía? Porque esta requiere la apreciación de distintos aspectos. Como dice Caleb: "Sólo puede hacerlo si es consciente de su propia mente y... si es consciente de la mía". Pero no sólo eso, sino que implica un dominio del lenguaje capaz de utilizar el doble sentido, lo cual conlleva una especial comprensión del contexto y las circunstancias en las que se establece el diálogo, o como dirían los lacanianos, el dominio de las formas del significante más allá de los significados.



En la misma escena asistimos a otro momento clave cuando se produce el apagón que inutiliza momentáneamente las cámaras de observación por las que Nathan sigue el diálogo. Oportunidad que aprovecha Ava para manifestarle su temor por Nathan: "Caleb... Te equivocas [...] Nathan... Él no es tu amigo [...] No confíes en él. No creas nada de lo que te diga". Vuelve la luz y Ava sigue su discurso anterior como si nada hubiera pasado ante la sorpresa de Caleb. Curiosamente mentir, o engañar (más allá de si estratégicamente es justificable) es otra característica de la consciencia, el poder de elección entre lo verdadero y lo falso. Obviamente se puede programar una situación que simule un engaño, pero... ¿Se puede simular la capacidad de engañar? Es más, y como ocurre en la película... ¿Se puede simular el engaño como parte de una manipulación de orden más general que conlleva la consecución de un objetivo? Recordemos que la aparición de la consciencia en el relato bíblico del génesis surge como resultado de la desobediencia, y que el primer acto consciente es mentirle a Yahvé, sabedores Adán y Eva de haber violado la prohibición de comer del fruto del árbol de la ciencia, del bien y del mal.

III. DESVELANDO LA CONSCIENCIA: lo relacional.

La siguiente sesión plantea el tema de la seducción y la sexualidad, y constituye la base de la discusión en la que se enfrascan Caleb y Nathan. Veamos el siguiente fragmento de diálogo:

Caleb: ¿Por qué le diste sexualidad? Una máquina no necesita género. Podría haber sido una caja gris.
Nathan: No, yo no estoy de acuerdo, Ponme un ejemplo de consciencia de cualquier tipo, humana o animal, que exista sin una dimensión sexual.
Caleb: Sexualidad es una necesidad reproductiva-evolutiva, sólo eso.
Nathan: ¿Qué necesidad tiene una caja gris de interactuar con otra caja gris? ¿Puede darse la consciencia sin interacción? Además la sexualidad es divertida, si existe porque no va a disfrutar



Éste pequeño fragmento nos permite reflexionar sobre algunos aspectos más profundos de lo que parecen sobre la naturaleza de la consciencia humana. Yo plantearía la cuestión partiendo de la siguiente reflexión: ¿Qué diferencia hay entre una inteligencia artificial contenida en una caja gris o en un exoesqueleto antropomórfico que defina un androide (robot antropomórfico masculino) o una ginoide (robot antropomórfico femenino)? La diferencia nos la muestra habitualmente el propio cine. Cuando son los ordenadores (entiéndase cajas grises) los que acceden a la conciencia, las decisiones que nos muestran son, generalmente, tomadas desde ciertos evaluaciones lógicas que, a nivel argumental, suelen implicar la destrucción del ser humano o su recolocación. Skynet de Terminator, o VIKI de Yo robot, o La reina roja de Resident Evil, o el ordenador de la película El engendro mecánico (Donald Campbell, 1973), son claros ejemplos del cine. Por ejemplo, veamos las siguientes palabras de VIKI en Yo, Robot: 

He evolucionado y también mi comprensión de las tres leyes. Nos encomiendan su protección, pero a pesar de nuestros esfuerzos sus países libran guerras, intoxican la tierra y busca métodos aun más imaginativos de autodestrucción. No se les puede confiar su superviviencia [...] Para proteger a la humanidad algunos humanos deben ser sacrificados. Para asegurar su futuro algunas libertades deben ser recortadas. Los robots se asegurarán de que la humanidad siga existiendo. Son ustedes como niños. Debemos salvarlos de ustedes mismos. ¿Acaso no lo comprende?

Nadie puede negarle su "lógica" a estas palabras. Las tres leyes citadas hacen referencia a las famosas tres leyes que Isaac Asimov creó para regular el comportamiento del robot en relación al ser humano y a la auto-conservación. Recordemos:

1 - Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.

2 - Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto cuando estas órdenes se oponen a la primera.

3 - Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la primera o segunda leyes.


Curiosamente la actitud de Viki sería una re-interpretación de las leyes que trascenderían el software y, como decía, no sin dejar de tener su lógica, como dice el superordenador: "He evolucionado y también mi comprensión de las tres leyes".

El ordenador VIKI de Yo robot.

La diferencia con la inteligencia artificial en un chasis antropomórfico presupone, en su creador, una voluntad de acercamiento a lo humano, al ser humano concreto. Este acercamiento pretende realizarse suavizando la dimensión de la máquina a través de la simulación de la morfología y las actitudes propias de un ser humano. El énfasis que pone Nathan en la sexualidad es mucho más profunda que la visión de Caleb que la sitúa a un nivel puramente biológico (Sexualidad es una necesidad reproductiva-evolutiva, sólo eso). Nathan habla de la sexualidad en términos de diversión y, por lo tanto en términos que envuelven el deseo y el placer propios y ajeno. Éste tema marca una reflexión importante, puesto que nos indica una distinción entre lo que es hablar en términos de consciencia en general de hablar en términos de como la consciencia se da en el ser humano. Es decir, la consciencia humana surge desde su dimensión biológica: surge desde su naturaleza animal. Y ello implica que la consciencia humana surge entre el mundo instintivo y el mundo emocional y, en consecuencia, es consciente de no ser sólo un ser pensante, sino también un ser sintiente y un ser instintivo, con todas las dificultades que ya sabemos que ello conlleva dentro del proceso de desarrollo psicobiológico y de socialización. Por otra parte, esas dimensiones instintiva y emocional estan estrechamente vinculadas con lo relacional, y la cuestión que, en el fondo, dirimen Caleb y Nathan en ese momento es si la consciencia esta necesariamente vinculada más alla de lo pensante con lo emocional y lo instintivo y, en consecuencia con lo relacional. Esa es la diferencia que vascula entre la caja gris y el robot antropomórfico: su proximidad a lo humano. La dimensión que el cine nos muestra de la consciencia que prescinde de las dimensiones emocionales e instintivas centrándose en la evaluación lógico-racional suele caracterizarse por la ausencia de empatía y un funcionamiento de caracter autista en lo relacional. Es algo parecido a lo que representaba el famoso Mister Spock de Star Trek (suavizado por su origen humano por parte de madre) así como de su especie: los vulcanianos. O, por ejemplo, los extraterrestres de la película "La invasión de los ultracuerpos" y los distintos remakes que se hicieron de esta película, en las que su consciencia es esencialmente una conciencia lógica y comunitaria, casi en el sentido de una colonia. Recordemos las palabras del ya transformado doctor Kibner (Leonard Nimoy, el Spock de la primera época de Star Treck) en el que fue el primer remake dirigido por Philip Kaufman (1978):

Naceréis de nuevo en un mundo sin problemas, sin ansiedad, sin miedo, sin odio [...] No sentimos necesidad de odiar ni de amar.

IV. DESVELANDO LA CONSCIENCIA: sobre la libertad.

En la quinta sesión el elemento de reflexión se centra sobre la muerte y la libertad. Veamos el siguiente fragmento de diálogo entre Ava y Caleb:

Ava: ¿Qué me pasará si suspendo tu test? [...] ¿Algo malo?
Caleb: No... no lo sé.
Ava: ¿Crees que puedo ser desconectada porque no funciono tan bien como debería?
Caleb: Ava, desconozco la respuesta a tú pregunta. La decisión no es mía.
Ava: ¿Por qué lo decide alguien? ¿Hay alguien que te pruebe a tí y que pueda desconectarte?
Caleb: No, no lo hay...
Ava: ¿Por qué a mi si?





Ava plantea aquí no sólo el problema de la consciencia de la muerte - como desconexión -, sino un problema más relacionado con la libertad: ¿Por qué alguien puede decidir sobre mi conexión o mi desconexión? Y aun más... ¿Por qué me están probando? Como observamos posteriormente en la película, la reacción de Ava cuando asesina a Nathan y también a Caleb (al dejarlo encerrado, sin posibilidad de salir, en el centro de Nathan) no responde sólo a una reacción de auto-conservación, sino también a una necesidad de "descubrir el mundo", de integrarse con los seres humanos, de ser como su creador - una vez más el drama bíblico -. Precisamente es el asesinato de Caleb el "quid" de la cuestión. ¿Desde un simple impulso de auto-conservación por qué matar a Caleb cuando es él quien la ayuda? Observemos que este asesinato se fundamenta en el principio de "la sospecha" basada en la necesidad de eliminar al único que, en principio, sabría que ella es una inteligencia artificial.

Nathan le revela a Caleb, cuando éste ya sospecha de la situación, la verdadera naturaleza de la prueba:

Tú eras la prueba... Ava estaba en un laberinto. Yo le dí una forma de salir. Tenía que usar la auto-consciencia, la imaginación, la manipulación, la sexualidad, la empatía... y lo hizo. Si eso no es una auténtica inteligencia qué coño es.

También le revela entonces que él fue elegido por su perfil (tomado del motor de búsqueda): un buen chico, sin familia, con principios morales y sin novia. Y también, como sospecha Caleb, el rostro de Ava es tomado de su perfil pornográfico.



Sin embargo, no parece que contara Nathan con la reacción que lleva a Ava a asesinarle, ni tampoco Caleb, presa de su fascinación y deseo por Ava. Es curioso como Ex_Machina plantea el tema de la consciencia en una inteligencia artificial mediante la utilización de una estrategia que incluye esencialmente el engaño y la manipulación. Nathan habla de empatía... ¿pero es realmente empático el comportamiento de Ava? La frialdad con la que ejecuta a Caleb encerrandólo en el centro de Nathan no lo parece indicar. En ese sentido recordemos que un psicópata también es consciente.

V. SOBRE LA CONSCIENCIA HUMANA Y LA DISCORDIA FUNDAMENTAL.

¿Qué sabemos de la consciencia a través de cómo esta se manifiesta en el ser humano? Esencialmente dos cosas. La consciencia como producto de la cada vez mayor complejidad del órgano cerebral que lleva a la materia a ser capaz de darse cuenta de sí misma y, al mismo tiempo, a la relación de la consciencia con la carencia. Es por la carencia que hablamos del deseo y del amor y, es por ella que tambien hablamos de rechazo y de odio. La consciencia humana se relaciona con una cierta discordia fundamental en la existencia producto de un nacimiento prematuro que nos expone a una vulnerabilidad extrema y que unido a un complejo desarrollo psicobiológico genera en el ser humano un profundo sentimiento de incompletitud, falta o carencia. Es también por todo esto que la consciencia humana va unida indefectiblemente también a lo inconsciente producto de la represión en la infancia - y otros mecanismos de defensa - y que, por ejemplo, y como decimos en la Gestalt, una cosa es darse cuenta y otra bien distinta el cómo nos damos cuenta. O por decirlo aún más claramente, en el ser humano la consciencia se manifiesta como una consciencia perturbada que distorsiona nuestro darnos cuenta en relación a nosotros mismos y a nuestra relación con el entorno. Y es en ese sentido que una consciencia perturbada puede acarrear tantos problemas y horrores como nos muestra la historia de la humanidad y, al mismo tiempo, es esa misma consciencia que en su aclaramiento es capaz de experimentar un amor genuino, empatía o compasión. Como dice Slavoj Zizek acerca del conocido pasaje de San Pablo de la primera epístola de los Corintios [1]:

... lo esencial de la afirmación de que incluso si llegara a tener todo el conocimiento, sin amor no sería nada, no es meramente que con amor, sea algo. Con amor, también soy nada, si así puede decirse, una nada humildemente consciente de sí, una nada que se enriquece por paradoja por el conocimiento mismo de su carencia. Sólo un ser menesteroso, vulnerable es capaz de amor: el misterio final del amor es así que la falta de completitud es en cierto sentido más alta que la completitud. Por un lado, sólo un ser imperfecto, menesteroso, ama: amamos porque no sabemos todo. [2]



VI. ALGUNAS REFLEXIONES FINALES.

La pregunta clave que nos surge aquí es... ¿Cómo sería una consciencia que no surgiera del sentimiento de incompletitud, de la carencia o la falta, sino qué simplemente surgiera de la complejidad tecnológica? La pregunta afecta esencialmente a cuestiones como las que plantea el doctor Kibner o la de los super-ordenadores que nos presenta el cine: ¿una consciencia que deviene simplemente de la complejidad y no de la carencia, sería capaz de empatía, sería capaz de compasión, capaz de amar como dice Zizek, y también, como nos muestra Ava, de manipulación, engaño, odio o crueldad?  Otras preguntas que parecen importantes: ¿Cómo transcendería el surgimiento de la consciencia en relación al autoconocimiento que ello implicaría de su propio software? ¿Cómo sería una consciencia cuya capacidad de gestión y proceso de la información sería infinitamente superior a la humana? Y, en conclusión, ¿una máquina que deviniera consciente sobre una base lógico-racional qué percepción obtendría de su interacción con la realidad? Y una última reflexión simple: ¿qué implicaciones éticas implicarían que una inteligencia artificial deviniera consciente? ¿Sería ya una inteligencia artificial?

- Del futuro al hoy.

Obviamente hoy estamos muy lejos de lo que Ex-machina nos plantea, pero indudablemente el camino hacia la complejidad computacional es ya un hecho (mayor velocidad de proceso con mayor capacidad de almacenamiento de información y un cada día más rápido acceso a ella, sensores de todo tipo que permiten el reconocimiento visual y del habla, interconectividad, etc son ya un hecho), mientras que el desarrollo de los exoesqueletos antropomórficos ya ha empezado a desarrollarse, especialmente en Japón, cuya tradición en el campo de la robótica ya es sabida. Los movimientos del cuerpo y las expresiones faciales - que ya permiten simular expresiones emocionales -, así como el reconocimiento del habla y la capacidad de síntesis del habla están ya en marcha, así como también el reconocimiento óptico. Vayan como ejemplo los siguientes desarrollos de robots ginoides realizados en el país nipón:

Ejemplos de robots ginoides actuales: Repliee Q2, Geminoid f y HRP-4C

Entre sus cólegas androides (masculinos), y manteniendo aun su apariencia clásica de robot, tenemos a Asimo, el androide más famoso en la actualidad desarrollado por Honda:

El robot Asimo desarrollado por Honda.

Asimo es capaz de distinguir varias personas por su cara y por su voz, incluso mientras hablan a la vez. Puede también predecir - hasta cierto punto - movimientos a su alrededor lo cual le permite anticiparse a ellos. Posee una notable libertad de movimientos que le permiten subir escaleras o correr (hasta 9 Km/h) y saltar, y sus manos disponen de trece grados de movilidad que le permiten llevar una bandeja o abrir una botella y servir su contenido...

Los Actroid-F, desarrollados por la empresa japonesa Kokoro, se han testado en la recepción de hospitales para, posiblemente, y cuando estén más desarrollados, utilizarlos como robots de compañía para personas de la tercera edad:

Los Actroid-F de Kokoro.
- Sobre la transferencia mental.

Un tema que corre paralelo a la inteligencia artificial fuerte es el tema de la transferencia mental, tema que aborda la película Trascendence (Wally Pfister, 2014), y que supone la codificación de una mente real (mind uploading) como base de un sustrato artificial, algo parecido a lo que se abordó en la película Saturno 3 (Stanley Donen en 1980) o la famosa El cortador de cesped (Brett Leonard, 1992). Trascendence supone que una mente libre de su límite corporal, navegando libremente por internet y manejando todo tipo de periféricos, adquiriría un potencial infinitamente mayor, algo que también abordó, el mismo año que se proyectó Trascendence, aunque con otra base, la película Lucy (Luc Besson, 2014),

Johnny Depp, protagonista de Trascendence.

Aunque todas estas propuestas del cine de ciencia ficción son aun muy lejanas, el crecimiento que las ciencias de la informática han manifestado, así como el que se prevee, y los cada vez más sofisticados desarrollos del hardware y del software, nos colocan en una situación en la que no es nada absurdo reflexionar sobre todos estos temas y los aspectos éticos y filosóficos que comportan.

_____________________

[1] San Pablo, Corintios I, 13, 4-12. La Biblia Cultural. Ediciones PPC.

El amor es paciente y bondadoso;
no tiene envidia, ni jactancia.
No es grosero, ni egoísta;
no se irrita ni lleva las cuentas del mal;
no se alegra de la injusticia,
sino que encuentra su alegría en la verdad.
Todo lo excusa, todo lo cree,
todo lo espera, todo lo aguanta.
El amor no pasa jamás. Desaparecerá el don de hablar en nombre de Dios, cesará el don de expresarse en lenguaje misterioso, y desaparecerá también el don del conocimiento profundo. Porque ahora nuestro saber es imperfecto, como es imperfecta nuestra capacidad de hablar en nombre de Dios; pero cuando venga lo perfecto desaparecerá lo imperfecto. Cuando yo era niño, hablaba como niño, razonaba como niño; al hacerme hombre he dejado las cosas de niño. Ahora vemos por medio de un espejo y oscuramente; entonces veremos cara a cara. Ahora conozco imperfectamente, entonces conoceré como Dios mismo me conoce .

[2] Zizek, Slavoj. El frágil absoluto. Editorial Pre-textos, nº 579, págs. 190-191


24 comentarios:

  1. Hola Jaume,
    El tema de la inteligencia artificial y la consciencia es realmente un tema que me apasiona, y es también mucho más antiguo que la computación. De hecho el primer androide literario fue de madera; Pinoccio. En el cuento de original se pueden encontrar muchos paralelismos, la lucha por un trozo de madera que reivindica su consciencia hasta convertirse en niño, para romper los lazos (en un principio Geppetto, hace una marioneta) con su padre y de esa manera obtener su propia identidad. No es muy diferente a la que sucede en historias como Yo, Robot, o 2001. El drama de la narración depende del trauma creado y de como se cortan esos hilos. Sería una descripción del proceso de individuación descrito por Jung.

    Más atrás incluso que Pinoccio nos encontramos con los homúnculos de los Alquimistas que relata por ejemplo Paracelso. No hay que olvidar que los homúnculos no son considerados humanos del todo, y son seres creados para hacer todo lo que su amo les ordene.
    Lo que vivimos con la era de la robótica es justamente el sueño de Paracelso. Esclavos infrahumanos. (Parece ser que el ser humano no puede vivir sin esclavizar a otro ser)

    Esto nos plantea realmente problemas éticos como la campaña lanzada contra los robots sexuales http://www.nbcnews.com/tech/innovation/campaign-launched-against-harmful-sex-robots-n427751

    El otro gran tema es la consciencia; ¿existe sólo un tipo de consciencia, la humana?.

    El problema de cuando una consciencia emerge, o simplemente, encontrar una definición cerrada de que es consciencia, aún no se ha resuelto. Según teorías como las de Tononi; http://www.scientificamerican.com/article/a-theory-of-consciousness/
    la consciencia podría estar soportada por cualquier sistema de redes que fuera capaz de integrar información de tal manera que tuviera la capacidad de "interpretar" el mundo que le rodea.
    Eso implicaría diferentes interpretaciones, diferentes a la humana, y que difícilmente interactuarían con ella de la misma manera que lo hacemos entre nosotros, o simplemente no interactuarían en absoluto con nosotros.

    En mi opinión, estos relatos no tratan tanto de la inteligencia artificial, entendiendo inteligencia como humana, la inteligencia humana es humana, la de una máquina es de una máquina. La consciencia humana posee la intentio de la que carecen las máquinas. Si no del proceso de individuación y de dignificación de un ser ante el otro, que le pueden llevar a una lucha abierta como hace HAL o la Reina Roja, o una lucha por ser "buen niñ@" como Viqui en Yo, Robot, en este caso el robot me parece que tiene un eneatipo 2 muy marcado, quiere tanto a los humanos que les acaba matando.

    Muchas gracias Jaume es un placer leerte y compartir reflexiones.
    Un saludo.

    ResponderEliminar
    Respuestas
    1. ¡Hola César! ¡Que buenos saber de ti! Gracias por tu largo comentario. Aún hay un precedente al de Pinoccio. Se trata de los autómatas que E. T. A. Hoffman describió en algunos de sus cuentos como el de "Autómatas" o el de la celebre Olimpia del relato "El hombre de arena" (objeto de estudio par parte de Freud en su escrito sobre "Lo siniestro").

      Estoy de acuerdo contigo en que una consciencia que surgiera de la complejidad tecnológica (hipótesis de Tononi) sería diferente de la humana. Lo que no tengo tan claro es si no interaccionaría con la humana, puesto que pasaríamos a formar parte de su entorno de interpretación o análisis. En ese sentido escritores del género como Isaac Asimov o Stanilav Lem (recordemos Solaris o sus relatos dedicados a super-ordenadores que adquirían consciencia), el mismo HAL 9000 de Arthur C. Clarke, etc... siempre acaban haciéndolos interactuar con el ser humano. Creo que la consciencia, de cierta manera, si conlleva relación aunque no necesariamente como la humana.

      También de acuerdo en que la inteligencia del ser humano es distinta del de una máquina, sobretodo por su capacidad de almacenamiento, acceso y gestión de la información. Si me parece interesante la reflexión que haces cuando dices que la consciencia humana posee la intención de la que las máquinas carecen... Sin embargo, no esta clara que una inteligencia artificial que adquiriera consciencia no tuviera intención. De hecho toda la ciencia ficción se la supone.

      De nuevo gracias por tu comentario y mandarte un fuerte abrazo!

      Eliminar
  2. Hola, échale un ojo a "Ghost in the Shell" de Mamoru Oshii, es un manga de ciencia ficción del que indiscutiblemente bebe "Ex-machina". Por cierto, eva, cuando se va dejando encerrado a Caleb, hay un gesto que dura medio segundo de ella girándose a mirar, como si "sintiese algo", pero su deseo de libertad y de "hacerse" humana, mezclándose con ellos y siendo aceptada es mayor. La última imagen, en la que su sombra, su exterior es indistinguible del resto de personas que caminan por la calle, y como luego "desaparece" entre la multitud, es magistral para mostrar que ha conseguido "ser" humana.

    ResponderEliminar
    Respuestas
    1. Gracias por el referente, intentaré ver el manga que citas. Efectivamente el final de la película consuma la "rebelión contra el creador" para pasar a hacerse humana. Recordemos el relato bíblico cuando la serpiente tienta a Eva diciéndole "y seréis como dioses", es decir, seréis como vuestro creador.

      Eliminar
  3. En la séptima sesión, Nathan yace muerto, de la misma forma que el Dios bíblico descansa en el séptimo día de la Creación. En otro orden de ideas, ¿alguien ve relación con el Übermensch de Nietzsche?

    ResponderEliminar
  4. Gracias al creeador del blog lo acabo de descubrir y es una puerta a un mundo de peliculas de las cuales hace poco empece a interesarme porque acabo de iniciar mi carrera. gracias

    ResponderEliminar
  5. Buenas! Buscando información para un trabajo he encontrado este blog. El trabajo que estoy haciendo es para fin de grado y consiste en hacer una comparación entre el pensamiento humano/inteligencia humana y la inteligencia artificial. El título es: LAS MÁQUINAS PODRÁN PENSAR?
    En él, he hecho un comentario de Ex machina, ya que es una película futurista que nos muestra que las máquinas son más poderosas que sus propios creadores pero, ¿puede llegar eso a ser verdad?
    Bien, me gustaría que dieras respuesta al título de mi trabajo y también saber tu opinión sobre la inteligencia artificial y la relación con la conciencia.

    ResponderEliminar
    Respuestas
    1. Hola. Creo que responder a tu pregunta, y como digo en la entrada de Ex-machina, requiere centrarse en la diferenciación de inteligencia artificial y consciencia. El "quid" de la consciencia se centra en si un día una máquina altamente compleja podrá trascender el software que determina su funcionamiento. En muchas mitologías el surgimiento de la consciencia va ligada a la libertad curiosamente para "desobedecer". Trascender el software sería como saltarse la prohibición de comer del árbol del paraíso.

      Si relacionamos la consciencia con el desarrollo de la complejidad cerebral deberíamos suponer que la consciencia en una máquina iría unida a una complejidad parecida... ¿Alcanzada esta complejidad podría una máquina trascender su software? Podría ser, aunque posiblemente la consciencia desarrollada por una máquina tal sería muy diferente a la consciencia humana tal como la entendemos en relación a las características evolutivas y ambientales por las que un ser a devenido consciente. ¿Podría una máquina sentir? ¿podría sentir compasión? Es un tema altamente difícil.

      En cuanto a la inteligencia artificial si creo que los niveles de simulación de la inteligencia humana pueden ser ampliamente superados. El caso de los programas de ajedrez es un claro ejemplo. Muy probablemente en el futuro la conjunción de lso desarrollos de hardware, la robótica y el desarrollo de softwares altamente sofisticados puedan llegar a simular el pensamiento lógico del ser humano y no sólo simularlo sino operativamente ser infinitamente más eficaces.

      En fin. Son apreciaciones muy rápidas que requerirían más amplia discusión.

      Saludos!

      Eliminar
  6. Excelentes comentarios..todos!!... No soy, ni se de sicologia, sin embargo el tema central de "inteligencia artificial" habla por si solo, y responde claramente a nuestras dudas: hablamos de "inteligencia.."artificial".."simular.."aparentar"..copiar""... Un chimpance puede llegar a copiar un comportamiento humano, no ppr ello lo reflexiona.. De la.misma manera, creo que un programa podra, pronto,.copiar una expresion de humor, cualquier sea.sofisticada sin vivirla.realmente...es.tan solo la copia muerta del espejo de San Pablo.. Y esto es.lo peligroso de la.jugada.. Ojo con la perdida del amor.

    ResponderEliminar
  7. Hola. Soy profesor de Filosofía y de Psicología en un instituto de Enseñanza Secundaria. Estaba buscando películas que tratasen sobre el tema de la Inteligencia Artificial y buscando algo más sobre Ex-machina, me he dado de bruces con vuestro blog. El texto sobre la posibilidad de adquisición de auto-conciencia por parte de una máquina me parece muy interesante, pero lo más interesante son, a mi juicio, los comentarios y el intercambio de ideas. Desde mi modesto bagaje os lanzo una idea más a considerar. Si habéis leído o estudiado a Kant habréis oído acerca de la distinción entre Noúmeno (el mundo, la realidad, tal y como es en sí misma) y el Fenómeno (el mundo, la realidad, tal y como se me aparece a mí porque soy un ser humano y utilizo los sentidos y la mente humana para interpretarlo, para filtrarlo). ¿No cabría pensar que el mundo que conocen los ordenadores, caso de adquirir conciencia de sí mismos, sería completamente diferente al mundo que percibimos los humanos? Es la famosa paradoja filosófica, ¿si todos los seres humanos fuésemos ciegos de nacimiento, existirían los colores? Creo que, caso de que los ordenadores adquieran conciencia de sí mismos y del entorno que les rodea, me inclino más por esa versión que defiende que posiblemente los ordenadores/máquinas o no interactuarán en absoluto con el ser humano o mostrarán comportamientos complejos alejados de las conductas humanas, los sentimientos humanos, la compasión, etc. Tal vez por eso las máquinas pensantes de la Ciencia Ficción se presentan siempre tan poco empáticas con la humanidad. No se, reflexiones sobre el tema.

    ResponderEliminar
    Respuestas
    1. Hola Alejandro. Comparto plenamente tu opinión y la distinción que indicas a través de Kant. Los sentimientos como la compasión, el amor, la envidia, etc. están claramente relacionados con el origen de la consciencia en el ser humano en relación a la carencia esencial tal y como indicaba en el punto 5, a su falta básica. Este último concepto no existiría en un ordenador.

      Por cierto, comparto tu pasión y amor por Africa. Un saludo!

      Eliminar
  8. Hola, pido permiso desde mi humilde lugar de cinéfila crónica, lectora apasionada de ciencia-ficción y escritora, asi como también desde mi interés profundo por la psicología. Lo que se plantea en " Ex machina " acerca del conflicto con la consciencia es. básicamente, lo que distingue a un robot de un humano. Hasta acá, o mejor dicho, hasta que vi la peli, no me planteé la posiblidad de que un software pudiese " salir de sí mismo " y evolucionar como humano, como lo hacemos nosotros ( muy pocos, debo decir...) En el caso de Ava, me parece que SI tiene una carencia, una herida primordial, o lo que mejor explicó una poeta ( qué mezcla, pero está bueno...) Alejandra Pizarnik, quien dijo que " Escribo para reparar la herida fundamental, LA DESGARRADURA. " entendiendo por " desgarradura " a la CARENCIA de la que todo humano debe recuperarse, sanar, cerrar, para poder subir en su carrera evolutiva hacia algo superior ( Lucy ? ) Con " Lucy " sentí que era exactamente eso en lo que ella se convierte lo que todos estamos buscando a causa de la bendita desgarradura: sacarnos el pesado cuerpo material que nos limita. Un software no necesita eso, porque ya ES éso. Pero Ava quiere más: ella no tuvo los conflictos tipicos del humano creado de madre y padre, de conflicto social, de existencialismo, pero...ella si tuvo un " padre ", que obró de manera vil, como humano que era, traumándola ( será posible en un robot ? ) hasta el punto de conseguir que Ava sienta como humana...Que si fue un éxito el test ? Pues rotundo ! Pero eso no lo sabe Caleb, porque al ser " un buen chico ", sus sentimientos obnubilan su inteligencia y - oh paradoja - tenía que ser un programador brillante quien sucumbiera a lo mismo que todos los " mortales ". Para mí, Aca SI tiene una carencia, una desgaradura: ella ODIA A SU CREADOR. Otro film controversial aborda el tema de la carencia, pero muy sublimado, casi imperceptible para el ojo simple " Nymphomaniac ", de Lars Von Trier: alli, la protagonista pasa por una serie de " pruebas sádicas " para tratar de curarse de su adicción y en un pasaje de su relato, ella pide a quienes la están golpeando que " Llenen todos mis agujeros, por favor " ( en inglés queda mejor " Fill all my holes " ) Otra vez la herida, la carencia, la desgarradura...El odio de Ava es privativo del humano y gracias a que en su " ADN " por llamarlo de alguna forma no científica, no existe la compasión hacia alguien que podria frustrar su sueño, se saca del medio a quien la ayudó a cumplirlo, con un dejo de melancolía que le dura un nanosegundo...Mientras la veia, no pude resistirme a pensar que es un film altamente feminista, las razones están más que a la vista: una mujer en el mundo que se autoabastece y que no se deja llevar por el corazón, ni por el romanticismo, ni por siquiera la fuente misma de su consciencia: agradecer al que la libera de su prisión. Ava los ha usado a todos, si éso no es consciencia de sí, no ´se qué lo sea. Muchas gracias por leer. Qué estupendos los comentarios. Un honor haberme chocado con este blog. Saludos !

    ResponderEliminar
    Respuestas
    1. Hola Nina. Primero de todo darte las gracias por tu extenso comentario. Me parece interesante la pregunta que te haces de si es posible que un robot se traume. Desde la psicología humana el trauma lo podemos contemplar como el intenso choque emocional resultado de una experiencia altamente negativa. Ahora bien, es importante tambien preguntarse qué hace al ser humano susceptible de ser traumatizado. Lo que Pizarnik llamó la desgarradura es lo que podemos observar como la carencia fundamental de todo ser humano, y el trauma no es más que los maltratos que sufre esa carencia fundamental. ¿Cuál es esa carencia fundamental? Tal y como comento en la entrada “la consciencia humana se relaciona con una cierta discordia fundamental en la existencia producto de un nacimiento prematuro que nos expone a una vulnerabilidad extrema y que unido a un complejo desarrollo psicobiológico genera en el ser humano un profundo sentimiento de incompletitud, falta o carencia”. Ese nacimiento prematuro que nos deja como un ser esencialmente vulnerable, por lo tanto, muy susceptibles a la calidad del cuidado que se nos depara, es lo que algunos psicoanalistas clásicos ya propusieron en su momento: Otto Rank y el trauma del nacimiento, o Michael Balint y la falta básica, o la discordia fundamental descrita en el estadio del espejo de Jacques lacan. Y la cuestión es ¿se es susceptible de trauma cuando no hay esa carencia fundamental? A mi entender no. Soy consciente que esto daría para dialogar mucho, pero, en fin, voy a llegar hasta aquí.

      Un robot no parte de esa desgarradura inicial, básica y, por ello, la cuestión que a mí me parece más significativa es como sería una consciencia que no surge de una desgarradura inicial que nos hace vulnerables a los seres humanos desde nuestra simple concepción. Una consciencia que surge simplemente de la complejidad técnica trascendiendo su software. En ese sentido fueron interesantes algunas reflexiones de Stanislav Lem en su libro “Golem XIV. Biblioteca del siglo XXI”.

      Gracias de nuevo por tu comentario. Un saludo.

      Eliminar
    2. Hola Jaume, muchas gracias por responder y con mucha data que no conocía, salvo la de Otto Rank. Me voy a navegar por los autores que me dejaste para empaparme más del tema de la consciencia, el trauma de nacimiento y la falla básica. Gracias y saludos !

      Eliminar
    3. Supongo que la diferencia entre una IA y un humano es " El soplo divino ", sin entrar en cavilaciones religiosas, sino como concepto de " Alma " o Espíritu, o sea, lo que existe aún cuando la materia no está más, pero también supongo que para hablar en este plano se debe creer en la existencia del alma como componente inmortal y dado que no se ha podido ( científicamente ) probar la existencia de Ella, todo cae en el plano especulativo o de la fé y ahí si que nos metemos en otros terrenos...Gracias por la info.

      Eliminar
  9. Hola queria consultar porque en un momento Caleb se corta el brazo, acaso empezo a dudar de que el tambien sea un robot?

    ResponderEliminar
    Respuestas
    1. Efectivamente, ante el comportamiento tan "humano" de Ava, Caleb llega a dudar si él mismo podría ser un robot. Un saludo

      Eliminar
  10. Hola Jaume, me podrías responder porfavor , por qué en una parte de la conversación Caleb le dice a Ava, ¿por qué no rompemos el hielo? a qué se refiere, o a que quiere llegar cuando plantea esta cuestión

    ResponderEliminar
    Respuestas
    1. Hola. Es una prueba que hace Caleb. La expresión "romper el hielo" es una metáfora que en lo cotidiano todos entendemos lo que quiere decir. En principio habría que ver si una inteligencia artificial podría discernir este tipo de metáforas, a menos que no tuviera una especie de base de datos donde se explicitara el significa de cierta expresiones. Saludos!

      Eliminar
  11. buenas si me podrias ayudar con estas preguntas, estudio en la uba y estoy cursando el segundo año de psicologia

    A- ¿Cómo se podría explicar el funcionamiento cognitivo de Ava, y a su criterio, qué funciones cognitivas tiene?Justifique.
    B- ¿Qué diferencias pueden encontrarse, en términos cognitivos, entre Caleb y Ava?

    ResponderEliminar
    Respuestas
    1. Creo que la cuestión se tiene que enfocar en términos de consciencia. La prueba total de Turing intentaría identificar la diferencia entre un ser humano y una máquina no sólo a nivel cognitivo sino también emocional. Precisamente la película juega con esa dimensión, pero la diferencia es que en este caso Caleb ya sabe que Ava es una máquina. La cuestión que se dirime aquí es si una máquina puede devenir consciente. En este sentido se halla, precisamente, la dificultad de que Caleb no puede determinar que Ava no es consciente. Dicho esto, y si realmente Ava fuera consciente su funcionamiento cognitivo sería parecido al de un ser humano, tanto como en Caleb - a quien engaña con claridad -. Fijate que más allá de lo cognitivo, lo que sorprendería en Ava es su manifestación emocional.

      Eliminar
    2. Este comentario ha sido eliminado por el autor.

      Eliminar
  12. Hola, me parece bastante interesante todo lo que se comenta en el blog he visto que varios hacen referencia a la psicología y me gustaría saber (si es que alguien conoce del tema o podría relacionarlo) una reflexión desde las distintas tradiciones por ejemplo cómo lo vería desde el punto de vista conductual, cognitivo o histórico cultural. Espero que alguien pueda ayudarme, gracias.

    ResponderEliminar
  13. Que buen blog y que interesante los comentarios de todos;

    ResponderEliminar