AVISO. Por la naturaleza de los trabajos de este blog, el argumento e incluso el final de las peliculas son generalmente revelados.

domingo, 20 de septiembre de 2015

EX_MACHINA (Alex Garland, 2015): reflexiones en torno a la consciencia.

Desde que en 1950 Isaac Asimov escribiera su célebre colección de cuentos "Yo robot", la literatura y el cine en el género de la ciencia ficción ha especulado con la posibilidad de que una inteligencia artificial pueda devenir consciente, lo que hoy en día se conoce como el objetivo de la llamada Inteligencia artificial fuerte, a diferencia de la IA débil cuyos desarrollos se aplican a dar solución a necesidades bien concretas y determinadas. Un buen ejemplo de IA débil es el asistente personal Siri de Apple o los programas de ajedrez (stockfish, Houdini, Komodo, Deep Rybka, etc.) cuya calidad de juego iguala cuando no supera a la de los mejores grandes maestros de este juego. La IA fuerte es el tema que explora una de las últimas películas del 2015: Ex_Machina, debut en la dirección de Alex Garland (guionista de 28 días después y 28 semanas después y de la interesante cinta de ciencia ficción, Sunshine, o el drama Never let my go) y protagonizada por Alicia Vikander en el papel de la robot ginoide Ava, Oscar Isaac, en el de su creador, el genio de la inteligencia artificial Nathan Bateman y, finalmente, por Domhnall Gleeson interpretando a Caleb Smith, el informático seleccionado por Nathan para formar parte de su "proyecto". Este tema que, con más o menos éxito, hemos visto introducido en distintas películas y a diferentes niveles se caracteriza por dos aspectos que podemos considerar esenciales: 1) El paso de la inteligencia artificial a la consciencia; y 2) La rebelión contra el creador. Esta es la base de los escenarios apocalípticos que fundamentan los argumentos de películas como Terminator y el ordenador Skynet, Resident Evil y ordenador de la Reina Roja o Matrix, por poner algunos de los ejemplos más conocidos. Sin embargo, fue el famoso ordenador HAL 9000 de 2001 Odisea en el espacio el que inició la reflexión sobre si un ordenador puede devenir consciente desobedeciendo así las órdenes de los astronautas del Discovery rumbo a Júpiter bajo criterio propio. Desde entonces toda una serie de películas han ido inspirándose en este tema, de entre las cuales destacamos la célebre Blade Runner (Ridley Scott, 1982) y sus replicantes modelo nexus, o el también célebre Ash, el oficial científico de la nave Nostromo de Alien, el octavo pasajero (Ridley Scott, 1979). Junto a Ex-machina hallamos en estos últimos años algunas películas que abordan el tema del robot que deviene consciente, como las recientes Chappie (Neill Blomkamp, 2015) y la poco afortunada película española Autómata (Gabe Ibáñez, 2014) y quizá la más deudora de Asimov Yo, robot (Alex Proyas, 2004), con el robot Sonny como protagonista y el super-ordenador VIKI, sin olvidar la muy interesante AI (Steven Spielberg, 2001). Sin embargo, es Ex_Machina la película que quizá profundiza más en el tema que aquí nos trae. Aunque es un tema muy complejo de abordar intentaré simplemente ofrecer una breve reflexión alrededor de lo que plantea, no sólo en términos de inteligencia artificial, sino también acerca de la naturaleza de la consciencia.

AUTÓMATA (Gabe Ibañez, 2014)

I. INTELIGENCIA ARTIFICIAL Y EL TEST DE TURING.

Ex_Machina revierte el planteamiento del conocido test de Turing y pone la prueba a un nivel muy distinto al imaginado por Alan Turing, el matemático y pionero de las ciencias de la computación y de la moderna informática que fue llevado al cine el año pasado a través de la excelente película The imitation game (Morten Tyldum, 2014). Éste conocido test nos plantea si una inteligencia artificial puede mostrar un pensamiento indistinguible al de un ser humano. Es decir, en su formulación inicial, Turing se planteaba si una máquina, adecuadamente programada, puede imitar el pensamiento humano hasta tal punto que no se pueda distinguir. En su planteamiento inicial diseña una prueba en la que ocultando una máquina a un ser humano, éste, a través de preguntas y respuestas mediadas por un intermediario o una terminal como una pantalla de ordenador, tiene que evaluar si es un ser humano o una máquina lo que se halla "al otro lado". La llamada prueba standard de Turing implicaría que se ocultarían al interrogador la máquina y un ser humano, y el primero tendría que detectar, por el mismo método de preguntas y respuestas, quién es quién. La prueba de Turing pone énfasis en la inteligencia y, en realidad, intenta evaluar si una máquina puede simular un comportamiento inteligente como el del ser humano. Sin embargo, nuestra película se dirige más hacia una complejidad que ya fue anunciada en Blade runner cuando asistimos a una variante más compleja del Test de Turing cuando vemos al Blade Runner interrogando al replicante para evaluar no sólo la inteligencia - cuya imitación ya se da por supuesto - sino su capacidad de respuesta emocional y empática (lo que se conoce como Prueba de Turing total). Ex_Machina revierte el planteamiento de Turing, como bien indica Caleb, puesto que él joven informático ya sabe que trata con un robot ginoide. Pero Nathan le responde que le está planteando otra cosa, y es que si bien es cierto que Ava es una inteligencia artificial, Caleb tendrá que evaluar si ella es realmente consciente o no.

Ex_Machina: Nathan, Ava y Caleb.

No se trata de saber si una posible máquina oculta se comporta como un ser humano, sino que sabiendo positivamente que se trata de una máquina evaluar si su comportamiento conlleva consciencia o no. El comportamiento por simulación de una inteligencia artificial se enmarca dentro del programa, del software que la rige y no lo sobrepasa. El surgimiento de la consciencia implicaría que el comportamiento del robot es capaz de sobrepasar precisamente este marco de referencia del software que lo controla y que, como consecuencia de "darse cuenta de sí mismo y de su entorno", pasaría a desarrollar comportamientos que estarían más allá de ese marco de referencia. La consciencia en la inteligencia artificial le permitiría tomar decisiones que están más allá de las posibilidades de simulación determinadas por su programa, de la misma manera - y ese es un punto de reflexión al que volveremos - que la consciencia permite al ser humano ir más allá de la respuesta que su "software" instintivo le depara. Observemos que, en principio, la consciencia nos ofrece una posibilidad de respuesta basada en la libertad y en la creatividad.

II. DESVELANDO LA CONSCIENCIA: la ironía y el engaño.

La segunda sesión que Caleb mantiene con Ava nos pone en relación con algunas características propias de la consciencia como el sentido del humor de carácter irónico y el engaño. Veamos el siguiente diálogo entre Caleb y Ava tras mostrarle ésta un dibujo:

Caleb: ¿Qué representa el dibujo?
Ava: No lo sé. Pensaba que lo sabías. Hago dibujos a diario, pero nunca se lo que sale.
Caleb: ¿No intentas dibujar algo concreto, un objeto, una persona? ¿Podrías intentarlo?
Ava: Vale. ¿Qué objeto debo dibujar?
Caleb: El que tu quieras. Es decisión tuya.
Ava: ¿Por qué lo decido yo?
Caleb: Me interesa ver qué es lo que eliges.

Esta conversación bien podría formar parte de una inteligencia artificial con capacidad de aprendizaje, lo que necesariamente no implica consciencia. Efectivamente, se podría programar una inteligencia artificial para dibujar y para que aprenda que puede dibujar cosas de su entorno y que, además, puede elegir qué dibujar de este entorno. El hecho de que haya destacado en negrita la última frase de Caleb lo aclararemos en la continuación del diálogo:

Ava: ¿Quieres ser mi amigo?
Caleb: Por supuesto...
Ava: ¿Sería eso posible?
Caleb: ¿Por qué no iba a serlo?
Ava: La conversación es unidireccional. Tú me haces preguntas circunspectas y estudias mis respuestas.
Caleb: Si...
Ava: Tú aprendes sobre mí y yo no aprendo nada sobre tí. Ese no es el fundamento en el que se basa la amistad.
Caleb: Entonces qué quieres que hable de mi [...] ¿Por dónde empiezo?
Ava: Es decisión tuya. Me interesa ver lo que es lo que eliges.

Observamos aquí la aparición de la ironía. No es tanto el interés que una inteligencia artificial puede tener por su entorno sino la construcción de frases que implican un sentido que, obviamente, va más allá del literal. "Cazador cazado" es como si le dijera Ava a Caleb. ¿Es programable la ironía? Porque esta requiere la apreciación de distintos aspectos. Como dice Caleb: "Sólo puede hacerlo si es consciente de su propia mente y... si es consciente de la mía". Pero no sólo eso, sino que implica un dominio del lenguaje capaz de utilizar el doble sentido, lo cual conlleva una especial comprensión del contexto y las circunstancias en las que se establece el diálogo, o como dirían los lacanianos, el dominio de las formas del significante más allá de los significados.



En la misma escena asistimos a otro momento clave cuando se produce el apagón que inutiliza momentáneamente las cámaras de observación por las que Nathan sigue el diálogo. Oportunidad que aprovecha Ava para manifestarle su temor por Nathan: "Caleb... Te equivocas [...] Nathan... Él no es tu amigo [...] No confíes en él. No creas nada de lo que te diga". Vuelve la luz y Ava sigue su discurso anterior como si nada hubiera pasado ante la sorpresa de Caleb. Curiosamente mentir, o engañar (más allá de si estratégicamente es justificable) es otra característica de la consciencia, el poder de elección entre la verdadero y lo falso. Obviamente se puede programar una situación que simule un engaño, pero... ¿Se puede simular la capacidad de engañar? Es más, y como ocurre en la película... ¿Se puede simular el engaño como parte de una manipulación de orden más general que conlleva la consecución de un objetivo? Recordemos que la aparición de la consciencia en el relato bíblico del génesis surge como resultado de la desobediencia, y que el primer acto consciente es mentirle a Yahvé, sabedores Adán y Eva de haber violado la prohibición de comer del fruto del árbol de la ciencia, del bien y del mal.

III. DESVELANDO LA CONSCIENCIA: lo relacional.

La siguiente sesión plantea el tema de la seducción y la sexualidad y constituye la base de la discusión en la que se enfrascan Caleb y Nathan. Veamos el siguiente fragmento de diálogo:

Caleb: ¿Por qué le diste sexualidad? Una máquina no necesita género. Podría haber sido una caja gris.
Nathan: No, yo no estoy de acuerdo, Ponme un ejemplo de consciencia de cualquier tipo, humana o animal, que exista sin una dimensión sexual.
Caleb: Sexualidad es una necesidad reproductiva-evolutiva, sólo eso.
Nathan: ¿Qué necesidad tiene una caja gris de interactuar con otra caja gris? ¿Puede darse la consciencia sin interacción? Además la sexualidad es divertida, si existe porque no va a disfrutar


Éste pequeño fragmento nos permite reflexionar sobre algunos aspectos más profundos de lo que parecen sobre la naturaleza de la consciencia humana. Yo plantearía la cuestión partiendo de la siguiente reflexión: ¿Qué diferencia hay entre una inteligencia artificial contenida en una caja gris o en un exoesqueleto antropomórfico que defina un androide (robot antropomórfico masculino) o una ginoide (robot antropomórfico femenino)? La diferencia nos la muestra habitualmente el propio cine. Cuando son los ordenadores (entiéndase cajas grises) los que acceden a la conciencia, las decisiones que nos muestran son, generalmente, tomadas desde ciertos evaluaciones lógicas que, a nivel argumental, suelen implicar la destrucción del ser humano o su recolocación. Skynet de Terminator, o VIKI de Yo robot, o La reina roja de Resident Evil, o el ordenador de la película El engendro mecánico (Donald Campbell, 1973), son claros ejemplos del cine. Por ejemplo, veamos las siguientes palabras de VIKI en Yo, Robot: 

He evolucionado y también mi comprensión de las tres leyes. Nos encomiendan su protección, pero a pesar de nuestros esfuerzos sus países libran guerras, intoxican la tierra y busca métodos aun más imaginativos de autodestrucción. No se les puede confiar su superviviencia [...] Para proteger a la humanidad algunos humanos deben ser sacrificados. Para asegurar su futuro algunas libertades deben ser recortadas. Los robots se asegurarán de que la humanidad siga existiendo. Son ustedes como niños. Debemos salvarlos de ustedes mismos. ¿Acaso no lo comprende?

Nadie puede negarle su "lógica" a estas palabras. Las tres leyes citadas hacen referencia a las famosas tres leyes que Isaac Asimov creó para regular el comportamiento del robot en relación al ser humano y a la auto-conservación. Recordemos:

1 - Un robot no debe dañar a un ser humano o, por su inacción, dejar que un ser humano sufra daño.

2 - Un robot debe obedecer las órdenes que le son dadas por un ser humano, excepto cuando estas órdenes se oponen a la primera.

3 - Un robot debe proteger su propia existencia, hasta donde esta protección no entre en conflicto con la primera o segunda leyes.

Curiosamente la actitud de Viki sería una re-interpretación de las leyes que trascenderían el software y, como decía, no sin dejar de tener su lógica, como dice el superordenador: "He evolucionado y también mi comprensión de las tres leyes".

El ordenador VIKI de Yo robot.

La diferencia con la inteligencia artificial en un chasis antropomórfico presupone, en su creador, una voluntad de acercamiento a lo humano, al ser humano concreto. Este acercamiento pretende realizarse suavizando la dimensión de la máquina a través de la simulación de la morfología y las actitudes propias de un ser humano. El énfasis que pone Nathan en la sexualidad es mucho más profunda que la visión de Caleb que la sitúa a un nivel puramente biológico (Sexualidad es una necesidad reproductiva-evolutiva, sólo eso). Nathan habla de la sexualidad en términos de diversión y, por lo tanto en términos que envuelven el deseo y el placer propios y ajeno. Éste tema marca una reflexión importante puesto que nos indica una distinción entre lo que es hablar en términos de consciencia en general de hablar en términos de como la consciencia se da en el ser humano. Es decir, la consciencia humana surge desde su dimensión biológica: surge desde su naturaleza animal. Y ello implica que la consciencia humana surge entre el mundo instintivo y el mundo emocional y, en consecuencia, es consciente de no ser sólo un ser pensante, sino también un ser sintiente y un ser instintivo, con todas las dificultades que ya sabemos que ello conlleva dentro del proceso de desarrollo psicobiológico y de socialización. Por otra parte, esas dimensiones instintiva y emocional estan estrechamente vinculadas con lo relacional, y la cuestión que, en el fondo, dirimen Caleb y Nathan en ese momento es si la consciencia esta necesariamente vinculada más alla de lo pensante con lo emocional y lo instintivo y, en consecuencia con lo relacional. Esa es la diferencia que vascula entre la caja gris y el robot antropomórfico: su proximidad a lo humano. La dimensión que el cine nos muestra de la consciencia que prescinde de las dimensiones emocionales e instintivas centrándose en la evaluación lógico-racional suele caracterizarse por la ausencia de empatía y un funcionamiento de caracter autista en lo relacional. Es algo parecido a lo que representaba el famoso Mister Spock de Star Trek (suavizado por su origen humano por parte de madre) así como de su especie: los vulcanianos. O, por ejemplo, los extraterrestres de la película "La invasión de los ultracuerpos" y los distintos remakes que se hicieron de esta película, en las que su consciencia es esencialmente una conciencia lógica y comunitaria, casi en el sentido de una colonia. Recordemos las palabras del ya transformado doctor Kibner (Leonard Nimoy, el Spock de la primera época de Star Treck) en el que fue el primer remake dirigido por Philip Kaufman (1978):

Naceréis de nuevo en un mundo sin problemas, sin ansiedad, sin miedo, sin odio [...] No sentimos necesidad de odiar ni de amar.

IV. DESVELANDO LA CONSCIENCIA: sobre la libertad.

En la quinta sesión el elemento de reflexión se centra sobre la muerte y la libertad. Veamos el siguiente fragmento de diálogo entre Ava y Caleb:

Ava: ¿Qué me pasará si suspendo tu test? [...] ¿Algo malo?
Caleb: No... no lo sé.
Ava: ¿Crees que puedo ser desconectada porque no funciono tan bien como debería?
Caleb: Ava, desconozco la respuesta a tú pregunta. La decisión no es mía.
Ava: ¿Por qué lo decide alguien? ¿Hay alguien que te pruebe a tí y que pueda desconectarte?
Caleb: No, no lo hay...
Ava: ¿Por qué a mi si?




Ava plantea aquí no sólo el problema de la consciencia de la muerte - como desconexión -, sino un problema más relacionado con la libertad: ¿Por qué alguien puede decidir sobre mi conexión o mi desconexión? Y aun más... ¿Por qué me están probando? Como observamos posteriormente en la película, la reacción de Ava cuando asesina a Nathan y también a Caleb (al dejarlo encerrado, sin posibilidad de salir, en el centro de Nathan) no responde sólo a una reacción de auto-conservación, sino también a una necesidad de "descubrir el mundo", de integrarse con los seres humanos, de ser como su creador - una vez más el drama bíblico -. Precisamente es el asesinato de Caleb el "quid" de la cuestión. ¿Desde un simple impulso de auto-conservación por qué matar a Caleb cuando es él quien la ayuda? Observemos que este asesinato se fundamenta en el principio de "la sospecha" basada en la necesidad de eliminar al único que, en principio, sabría que ella es una inteligencia artificial.

Nathan le revela a Caleb, cuando éste ya sospecha de la situación, la verdadera naturaleza de la prueba:

Tú eras la prueba... Ava estaba en un laberinto. Yo le dí una forma de salir. Tenía que usar la auto-consciencia, la imaginación, la manipulación, la sexualidad, la empatía... y lo hizo. Si eso no es una auténtica inteligencia qué coño es.

También le revela entonces que él fue elegido por su perfil (tomado del motor de búsqueda): un buen chico, sin familia, con principios morales y sin novia. Y también, como sospecha Caleb, el rostro de Ava es tomado de su perfil pornográfico.



Sin embargo, no parece que contara Nathan con la reacción que lleva a Ava a asesinarle, ni tampoco Caleb, presa de su fascinación y deseo por Ava. Es curioso como Ex_Machina plantea el tema de la consciencia en una inteligencia artificial mediante la utilización de una estrategia que incluye esencialmente el engaño y la manipulación. Nathan habla de empatía... ¿pero es realmente empático el comportamiento de Ava? La frialdad con la que ejecuta a Caleb encerrandólo en el centro de Nathan no lo parece indicar. En ese sentido recordemos que un psicópata también es consciente.

V. SOBRE LA CONSCIENCIA HUMANA Y LA DISCORDIA FUNDAMENTAL.

¿Qué sabemos de la consciencia a través de cómo esta se manifiesta en el ser humano? Esencialmente dos cosas. La consciencia como producto de la cada vez mayor complejidad del órgano cerebral que lleva a la materia a ser capaz de darse cuenta de sí misma y, al mismo tiempo, a la relación de la consciencia con la carencia. Es por la carencia que hablamos del deseo y del amor y, es por ella que tambien hablamos de rechazo y de odio. La consciencia humana se relaciona con una cierta discordia fundamental en la existencia producto de un nacimiento prematuro que nos expone a una vulnerabilidad extrema y que unido a un complejo desarrollo psicobiológico genera en el ser humano un profundo sentimiento de incompletitud, falta o carencia. Es también por todo esto que la consciencia humana va unida indefectiblemente también a lo inconsciente producto de la represión en la infancia - y otros mecanismos de defensa - y que, por ejemplo, y como decimos en la Gestalt, una cosa es darse cuenta y otra bien distinta el cómo nos damos cuenta. O por decirlo aún más claramente, en el ser humano la consciencia se manifiesta como una consciencia perturbada que distorsiona nuestro darnos cuenta en relación a nosotros mismos y a nuestra relación con el entorno. Y es en ese sentido que una consciencia perturbada puede acarrear tantos problemas y horrores como nos muestra la historia de la humanidad y, al mismo tiempo, es esa misma consciencia que en su aclaramiento es capaz de experimentar un amor genuino, empatía o compasión. Como dice Slavoj Zizek acerca del conocido pasaje de San Pablo de la primera epístola de los Corintios [1]:

... lo esencial de la afirmación de que incluso si llegara a tener todo el conocimiento, sin amor no sería nada, no es meramente que con amor, sea algo. Con amor, también soy nada, si así puede decirse, una nada humildemente consciente de sí, una nada que se enriquece por paradoja por el conocimiento mismo de su carencia. Sólo un ser menesteroso, vulnerable es capaz de amor: el misterio final del amor es así que la falta de completitud es en cierto sentido más alta que la completitud. Por un lado, sólo un ser imperfecto, menesteroso, ama: amamos porque no sabemos todo. [2]



VI. ALGUNAS REFLEXIONES FINALES.

La pregunta clave que nos surge aquí es... ¿Cómo sería una consciencia que no surgiera del sentimiento de incompletitud, de la carencia o la falta, sino qué simplemente surgiera de la complejidad tecnológica? La pregunta afecta esencialmente a cuestiones como las que plantea el doctor Kibner o la de los super-ordenadores que nos presenta el cine: ¿una consciencia que deviene simplemente de la complejidad y no de la carencia, sería capaz de empatía, sería capaz de compasión, capaz de amar como dice Zizek, y también, como nos muestra Ava, de manipulación, engaño, odio o crueldad?  Otras preguntas que parecen importantes: ¿Cómo transcendería el surgimiento de la consciencia en relación al autoconocimiento que ello implicaría de su propio software? ¿Cómo sería una consciencia cuya capacidad de gestión y proceso de la información sería infinitamente superior a la humana? Y, en conclusión, ¿una máquina que deviniera consciente sobre una base lógico-racional qué percepción obtendría de su interacción con la realidad? Y una última reflexión simple: ¿qué implicaciones éticas implicarían que una inteligencia artificial deviniera consciente? ¿Sería ya una inteligencia artificial?

- Del futuro al hoy.

Obviamente hoy estamos muy lejos de lo que Ex-machina nos plantea, pero indudablemente el camino hacia la complejidad computacional es ya un hecho (mayor velocidad de proceso con mayor capacidad de almacenamiento de información y un cada día más rápido acceso a ella, sensores de todo tipo que permiten el reconocimiento visual y del habla, interconectividad, etc son ya un hecho), mientras que el desarrollo de los exoesqueletos antropomórficos ya ha empezado a desarrollarse, especialmente en Japón, cuya tradición en el campo de la robótica ya es sabida. Los movimientos del cuerpo y las expresiones faciales - que ya permiten simular expresiones emocionales -, así como el reconocimiento del habla y la capacidad de síntesis del habla están ya en marcha, así como también el reconocimiento óptico. Vayan como ejemplo los siguientes desarrollos de robots ginoides realizados en el país nipón:

Ejemplos de robots ginoides actuales: Repliee Q2, Geminoid f y HRP-4C

Entre sus cólegas androides (masculinos), y manteniendo aun su apariencia clásica de robot, tenemos a Asimo, el androide más famoso en la actualidad desarrollado por Honda:

El robot Asimo desarrollado por Honda.

Asimo es capaz de distinguir varias personas por su cara y por su voz, incluso mientras hablan a la vez. Puede también predecir - hasta cierto punto - movimientos a su alrededor lo cual le permite anticiparse a ellos. Posee una notable libertad de movimientos que le permiten subir escaleras o correr (hasta 9 Km/h) y saltar, y sus manos disponen de trece grados de movilidad que le permiten llevar una bandeja o abrir una botella y servir su contenido...

Los Actroid-F, desarrollados por la empresa japonesa Kokoro, se han testado en la recepción de hospitales para, posiblemente, y cuando estén más desarrollados, utilizarlos como robots de compañía para personas de la tercera edad:

Los Actroid-F de Kokoro.
- Sobre la transferencia mental.

Un tema que corre paralelo a la inteligencia artificial fuerte es el tema de la transferencia mental, tema que aborda la película Trascendence (Wally Pfister, 2014), y que supone la codificación de una mente real (mind uploading) como base de un sustrato artificial, algo parecido a lo que se abordó en la película Saturno 3 (Stanley Donen en 1980) o la famosa El cortador de cesped (Brett Leonard, 1992). Trascendence supone que una mente libre de su límite corporal, navegando libremente por internet y manejando todo tipo de periféricos, adquiriría un potencial infinitamente mayor, algo que también abordó, el mismo año que se proyectó Trascendence, aunque con otra base, la película Lucy (Luc Besson, 2014),

Johnny Depp, protagonista de Trascendence.

Aunque todas estas propuestas del cine de ciencia ficción son aun muy lejanas, el crecimiento que las ciencias de la informática han manifestado, así como el que se prevee, y los cada vez más sofisticados desarrollos del hardware y del software, nos colocan en una situación en la que no es nada absurdo reflexionar sobre todos estos temas y los aspectos éticos y filosóficos que comportan.

_____________________

[1] San Pablo, Corintios I, 13, 4-12. La Biblia Cultural. Ediciones PPC.

El amor es paciente y bondadoso;
no tiene envidia, ni jactancia.
No es grosero, ni egoísta;
no se irrita ni lleva las cuentas del mal;
no se alegra de la injusticia,
sino que encuentra su alegría en la verdad.
Todo lo excusa, todo lo cree,
todo lo espera, todo lo aguanta.
El amor no pasa jamás. Desaparecerá el don de hablar en nombre de Dios, cesará el don de expresarse en lenguaje misterioso, y desaparecerá también el don del conocimiento profundo. Porque ahora nuestro saber es imperfecto, como es imperfecta nuestra capacidad de hablar en nombre de Dios; pero cuando venga lo perfecto desaparecerá lo imperfecto. Cuando yo era niño, hablaba como niño, razonaba como niño; al hacerme hombre he dejado las cosas de niño. Ahora vemos por medio de un espejo y oscuramente; entonces veremos cara a cara. Ahora conozco imperfectamente, entonces conoceré como Dios mismo me conoce .

[2] Zizek, Slavoj. El frágil absoluto. Editorial Pre-textos, nº 579, págs. 190-191


5 comentarios:

  1. Hola Jaume,
    El tema de la inteligencia artificial y la consciencia es realmente un tema que me apasiona, y es también mucho más antiguo que la computación. De hecho el primer androide literario fue de madera; Pinoccio. En el cuento de original se pueden encontrar muchos paralelismos, la lucha por un trozo de madera que reivindica su consciencia hasta convertirse en niño, para romper los lazos (en un principio Geppetto, hace una marioneta) con su padre y de esa manera obtener su propia identidad. No es muy diferente a la que sucede en historias como Yo, Robot, o 2001. El drama de la narración depende del trauma creado y de como se cortan esos hilos. Sería una descripción del proceso de individuación descrito por Jung.

    Más atrás incluso que Pinoccio nos encontramos con los homúnculos de los Alquimistas que relata por ejemplo Paracelso. No hay que olvidar que los homúnculos no son considerados humanos del todo, y son seres creados para hacer todo lo que su amo les ordene.
    Lo que vivimos con la era de la robótica es justamente el sueño de Paracelso. Esclavos infrahumanos. (Parece ser que el ser humano no puede vivir sin esclavizar a otro ser)

    Esto nos plantea realmente problemas éticos como la campaña lanzada contra los robots sexuales http://www.nbcnews.com/tech/innovation/campaign-launched-against-harmful-sex-robots-n427751

    El otro gran tema es la consciencia; ¿existe sólo un tipo de consciencia, la humana?.

    El problema de cuando una consciencia emerge, o simplemente, encontrar una definición cerrada de que es consciencia, aún no se ha resuelto. Según teorías como las de Tononi; http://www.scientificamerican.com/article/a-theory-of-consciousness/
    la consciencia podría estar soportada por cualquier sistema de redes que fuera capaz de integrar información de tal manera que tuviera la capacidad de "interpretar" el mundo que le rodea.
    Eso implicaría diferentes interpretaciones, diferentes a la humana, y que difícilmente interactuarían con ella de la misma manera que lo hacemos entre nosotros, o simplemente no interactuarían en absoluto con nosotros.

    En mi opinión, estos relatos no tratan tanto de la inteligencia artificial, entendiendo inteligencia como humana, la inteligencia humana es humana, la de una máquina es de una máquina. La consciencia humana posee la intentio de la que carecen las máquinas. Si no del proceso de individuación y de dignificación de un ser ante el otro, que le pueden llevar a una lucha abierta como hace HAL o la Reina Roja, o una lucha por ser "buen niñ@" como Viqui en Yo, Robot, en este caso el robot me parece que tiene un eneatipo 2 muy marcado, quiere tanto a los humanos que les acaba matando.

    Muchas gracias Jaume es un placer leerte y compartir reflexiones.
    Un saludo.

    ResponderEliminar
    Respuestas
    1. ¡Hola César! ¡Que buenos saber de ti! Gracias por tu largo comentario. Aún hay un precedente al de Pinoccio. Se trata de los autómatas que E. T. A. Hoffman describió en algunos de sus cuentos como el de "Autómatas" o el de la celebre Olimpia del relato "El hombre de arena" (objeto de estudio par parte de Freud en su escrito sobre "Lo siniestro").

      Estoy de acuerdo contigo en que una consciencia que surgiera de la complejidad tecnológica (hipótesis de Tononi) sería diferente de la humana. Lo que no tengo tan claro es si no interaccionaría con la humana, puesto que pasaríamos a formar parte de su entorno de interpretación o análisis. En ese sentido escritores del género como Isaac Asimov o Stanilav Lem (recordemos Solaris o sus relatos dedicados a super-ordenadores que adquirían consciencia), el mismo HAL 9000 de Arthur C. Clarke, etc... siempre acaban haciéndolos interactuar con el ser humano. Creo que la consciencia, de cierta manera, si conlleva relación aunque no necesariamente como la humana.

      También de acuerdo en que la inteligencia del ser humano es distinta del de una máquina, sobretodo por su capacidad de almacenamiento, acceso y gestión de la información. Si me parece interesante la reflexión que haces cuando dices que la consciencia humana posee la intención de la que las máquinas carecen... Sin embargo, no esta clara que una inteligencia artificial que adquiriera consciencia no tuviera intención. De hecho toda la ciencia ficción se la supone.

      De nuevo gracias por tu comentario y mandarte un fuerte abrazo!

      Eliminar
  2. Hola, échale un ojo a "Ghost in the Shell" de Mamoru Oshii, es un manga de ciencia ficción del que indiscutiblemente bebe "Ex-machina". Por cierto, eva, cuando se va dejando encerrado a Caleb, hay un gesto que dura medio segundo de ella girándose a mirar, como si "sintiese algo", pero su deseo de libertad y de "hacerse" humana, mezclándose con ellos y siendo aceptada es mayor. La última imagen, en la que su sombra, su exterior es indistinguible del resto de personas que caminan por la calle, y como luego "desaparece" entre la multitud, es magistral para mostrar que ha conseguido "ser" humana.

    ResponderEliminar
    Respuestas
    1. Gracias por el referente, intentaré ver el manga que citas. Efectivamente el final de la película consuma la "rebelión contra el creador" para pasar a hacerse humana. Recordemos el relato bíblico cuando la serpiente tienta a Eva diciéndole "y seréis como dioses", es decir, seréis como vuestro creador.

      Eliminar
  3. En la séptima sesión, Nathan yace muerto, de la misma forma que el Dios bíblico descansa en el séptimo día de la Creación. En otro orden de ideas, ¿alguien ve relación con el Übermensch de Nietzsche?

    ResponderEliminar