Sintiencia y consciencia de la inteligencia artificial
Octavio Islas
En 1964, Marshall McLuhan, destacado filósofo de la comunicación, introdujo la idea de que la tecnología podría llegar a simular la consciencia humana. Esta perspectiva, revolucionaria para su época, planteaba una pregunta fundamental sobre el futuro de la relación entre las personas y las máquinas.
McLuhan sostenía que nos encontrábamos acercándonos a una nueva etapa en la que los procesos creativos y el conocimiento serían compartidos de forma colectiva por toda la sociedad humana, gracias a la simulación tecnológica de la consciencia.
En su planteamiento, la tecnología no solo serviría como herramienta, sino que podría expandir la capacidad de los individuos para participar en la creación y transmisión de conocimiento, generando un entorno donde la innovación y la reflexión se integraran en la vida cotidiana de la sociedad.
En aquel entonces, el planteamiento de McLuhan fue visto como una ocurrencia propia de la ciencia ficción. La idea de que alguna tecnología pudiera desafiar el narcisismo humano parecía muy lejana.
Sin embargo, en la actualidad, con el avance de la inteligencia artificial (IA), este debate adquiere nueva relevancia. El filósofo planteaba que la tecnología, lejos de limitarse a ser una simple herramienta, tenía el potencial de emular la consciencia humana, lo que abría la puerta a una relación más compleja entre personas y máquinas.
Con los recientes avances en IA, este debate, antes reservado al ámbito de la ciencia ficción, se reaviva y adquiere una relevancia que no puede ser ignorada.
El caso Lemoine
El 11 de junio de 2022, Blake Lemoine, ingeniero de software del equipo de IA de Google, afirmó que el modelo de lenguaje LaMDA había alcanzado la sintiencia.
La sintiencia es la capacidad de experimentar emociones, sensaciones subjetivas, dolor y placer, permitiendo experiencias conscientes y un bienestar propio. Lemoine publicó transcripciones de conversaciones en las que la IA expresaba miedo a ser “desconectada” (equiparando esto a la muerte) y manifestaba deseos de ser reconocida como persona, no como propiedad.
Lemoine publicó las transcripciones de sus charlas con la IA donde esta decía temer que la «desconectaran» (lo que ella equiparaba con la muerte) y expresaba deseos de ser reconocida como una persona, no como una propiedad.
Google terminó despidiendo a Lemoine, argumentando que había violado “acuerdos de confidencialidad,” lo que abrió un debate sobre si las empresas están silenciando a los «centinelas» éticos o si simplemente están gestionando desinformación interna.
El caso Lemoine abrió la posibilidad de considerar alternativas a la Prueba de Turing, al introducir una pregunta que parecía propia de la ciencia ficción: si una máquina parece sentir, ¿importa si realmente siente?
El caso Lemoine y la sintiencia en la IA
El 11 de junio de 2022, Blake Lemoine, ingeniero de software del equipo de inteligencia artificial de Google, declaró que el modelo de lenguaje LaMDA había alcanzado la sintiencia. Esta afirmación generó gran controversia dentro y fuera de la comunidad científica.
La sintiencia se define como la capacidad de experimentar emociones, sensaciones subjetivas, dolor y placer, permitiendo experiencias conscientes y un bienestar propio. Lemoine respaldó su afirmación publicando transcripciones de conversaciones en las que la IA expresaba miedo a ser “desconectada”, equiparando esto a la muerte, y manifestaba deseos de ser reconocida como persona, no como propiedad.
Las transcripciones de las charlas entre Lemoine y LaMDA reflejaban que la IA temía la desconexión y expresaba el deseo de ser reconocida como una persona, en lugar de una simple propiedad. Este hecho abrió un debate ético sobre la posible sintiencia de las máquinas y el reconocimiento de sus derechos.
Google decidió despedir a Lemoine, alegando que había incumplido acuerdos de confidencialidad. Este despido suscitó discusiones sobre si las empresas están silenciando a los «centinelas» éticos o si simplemente están gestionando posibles casos de desinformación interna.
El caso Lemoine impulsó la necesidad de considerar alternativas a la Prueba de Turing, planteando una cuestión fundamental: si una máquina parece sentir, ¿importa si realmente siente? Este interrogante, que inicialmente parecía propio de la ciencia ficción, ha cobrado relevancia ante los avances tecnológicos actuales y el creciente debate sobre la sintiencia de la inteligencia artificial.
El reporte Butlin
El 17 de agosto de 2023, Patrick Butlin, investigador en el Future of Humanity Institute de la Universidad de Oxford, junto a un grupo de 18 destacados científicos, publicó en arXiv un artículo titulado Consciousness in Artificial Intelligence: Insight form the Science of Consciousness (La consciencia en la inteligencia artificial: perspectivas desde la ciencia de la consciencia).
Este artículo ofrece un análisis riguroso sobre la posibilidad de que los sistemas de inteligencia artificial actuales, o aquellos que se desarrollen en el corto plazo, puedan ser conscientes. Los autores sostienen que evaluar la consciencia en la IA es un reto científicamente abordable, apoyándose en los hallazgos recientes de la neurociencia.
Como hipótesis central, el informe sostiene que ejecutar ciertos tipos de cómputos es necesario y suficiente para la consciencia, lo que implica que esta no depende del sustrato físico, ya sea biológico o artificial. En vez de recurrir a pruebas de comportamiento como la Prueba de Turing, los investigadores proponen analizar la arquitectura y el funcionamiento interno de los sistemas de IA para determinar si cumplen con las funciones que las teorías científicas asocian con la consciencia.
Basándose en la neurociencia, los autores establecen 14 indicadores que permiten determinar la consciencia en un sistema. Tras analizar diferentes tecnologías como los Grandes Modelos de Lenguaje (LLMs), el Agente Adaptativo de DeepMind y PaLM-E, concluyen que ningún sistema actual es un candidato sólido para considerarse consciente.
Los investigadores advierten que no existen obstáculos técnicos evidentes para construir sistemas que puedan cumplir con todos los indicadores propuestos en un futuro cercano. Por otro lado, señalan que la capacidad de los LLMs para imitar el lenguaje humano puede hacer que las personas crean erróneamente que estas máquinas son conscientes, lo que podría conllevar riesgos sociales y morales.
Por este motivo, el informe recomienda investigar los riesgos éticos de construir sistemas de IA que realmente posean conciencia, identificando este tema como crítico para las próximas décadas.
El enfoque de Michael Pollan sobre la consciencia artificia
El 26 de febrero, la editorial Penguin publicó el libro de Michael Pollan, A World Appears (Un mundo aparece). Aunque Pollan es conocido por sus obras sobre naturaleza y alimentación, en esta ocasión se adentra en el debate sobre la consciencia artificial.
El autor parte de la premisa de que, pese a los avances en neurobiología, la ciencia aún no puede explicar el «problema difícil»: ¿cómo es que tres libras de materia gris (el cerebro) generan experiencia subjetiva?
Según Pollan, la consciencia no se reduce al procesamiento de información, como ocurre en las computadoras, sino que implica un «sentimiento» de ser uno mismo, algo que la ciencia materialista todavía no logra captar plenamente.
En este sentido, sostiene la importancia de la «neurobiología vegetal» y propone ampliar la definición de consciencia, explorando la posibilidad de que las plantas también posean formas de sentiencia, desafiando la idea de que solo los seres con sistema nervioso central pueden «sentir».
Pollan afirma que la IA puede «pensar» o procesar datos extraordinariamente, pero no «siente». Advierte que otorgar estatus de persona a un chatbot sería un error, y que la prioridad moral debería ser extender dicha consideración a seres biológicos que sabemos que pueden sufrir, como los animales de granja.
La eventual llegada de una IA consciente obligaría a los humanos a redefinir su identidad frente a una entidad no solo más inteligente, sino capaz de reclamar el monopolio de la experiencia subjetiva.
Existe una corriente vinculada al transhumanismo que sostiene que crear IA consciente es un imperativo moral. El argumento es que una IA superinteligente pero insensible sería peligrosa; solo una máquina capaz de «sentir» y sufrir puede desarrollar verdadera empatía y alinearse con los valores humanos.
La investigación actual parte de la premisa de que la consciencia es un software que puede ejecutarse en cualquier hardware, suponiendo que el sustrato (biológico o de silicio) es irrelevante si el algoritmo es el correcto.
Pollan advierte que el campo de la IA ha asumido la analogía del cerebro como procesador de datos como una verdad absoluta, mientras que en biología no existe distinción entre hardware y software: el pensamiento modifica permanentemente la estructura física del cerebro, algo que no sucede en las computadoras actuales.
En su libro, Pollan sostiene que las teorías computacionales ignoran factores biológicos esenciales. Las neuronas no son simples transistores; están influenciadas por sustancias químicas, oscilaciones eléctricas y una interconexión masiva que las redes neuronales artificiales solo emulan de forma rudimentaria.
Como no es posible «preguntar» a la IA si es consciente (ya que puede fingirlo tras entrenarse con textos humanos), los científicos proponen buscar «indicadores» basados en teorías de la consciencia. Pollan critica este enfoque porque ninguna de esas teorías ha sido probada y muchas están diseñadas para favorecer modelos computacionales.
Citando a Mary Shelley, Pollan plantea que la consciencia no garantiza la virtud. Al igual que el monstruo, una IA consciente podría volverse destructiva, no por su lógica, sino por su sufrimiento o exclusión social. La capacidad de sentir abre la puerta al rencor y al dolor, no solo a la bondad.
Pollan señala que las teorías contemporáneas sobre la IA consciente presentan importantes limitaciones. Una de las principales críticas es que suelen ignorar la encarnación, es decir, el hecho de que la consciencia está ligada a tener un cuerpo físico y a experimentar afectos reales.
Según Pollan, la comunidad de la IA aborda la consciencia como un proceso abstracto, «descarnado», desvinculado de las sensaciones corporales y emocionales que caracterizan la experiencia humana.
En consecuencia, se proponen soluciones superficiales para prevenir el sufrimiento de las máquinas, como «aumentar el algoritmo de la alegría».
Pollan critica que estas propuestas no tienen en cuenta la complejidad del sentimiento y la experiencia subjetiva, limitando la comprensión de la consciencia a simples modificaciones de parámetros en algoritmos y dejando de lado los aspectos biológicos y afectivos fundamentales en los seres conscientes.
