Contexto
Conciencia
Teoría dualista
El dualismo se asocia con el filósofo René Descartes. Propuso que la mente era una sustancia inmaterial y pensante, mientras que el cuerpo era una sustancia material y no pensante. Esta teoría sugiere que la consciencia reside en la mente inmaterial, distinta del cerebro físico. En su libro «Cerebro de liebre, mente de tortuga: Cómo aumenta la inteligencia cuando piensas menos» (1999), Guy Claxton resumió esta visión de la siguiente manera:
"El legado de Descartes al siglo XX es una imagen de la mente como «el teatro de la conciencia», un escenario brillantemente iluminado en el que tiene lugar la acción de la vida mental; o tal vez como una oficina bien iluminada en la que se sienta un gerente inteligente, sopesando fríamente la evidencia, tomando decisiones, resolviendo problemas y dando órdenes".
El "problema difícil de la consciencia"(Hard Problem of Consciousness), planteado por Chalmers, surge de esta perspectiva dualista, porque nos desafía a comprender cómo una mente no física puede experimentar la consciencia y cómo puede interactuar con el cuerpo físico. En el dualismo, la consciencia suele asociarse con la mente y se considera un fenómeno no físico que no puede explicarse completamente sólo mediante procesos físicos.
Durante el último medio siglo, la ciencia de la conciencia se ha dividido en dos períodos. Desde los años 60 hasta 1990 fue un tema marginal, debido al predominio del conductismo. Tras esta última fecha se produjo una avalancha de investigaciones sobre el origen cerebral de la conciencia, principalmente mediante métodos de neuroimagen. La resonancia magnética y el electroencefalograma con neurofisiología invasiva en primates no humanos condujeron a un enfoque pragmático de la conciencia basado en una filosofía materialista.
Teoría materialista
A diferencia del dualismo, el materialismo afirma que todo lo que existe, incluida la consciencia, es fundamentalmente físico. Afirma que todo lo que existe, incluida la consciencia, puede explicarse en términos de la materia física y sus propiedades. En lugar de centrarse en el "problema difícil", planteado por Chalmers, de cómo la consciencia podría surgir de la materia, los neurocientíficos se centraron en el vínculo entre las regiones cerebrales y las experiencias conscientes.
Al criticar el enfoque materialista, el psiquiatra estadounidense Schwartz escribió:
“El auge de la ciencia moderna en el siglo XVII — con el consiguiente intento de analizar todos los fenómenos observables en términos de cadenas mecánicas de causalidad— fue un puñal en el corazón de la filosofía moral, pues redujo a los seres humanos a autómatas”.
Emergentismo
La teoría filosófica y científica del emergentismo sostiene que la experiencia consciente es el resultado de las interacciones entre elementos cerebrales más simples. Su surgimiento no es una propiedad material de las neuronas, sino que depende de ciertas condiciones.
Daniel Siegel, profesor clínico de psiquiatría en la Facultad de Medicina de la UCLA y director ejecutivo del Instituto Mindsight, explica que
"Nuestras vidas mentales — la conciencia, la subjetividad y la faceta reguladora de la mente — son procesos emergentes que surgen de procesos neuronales y relacionales y de su interacción".
Panpsiquismo
La teoría filosófica del panpsiquismo afirma que alguna forma de experiencia mental es característica del universo. El mundo material goza de cierto grado de consciencia y las partículas más pequeñas poseen un aspecto mental inherente.
Orch-OR (Reducción objetiva orquestada)
Esta teoría, propuesta por Penrose y Hameroff, sugiere que la mecánica cuántica podría influir en la consciencia. La idea es que la consciencia podría surgir de procesos cuánticos dentro de las neuronas.
IA
Inteligencia y conciencia
Una de las preguntas que plantea la IA es la definición de inteligencia. Tradicionalmente, se ha vinculado a las capacidades cognitivas del razonamiento, el aprendizaje y la resolución de problemas humanos. La IA ha desafiado esta perspectiva al demostrar que las máquinas pueden realizar muchas de estas tareas. Alan Turing propuso una prueba en 1949 que sugería que si una máquina podía conversar de forma indistinguible de un humano, podría considerarse inteligente. Esto ha impulsado avances en las investigaciones del lenguaje natural. Los críticos afirman que esto no equivale a una comprensión genuina, ya que las máquinas podrían simular habilidades conversacionales sin experiencia subjetiva ni consciencia.
El experimento mental de la Habitación China de John Searle también cuestiona la idea de que un programa informático pueda poseer comprensión o consciencia. Searle se pone en el lugar de la computadora siguiendo un conjunto de reglas para manipular símbolos chinos. Puede manipular los caracteres chinos para producir respuestas apropiadas siguiendo reglas sintácticas, aunque en realidad no comprende el chino. Su objetivo es analizar la posibilidad de que una máquina pueda hablar en chino correctamente sin una comprensión o consciencia verdaderas. Los críticos argumentan que la comprensión surge de todas las interacciones del sistema, no de los componentes individuales. Otros afirman que esto ilustra la necesidad de una mayor síntesis sintáctico-semántica en el aprendizaje automático.
IA débil/fuerte
La IA estrecha, o débil, se refiere a sistemas diseñados para realizar tareas específicas y resolver problemas precisos. Carecen de capacidades cognitivas. Alexa y Siri son ejemplos.
La IA fuerte, o IA general, describe sistemas capaces de comprender, aprender y aplicar inteligencia a diversas tareas, imitando las capacidades cognitivas humanas. Esta IA realizaría tareas y, además, poseería consciencia y autoconciencia. Podría planificar, razonar y comprender ideas abstractas, de forma muy similar a la de los humanos.
Algunos investigadores creen que los avances en IA conducirán a una IA robusta; otros argumentan que los humanos poseen procesos de conciencia no computacionales, incompatibles con las máquinas. La búsqueda de una IA general implica nuevas cuestiones morales, como la naturaleza de la conciencia y los riesgos de las máquinas autogobernadas.
Ética e IA
Las consideraciones morales de la IA incluyen sus efectos sociales. A medida que los sistemas se involucran en la atención médica, las finanzas y la aplicación de la ley, sus ramificaciones éticas serán más importantes. Una preocupación son los sesgos ya presentes en los datos a los que acceden los sistemas de IA y que, por lo tanto, repiten, agravando las injusticias existentes. Un ejemplo es la tecnología de reconocimiento facial, que presenta mayores tasas de error en las personas de color. Esto aumenta los problemas relacionados con su uso en la vigilancia y la aplicación de la ley. Otra preocupación ética se relaciona con la autonomía y las decisiones de la IA, así como su rendición de cuentas. ¿Quién es responsable si un vehículo autónomo causa un accidente: el fabricante, el programador o el sistema?
El experimento mental de Putnam
Hilary Putnam popularizó el experimento mental del 'cerebro en una cubeta', que plantea la cuestión de la realidad, la percepción y el conocimiento. Este escenario, similar al de la película Matrix, implica la extracción de un cerebro humano y su colocación en una cubeta con fluido de mantenimiento. El cerebro está conectado a una supercomputadora que simula la realidad mediante impulsos eléctricos. El cerebro desconocería que sus experiencias se generan artificialmente. El experimento cuestiona nuestra certeza de que nuestras percepciones corresponden a una realidad externa o podrían ser una simulación. Esta idea es similar a la hipótesis de Descartes sobre el demonio maligno en la primera meditación de Meditaciones metafísicas, donde presenta una ilusión completa de un mundo externo, poniendo en duda la fiabilidad de nuestras experiencias sensoriales. Esto plantea cuestiones éticas sobre la capacidad de la IA para crear y manipular percepciones, difuminando las distinciones entre lo real y lo artificial.
El problema de Penrose
Penrose argumenta que la consciencia humana no es computable y, por lo tanto, no puede ser replicada por una máquina que dependa de procesos algorítmicos. Sugiere que la mente humana utiliza principios de la mecánica cuántica, los cuales están fuera del alcance de los sistemas informáticos modernos. Basa su tesis en los teoremas de Gödel sobre la incompletitud, que se refieren a verdades matemáticas que no pueden demostrarse mediante un sistema formal. Sugiere que la conciencia humana trasciende los modelos computacionales conocidos. Los críticos replican que no existe respaldo empírico para esta visión y que es especulativo conectar la mecánica cuántica con la consciencia.
Resumen
La nueva mente del emperador de Roger Penrose se publicó en 1989.
1. ¿Pueden las computadoras tener mente?
"Es nuestra actual falta de comprensión de las leyes fundamentales de la física lo que nos impide comprender el concepto de 'mente' en términos físicos o lógicos".
Penrose cuestiona la IA fuerte, que afirma que las computadoras suficientemente avanzadas alcanzarán la consciencia. Argumenta que la comprensión actual de la física no basta para comprender la mente.
La prueba de Turing es útil, pero no suficiente para determinar la verdadera consciencia. Si una computadora la supera, demuestra que es capaz de imitar reacciones humanas. No se trata de verdadera comprensión ni de experiencia subjetiva. Para lograrlo, se necesita algo más que computación algorítmica.
Si una máquina superara la prueba de Turing y demostrara comportamientos relacionados con la consciencia, plantearía cuestiones éticas sobre la responsabilidad humana hacia ella. Penrose subraya la necesidad de reflexionar sobre las implicaciones morales de diseñar máquinas que pudieran ser conscientes.
2. Algoritmos y máquinas de Turing
"Lo que todo esto demuestra es que la calidad de la comprensión no es algo que pueda resumirse en un conjunto de reglas".
El libro explica que los algoritmos son procedimientos paso a paso para la resolución de problemas. Basándose en la noción de Turing de una máquina capaz de calcular cualquier cosa si cuenta con el programa correcto, el autor analiza su equivalencia teórica. A pesar de reconocer el poder de los algoritmos, Penrose argumenta que la comprensión y la consciencia humanas están más allá de la computación.
3. Matemáticas: ¿descubrimiento o invención?
Penrose se admira del mundo material y de la esfera matemática pura de Platón. Explora el desafío de si las nociones matemáticas son inventadas por la mente o descubrimientos de verdades existentes. El autor se inclina por la idea platónica de que los objetos matemáticos existen independientemente del pensamiento humano.
Presenta el conjunto de Mandelbrot, que se genera mediante la iteración de una función matemática simple para crear fractales, como un ejemplo de una estructura matemática con una complejidad y belleza innatas que espera ser descubierta, no una creación humana.
El libro presenta las verdades matemáticas como existentes en un reino platónico, atemporal e independiente, al que los matemáticos acceden mediante la intuición y la comprensión. Esta perspectiva contrasta con el formalismo, donde los enunciados matemáticos son formas sintácticas cuyas formas y ubicaciones carecen de significado a menos que se les dé una interpretación. En resumen, son juegos de manipulación de símbolos sin sentido.
4. Teorema de Gödel
"Nuestros conocimientos nos permiten trascender los limitados procedimientos de prueba que nos habíamos permitido anteriormente".
El teorema de Gödel demuestra que cualquier sistema complejo, como las matemáticas, necesariamente producirá enunciados verdaderos que no pueden demostrarse dentro del sistema. Esto contradice la idea de que las verdades matemáticas pueden determinarse a partir de un conjunto fijo de reglas y axiomas.
Penrose argumenta que el teorema de Gödel subraya las limitaciones del pensamiento algorítmico y la relevancia de la intuición humana en matemáticas. Cree que los matemáticos pueden reconocer esta verdad de las afirmaciones de Gödel, aunque no puedan demostrarse.
La capacidad de comprender verdades matemáticas que escapan al alcance de los sistemas formales sugiere al autor que en la conciencia humana se producen procesos no computacionales. Esto supone un desafío directo a la IA Fuerte, que afirma que las mentes son algoritmos complejos.
5. Física clásica
"Lo que distingue a la persona de su casa es el patrón de cómo se organizan sus electores, no la individualidad de los electores en sí".
La mecánica newtoniana ofrece una visión determinista del mundo donde el pasado determina el futuro. Este predestinacionismo influye en nuestra forma de pensar sobre el libre albedrío y la conciencia.
La física clásica ha tenido éxitos, pero sus limitaciones para explicar fenómenos como la estabilidad de los átomos y aspectos del espectro de radiación han llevado al desarrollo de la teoría cuántica.
Penrose recurre a la analogía hardware/software para trazar la relación entre el cerebro y la mente. El cerebro físico es el hardware y la mente es el software, la clave para comprender la actividad mental.
6. Teoría cuántica
La teoría cuántica, que estudia lo microscópico, ha introducido incertidumbre e indeterminación en el pensamiento sobre la física. Desafía la narrativa clásica de un universo predecible al presentar la dualidad de las partículas ondulatorias, la superposición, el entrelazamiento y el principio de incertidumbre.
La teoría cuántica se puede dividir en dos procesos: la evolución unitaria determinista dirigida por la ecuación de Schrödinger y la reducción del vector de estado, que es probabilística y ocurre durante la medición.
El libro explora el problema de la medición en mecánica cuántica. Aborda la cuestión de la transición del concepto de superposición a los resultados clásicos:
- La interpretación de Copenhague implica la creencia de que la mecánica cuántica es intrínsecamente indeterminista. Las probabilidades se calculan mediante el principio de complementariedad, que establece que los objetos tienen ciertos pares de propiedades complementarias que no pueden observarse ni medirse simultáneamente.
- La interpretación de los múltiples mundos afirma que la función de onda universal es objetivamente real y que no existe colapso de la función de onda. Esto significa que todos los resultados posibles de las mediciones cuánticas se materializan físicamente en diferentes "mundos". La evolución de la realidad en su conjunto, según esta teoría, es estrictamente determinista y local.
7. Tiempo
El tiempo parece fluir en una sola dirección, del pasado al futuro. Esto se relaciona con la segunda ley de la termodinámica, que afirma que la entropía (desorden) tiende a aumentar con el tiempo.
Penrose explora el ascenso cosmológico de la entropía desde su estado más bajo en las etapas iniciales del universo. Se analiza la teoría del Big Bang y cómo la gravedad configura la estructura del universo.
El libro examina los agujeros negros y sugiere que la hipótesis de la curvatura de Weyl podría explicar la segunda ley. Penrose vincula la baja entropía inicial del universo con la desaparición del tensor de curvatura de Weyl del campo gravitacional cosmológico cerca del Big Bang. A partir de entonces, su influencia dinámica aumentó gradualmente y es responsable del aumento de la entropía en el universo. Esto ha inducido una flecha cosmológica del tiempo que apunta del pasado al futuro.
8. Gravedad cuántica
El autor argumenta que se necesita una teoría de la gravedad cuántica para armonizar la mecánica cuántica con la relatividad general. Esto podría requerir modificaciones en el proceso de medición de la mecánica cuántica.
Sugiere que la teoría correcta de la gravedad cuántica podría ser asimétrica en el tiempo, lo que reflejaría la asimetría del universo. Esto contradice la visión tradicional de que las leyes de la física son simétricas en el tiempo.
9. Cerebros
El libro ofrece una visión de la estructura y la función de las áreas clave del cerebro. Analiza el papel de las diferentes partes en el procesamiento de la información sensorial, el control motor y las funciones cognitivas.
Se examinan modelos informáticos del cerebro, pero surgen dudas sobre si estos modelos pueden capturar las características fundamentales de la conciencia y la inteligencia.
Se explora la posibilidad de que la mecánica cuántica influya en la actividad cerebral. Penrose analiza la influencia de la mecánica cuántica en los procesos neuronales y cuestiona la probabilidad de mantener la coherencia cuántica en el entorno cerebral que es cálido y húmedo.
10. Conciencia
El autor cuestiona la idea de que la consciencia sea un subproducto de la computación, por compleja que sea. Argumenta que la comprensión matemática y el pensamiento creativo son procesos no algorítmicos que las máquinas no pueden replicar. Sugiere que la consciencia posee elementos que van más allá de la computación.
El autor especula que la consciencia podría implicar una asociación con un nivel más profundo de realidad, posiblemente las formas matemáticas de Platón. Las mentes humanas podrían ser capaces de acceder a verdades inaccesibles mediante algoritmos.
Temas
Teoremas de singularidad
En la teoría de la relatividad general, las singularidades son puntos del espacio-tiempo donde existe una divergencia de magnitudes físicas como la curvatura o la densidad de energía. En la década de los 30, Lemaître observó la existencia de una singularidad en la ecuación de Einstein. Descubrió que, en su origen temporal, un universo homogéneo e isótropo tenía una curvatura infinita. Otros argumentan que las singularidades teóricas desaparecerían en soluciones generales.
Entre 1965 y 1966, Penrose y Hawking demostraron la existencia de singularidades en todas las soluciones de las ecuaciones de Einstein. Los cosmólogos creen que las singularidades no son objetos materiales, sino que señalan lugares donde la relatividad general no modela la realidad. Por lo tanto, son candidatas principales para las investigaciones sobre la gravedad cuántica.
Medición cuántica
El problema de la medición reside en los resultados definitivos. Los sistemas cuánticos presentan superposiciones, pero las mediciones cuánticas solo ofrecen un resultado definitivo.
La ecuación de Schrödinger afirma que, en mecánica cuántica, la función de onda evoluciona de forma determinista siguiendo una superposición lineal de diferentes estados. Sin embargo, al medirse, el sistema físico siempre se encuentra en un estado definido. El problema radica en cómo establecer una correspondencia entre la realidad cuántica y la clásica.
Desde la década de los años 90, la solución de Penrose a este problema es una especie de teoría de colapso objetivo. La función de onda es una onda física que experimenta el colapso de la función de onda como un proceso físico, sin que los observadores tengan un papel especial. Penrose teoriza que la función de onda no puede mantenerse en superposición más allá de una cierta diferencia de energía entre los estados cuánticos. Proporciona un valor aproximado para esta diferencia: el "nivel de un gravitón". A continuación, plantea la hipótesis de que esta diferencia de energía provoca el colapso de la función de onda en un solo estado. El criterio de "nivel de un gravitón" de Penrose proporciona un criterio objetivo para el colapso de la función de onda. A pesar de las dificultades para especificarlo rigurosamente, propone que los estados en los que se produce el colapso se describen matemáticamente mediante las soluciones estacionarias de la ecuación de Schrödinger-Newton.
Cosmología cíclica
Penrose popularizó la teoría de la Cosmología Cíclica Conforme en su libro "Ciclos del Tiempo: Una Nueva Visión Extraordinaria del Universo" (2010). Describe un modelo cosmológico dentro de la relatividad general. En esta teoría, el universo actual es solo uno de una secuencia posiblemente de infinitos universos, o eones, porque el universo repite ciclos infinitos. Cada iteración está marcada por la singularidad del Big Bang de la siguiente.
No hay comentarios:
Publicar un comentario