Conferencia de Dr. Luis Pineda (IIMAS-UNAM), Academia de Ciencias-UNAM, 6 de noviembre de 2024.
La conferencia «Turing, ChatGPT y las Visiones de la IA», presentada por el Dr. Luis Pineda de la UNAM en 2024, ofrece una perspectiva crítica y profunda sobre la inteligencia artificial (IA) y su relación con el pensamiento humano, basándose en la obra pionera de Alan Turing y los desarrollos recientes en modelos de lenguaje como ChatGPT. La conferencia abarca los fundamentos filosóficos de la IA, explora los experimentos mentales de Turing, examina el funcionamiento de los modelos de lenguaje actuales, y reflexiona sobre las implicaciones éticas y sociales de la IA en nuestra sociedad.
Turing y la pregunta sobre el pensamiento de las máquinas
El Dr. Pineda comienza explorando la célebre pregunta de Turing: «¿Pueden las máquinas pensar?», una interrogante que sigue siendo fundamental en el debate sobre la inteligencia artificial. Turing, en su artículo de 1950, propone la «prueba de Turing» como una forma de evaluar la capacidad de las máquinas para imitar el pensamiento humano. En lugar de debatir la definición de «pensar», Turing sugiere un experimento mental —el «juego de imitación»— que se centra en la capacidad de una máquina para comunicarse de tal forma que un interrogador humano no pueda distinguir entre sus respuestas y las de una persona. En este contexto, si una máquina logra pasar esta prueba, Turing sugiere que deberíamos considerar que «piensa» en un sentido operativo.
Este enfoque evita preguntas filosóficas complejas sobre la naturaleza del pensamiento y de la conciencia, y se centra en la comunicación como un indicador indirecto de la capacidad cognitiva de una máquina. Según Pineda, el razonamiento de Turing asume que el lenguaje es central para el pensamiento, y que hablar implica la capacidad de procesar y transformar ideas de manera racional. Para realizar esta «imitación» de la mente humana, el lenguaje y la interacción simbólica se vuelven clave en la estructura cognitiva que Turing conceptualiza.
La evolución de los modelos de lenguaje y su impacto en la IA
El Dr. Pineda analiza cómo los avances en modelos de lenguaje han evolucionado desde la creación de cadenas de Markov hasta los complejos modelos actuales, como los modelos de transformadores de ChatGPT. Estos modelos no son nuevos en su esencia, sino que se basan en décadas de desarrollo en procesamiento de lenguaje natural (PLN), una línea de investigación que se originó con experimentos estadísticos sobre patrones de texto realizados por Andrei Markov a principios del siglo XX. Las cadenas de Markov permitieron modelar la probabilidad de aparición de palabras en función de su contexto, lo cual derivó en el concepto de «modelos de lenguaje».
Más tarde, en 1948, Claude Shannon aportó la teoría de la comunicación, la cual introdujo los conceptos de «fuente de información» y «entropía», ideas que se aplican a los modelos de lenguaje para medir la impredecibilidad de las palabras en una secuencia. Los modelos de lenguaje actuales, explica Pineda, como ChatGPT, utilizan transformadores (una arquitectura propuesta en 2017) que permiten procesar grandes volúmenes de texto y resolver problemas de ambigüedad léxica en el lenguaje humano. Estos modelos no «comprenden» el texto en un sentido humano, sino que se entrenan para predecir probabilísticamente la siguiente palabra en función de las palabras anteriores.
Limitaciones de los modelos de lenguaje y la «pobreza del estímulo»
A pesar de su capacidad para generar respuestas coherentes, los modelos de lenguaje tienen limitaciones importantes. Pineda menciona el concepto de «pobreza del estímulo» propuesto por el lingüista Noam Chomsky, quien argumenta que los niños no necesitan grandes cantidades de datos para aprender un idioma, sino que lo hacen a través de una combinación de predisposición genética y estímulos específicos del entorno. Esto contrasta con el aprendizaje de los modelos de IA, que requieren grandes volúmenes de datos para simular competencia lingüística.
Además, Pineda presenta ejemplos de ChatGPT en los que el modelo falla en interpretar adecuadamente textos literarios y contextos culturales específicos. En un caso particular, ChatGPT genera respuestas incorrectas cuando se le pregunta sobre autores y poemas de la literatura hispana, como los textos de Sor Juana Inés de la Cruz y Quevedo, lo cual evidencia su falta de comprensión. Para Pineda, estas fallas muestran que, aunque las IA pueden producir lenguaje coherente, no poseen el entendimiento real que subyace en el pensamiento humano.
La «prueba de Turing» y el «cuarto chino» de John Searle
La conferencia también retoma el experimento mental del «cuarto chino» propuesto por el filósofo John Searle, que desafía la noción de que procesar símbolos equivale a entender. Searle imagina una habitación donde una persona, sin entender chino, recibe caracteres chinos y los empareja mecánicamente con otros símbolos en chino basándose en un manual de instrucciones. Aunque los hablantes de chino fuera de la habitación creen estar interactuando con alguien que entiende el idioma, la persona dentro de la habitación simplemente manipula símbolos sin entender nada. Este experimento, según Pineda, ilustra que los sistemas de IA actuales, al igual que el «cuarto chino», pueden procesar información y producir respuestas sin tener verdadera comprensión o conciencia.
Pineda argumenta que el proceso mecánico de manipulación de símbolos en la IA no equivale a la cognición humana. La comprensión auténtica requiere algo más que el procesamiento de datos estadísticos y patrones. Según él, solo los seres vivos con sistemas nerviosos complejos pueden experimentar la intencionalidad y la afectividad que caracterizan la mente humana.
La inteligencia artificial y el imaginario colectivo
Pineda señala que, más allá de su capacidad técnica, la IA ha capturado el imaginario colectivo y ha inspirado visiones tanto utópicas como distópicas en la cultura popular. Desde la obra de Turing, la IA ha sido percibida como una posibilidad de crear entidades a nuestra imagen y semejanza. Ejemplos notables incluyen la película *2001: Odisea en el espacio*, donde la computadora HAL 9000 desafía a los humanos, y la obra de ficción *Blade Runner*, que plantea dudas existenciales sobre la identidad y la conciencia en los replicantes.
Estos escenarios reflejan el temor de que las máquinas puedan adquirir autonomía y cuestionan si los humanos podrían llegar a perder el control sobre la tecnología que han creado. Pineda subraya que estas narrativas representan una tensión entre lo biológico y lo maquinal, y plantean preguntas éticas sobre la diferencia esencial entre seres humanos y máquinas.
La responsabilidad humana y los riesgos de la IA
Pineda aborda los desafíos éticos y de seguridad en el uso de la IA, subrayando la importancia de educar a los usuarios para que puedan evaluar críticamente la información generada por estos sistemas. La IA, advierte, puede ser una herramienta poderosa pero también riesgosa, especialmente si los usuarios no son capaces de discernir entre respuestas confiables y errores o sesgos en los modelos. Cita investigaciones recientes que indican que los modelos de lenguaje más grandes tienden a generar respuestas más complejas, pero no necesariamente más confiables. La verificación de la información es crucial, especialmente en entornos sensibles donde los errores pueden tener consecuencias graves.
La regulación también es esencial para prevenir abusos y proteger la privacidad y los derechos de las personas. Sin embargo, el Dr. Pineda enfatiza que, en última instancia, la sociedad debe asumir una postura crítica y responsable frente a la tecnología. La IA no tiene autonomía moral; es una herramienta que refleja los valores y las decisiones de quienes la programan y la usan.
Las visiones futuras y la sinergia humano-máquina
Para el Dr. Pineda, el futuro de la IA no reside en su independencia de la humanidad, sino en una colaboración sinérgica entre humanos y máquinas. Esta idea está en línea con el concepto de Garry Kasparov, excampeón mundial de ajedrez, quien ha promovido la cooperación entre humanos e IA como la forma de aprovechar al máximo las capacidades de ambos. Kasparov argumenta que las máquinas pueden potenciar nuestras habilidades, pero no reemplazarlas, y sugiere que el futuro será un trabajo en equipo, donde humanos e IA se complementen mutuamente.
Pineda compara esta colaboración con el uso generalizado de las calculadoras, que no reemplazan nuestra capacidad de hacer cálculos mentales, sino que la amplifican. Así, las IA pueden servir como herramientas que amplíen nuestras capacidades cognitivas, siempre que se usen de manera ética y consciente.
La IA como metáfora de nuestros tiempos
Finalmente, Pineda observa que la IA se ha convertido en una metáfora de los dilemas contemporáneos sobre la identidad y la agencia humana. La prueba de Turing, al plantear la creación de una máquina que emule al ser humano, revive temas míticos sobre la creación de seres a nuestra semejanza, como en el mito de Prometeo, el Golem y Frankenstein. Estas historias reflejan el deseo y el temor de los humanos de crear algo similar a sí mismos, pero también cuestionan los límites de esa creación. Para Pineda, este imaginario colectivo nos invita a reflexionar sobre la esencia de lo humano y la posibilidad de que, en su intento de emular la conciencia, las máquinas nos desafíen a redefinir nuestra propia identidad. La metáfora de la IA resalta la tensión entre el determinismo maquinal y la indeterminación de lo humano.
Deja una respuesta