Dr. Carlos Coello (CINVESTAV y El Colegio Nacional). México, 7 de noviembre de 2024. La conferencia de Carlos Coello traza la historia, el desarrollo y el impacto de la inteligencia artificial (IA) desde sus inicios hasta la era moderna. A continuación, se detalla una síntesis ampliada de los temas principales que abarca la plática, que explora la evolución histórica de la IA, sus hitos más destacados, los desafíos que ha enfrentado, así como sus aplicaciones actuales y los dilemas éticos que plantea.
Introducción a la Historia de la Inteligencia Artificial
La conferencia comienza exponiendo el origen de la inteligencia artificial como disciplina, situándolo en un taller celebrado en Dartmouth College en 1956, donde el término “inteligencia artificial” fue acuñado por John McCarthy. Este evento reunió a los pioneros en el campo, quienes compartían el interés por entender y simular aspectos de la inteligencia humana. Desde entonces, la IA ha pasado por múltiples etapas de desarrollo, caracterizadas por distintas expectativas, avances, y momentos de estancamiento, conocidos como los “inviernos de la IA”. Coello subraya que, si bien actualmente la IA es un tema de gran relevancia social y tecnológica, su origen como disciplina se remonta a mediados del siglo XX, cuando científicos de diferentes áreas comenzaron a colaborar en la creación de modelos teóricos y prácticos de la inteligencia.
Primeras Contribuciones y Teorías Fundamentales
Coello destaca las contribuciones de tres figuras clave en los cimientos de la IA: Norbert Wiener, Claude Shannon y Alan Turing. Wiener, fundador de la cibernética, impulsó el estudio de sistemas biológicos a través de conceptos de control automático. Shannon, “padre de la teoría de la información”, aplicó el álgebra booleana en circuitos lógicos y formuló conceptos de entropía que sentaron las bases para la comunicación digital. Finalmente, Turing, matemático británico, es conocido por la “prueba de Turing”, una prueba operativa de la inteligencia artificial en la que una máquina puede considerarse inteligente si su interacción con un humano es indistinguible de la interacción con otro humano. Estos tres pioneros establecieron teorías fundamentales que continuarían desarrollándose, especialmente en los modelos de redes neuronales, iniciados por Walter Pitts y Warren McCulloch, quienes modelaron el funcionamiento básico de las neuronas artificiales.
Primeros Programas y Expectativas
En los primeros años, los investigadores desarrollaron programas innovadores que, aunque limitados, mostraban un potencial sin precedentes. Coello menciona el “Logic Theorist” de Newell y Simon, un programa diseñado para demostrar teoremas matemáticos. En su época, esta fue una de las aplicaciones de IA más impresionantes, ya que se lograron demostrar teoremas del famoso libro Principia Mathematica, en algunos casos encontrando soluciones más elegantes que las originales. Sin embargo, estos logros generaron expectativas exageradas, como la de Herbert Simon, quien predijo que las máquinas vencerían al campeón mundial de ajedrez en una década, un logro que tomó más tiempo del anticipado.
Primer Invierno de la IA (1974-1980)
El llamado “primer invierno de la IA” fue un periodo en el que el financiamiento a la investigación en IA se redujo considerablemente. La razón principal fue la falta de resultados prácticos en aplicaciones de gran escala. En este periodo, se creía que al añadir más poder computacional los programas de IA podrían resolver problemas complejos, pero surgieron limitaciones que impidieron que los desarrollos cumplieran con las expectativas. Coello menciona el escepticismo creciente en el ámbito gubernamental y militar, especialmente en agencias como DARPA, que fueron reacias a seguir financiando proyectos sin resultados tangibles. A este contexto se sumó el papel de Marvin Minsky, quien con un artículo crítico desestimó el potencial de las redes neuronales de una capa, relegando su desarrollo por más de una década.
Resurgimiento en los Años Ochenta y Sistemas Expertos
La IA experimentó un renacimiento en los años ochenta, impulsado por los sistemas expertos, una tecnología basada en reglas que simulaba el conocimiento especializado en ciertas áreas. Uno de los sistemas expertos más exitosos fue DENDRAL, diseñado para predecir estructuras químicas complejas. Este proyecto, que involucró a científicos como Edward Feigenbaum y Joshua Lederberg, mostró el potencial de la IA en aplicaciones científicas. Al mismo tiempo, Japón lanzó un ambicioso proyecto, la “Quinta Generación de Computadoras”, centrado en el desarrollo de sistemas paralelos, lo que incentivó a otros países a invertir en tecnologías paralelas, beneficiando indirectamente a la IA.
A la par, John Hopfield y David Rumelhart revitalizaron el interés en las redes neuronales, introduciendo el concepto de “conexionismo”, una teoría que dio pie al uso de redes neuronales profundas en el futuro. Coello explica que las redes de Hopfield, también conocidas como memorias asociativas, utilizaron conceptos físicos para modelar el aprendizaje, lo que llevó a su aceptación y popularidad en la comunidad científica.
Segundo Invierno de la IA (1987-1993)
El segundo invierno de la IA se caracterizó por el colapso de muchas empresas dedicadas a esta tecnología, que no lograron cumplir con las expectativas del mercado y fracasaron económicamente. Esta crisis afectó la investigación, ya que muchas de estas compañías financiaban estudios en universidades y centros de investigación. DARPA también recortó su financiamiento, debido a los resultados limitados en aplicaciones militares, lo cual redujo aún más los recursos disponibles. Durante este periodo surgió una división en la comunidad de IA, en la que investigadores como Rodney Brooks cuestionaron la necesidad de representar el conocimiento en la IA, proponiendo en cambio el desarrollo de sistemas reactivos, que respondieran directamente a su entorno sin un procesamiento interno complejo. Esta perspectiva daría lugar a la robótica reactiva, un enfoque que Brooks exploró con éxito en su trabajo en el MIT.
Avances en la IA Moderna y la Era de los Datos
La “era de los datos” marcó el inicio de la IA moderna a partir de 2011, una época en la que la disponibilidad de datos masivos y el incremento del poder de procesamiento permitieron la implementación de algoritmos avanzados en redes neuronales profundas. Un punto de inflexión fue el desarrollo de AlexNet en 2012, una red neuronal convolucional que ganó en el concurso de reconocimiento de imágenes ImageNet. AlexNet mostró el poder de las GPUs para entrenar modelos de IA, iniciando así el auge del aprendizaje profundo.
Inteligencia Artificial Generativa y Modelos Multimodales
La inteligencia artificial generativa es uno de los desarrollos más recientes y relevantes de la IA moderna. Herramientas como ChatGPT de OpenAI ejemplifican el avance en modelos de lenguaje natural capaces de generar texto, traducir, responder preguntas y realizar múltiples tareas basadas en un amplio conjunto de datos. Coello señala que estos avances han reavivado el interés en la inteligencia artificial general (AGI), un concepto que se refiere a una IA con capacidades generales similares a las humanas. Aunque la AGI aún es un objetivo lejano, algunos modelos, como “Gato” y “Flamingo” de DeepMind, están avanzando en esta dirección. Gato, por ejemplo, puede realizar múltiples tareas sin requerir entrenamiento específico para cada una, mientras que Flamingo puede interpretar imágenes y responder preguntas complejas sobre ellas en lenguaje natural.
Desafíos Éticos y Sociales de la IA
Coello aborda también los desafíos éticos y sociales que plantea el desarrollo de la IA. Uno de los problemas principales es la pérdida de privacidad, ya que el uso masivo de datos personales en el entrenamiento de modelos de IA ha provocado que la privacidad se vea comprometida. Plataformas digitales y redes sociales recolectan constantemente información de los usuarios para fines comerciales, lo que representa un sacrificio en la privacidad personal. Además, Coello menciona el potencial uso militar de la IA y el temor generalizado de que ciertas profesiones sean desplazadas por la automatización, afectando principalmente a trabajos rutinarios. Si bien la comunidad de IA argumenta que estos cambios permitirán a las personas dedicarse a tareas más creativas, persisten las preocupaciones sobre el impacto en empleos no triviales, como la asesoría legal.
Otro tema relevante es la “singularidad tecnológica”, una idea popularizada por Ray Kurzweil, que sugiere que en un futuro no muy lejano, la IA alcanzará una capacidad equivalente a la humana y se integrará con ella, planteando la posibilidad de transferir la mente humana a sistemas digitales y prolongar así la conciencia. Aunque esta noción parece ciencia ficción, Kurzweil la defiende con seriedad y el avance de la IA la convierte en un tema de discusión vigente.
Conclusiones y Futuro de la IA
En sus conclusiones, Coello resalta que la IA debe orientarse hacia aplicaciones que beneficien a la humanidad, como combatir problemas globales. La tecnología tiene el potencial de revolucionar áreas como la medicina, permitiendo diagnósticos personalizados y tratamiento adaptado a las necesidades individuales, así como en la educación, donde se podrían desarrollar sistemas de aprendizaje personalizados.
Además, Coello menciona que actualmente la IA dominante se basa en el procesamiento de grandes volúmenes de datos, utilizando representaciones numéricas en lugar de simbólicas, lo que ha llevado a avances importantes, pero también a desafíos en cuanto a la transparencia y explicabilidad. La “explicabilidad” de la IA es un campo de investigación activo que intenta hacer comprensibles los procesos de decisión de modelos complejos, como las redes neuronales profundas. La falta de transparencia en estos modelos es una de las principales críticas hacia la IA moderna, ya que los algoritmos de aprendizaje profundo generan resultados basados en procesos internos que suelen ser opacos.
Finalmente, Coello reflexiona sobre el temor que suscita la IA, argumentando que es normal que las nuevas tecnologías generen miedos iniciales, pero que es necesario un entendimiento básico de cómo funcionan estas tecnologías para minimizar estos temores. También enfatiza que, hasta ahora, no existen programas que posean conciencia o intenciones, y aunque es importante regular el uso de la IA, no se trata de entidades con autonomía propia. En sus palabras finales, Coello expresa un optimismo cauteloso sobre el futuro de la IA, argumentando que, si se utiliza adecuadamente, tiene el potencial de impulsar una era de prosperidad en la que la tecnología esté al servicio de los grandes problemas de la humanidad, en lugar de ser una amenaza para ella.
Deja una respuesta