Si entras en una red social y miras noticias sobre tecnología, será muy difícil que no encuentres al menos una novedad sobre inteligencia artificial, y es algo que ocurre cada día. Esto nos da la sensación de que este campo nació con la presentación de ChatGPT y que prácticamente se limita a chatbots y a generadores de imágenes. Pero para entender por qué hoy la IA es un tema de conversación constante, es fundamental conocer los hitos que hicieron posible este auge.
Hoy en día tenemos estos sistemas gracias a la gran evolución que ha sufrido la capacidad de proceso y de almacenamiento en la última década, así como la disponibilidad de grandes volúmenes de datos, los sistemas de IA pueden hacer cosas que antes solo podían imaginarse. Así que cosas que antes estaban en un plano teórico, como las redes neuronales o el aprendizaje profundo están dando pasos a un ritmo que parece cada vez mayor.
Nacimiento de la IA: Los primeros pasos
Este campo de estudio nace casi con los primeros ordenadores electromecánicos, a mediados del siglo XX cuando se comenzó a explorar la idea de hacer “pensar” a estas máquinas. Así, uno de los primeros experimentos que se hizo fue el conocido como Logic Theorist en 1956, desarrollado por Allen Newell y Herbert A. Simon.
Este sistema fue diseñado para demostrar teoremas matemáticos y logró probar 38 de los primeros 52 teoremas del libro “Principia Mathematica”, de Russell y Whitehead.
En un marco mucho más teórico encontramos el Test de Turing, ahora tan famoso por la proliferación de los chatbots. Este test fue enunciado por Allan Turing en 1950 y dice que estaremos ante una inteligencia artificial cuando un humano no sepa si al otro lado de una pantalla, durante una conversación, hay una máquina u otra persona. Esto no era tanto una prueba, sino que era más un reto. Era la idea que marcaba hacia dónde debía de ir este campo de investigación.
También en los años 50, en el MIT surge un grupo de pioneros que funda el Club de Inteligencia Artificial. Este era un grupo de ingenieros a los que les gustaba jugar con los sistemas que tenían a mano para entenderlos mejor y tratar de llevarlos al límite de sus capacidades. En este proceso, crearon el término de hacking. Fue John McCarthy el que acuñó el término “Inteligencia Artificial” durante la Conferencia de Dartmouth, en 1956, y que se considera el punto de partida de esta disciplina científica.
Primeras aplicaciones: De los sistemas expertos a la automatización
Tras estos primeros experimentos teóricos o de aplicación limitada comenzaron a aparecer sistemas con una función mucho más general, aunque aún limitada. En este sentido, en 1958, se presenta el algoritmo del Perceptrón –lo admito, me encantan los nombres de los primeros sistemas informáticos– que servía para clasificar entradas en dos categorías distintas. Aunque ya tenía un propósito más amplio, sí que es cierto que su funcionalidad aún estaba muy ajustada, sin embargo fue uno de los primeros modelos de redes neuronales y fue un paso importantísimo hacia la creación de sistemas capaces de aprender de datos, abriendo camino hasta los modelos actuales usados hoy en aprendizaje profundo.
Unos años más tarde, en 1968, se desarrolla el Algoritmo de Búsqueda A*, cuyo objetivo es encontrar la ruta más corta o eficiente entre dos puntos. Y sí, este algoritmo se sigue usando hoy en día en aplicaciones de GPS o en el mundo de los videojuegos en los que los personajes se mueven por un mapa.
Las primeras aplicaciones industriales, durante los años 60 y 70, se basaron en dos tipos diferenciados de sistemas, los expertos y los basados en reglas. Estos últimos funcionaban con una metodología «si… entonces…». El problema que tiene este formato es que solo funciona para resolver problemas muy bien definidos y hay que tener en cuenta todos los elementos del problema.
Los sistemas expertos fueron uno de los primeros intentos de imitar el proceso de toma de decisiones del cerebro humano. Su uso, principalmente, era el de resolver problemas complejos en campos específicos, tratando de imitar la forma de razonar de un experto humano –de hecho, se usaban expertos en un campo concreto para entrenar a estas máquinas– con el uso de una gran cantidad de datos. Estaban basadas en tres componentes:
- Base de conocimientos, que contenía hechos y reglas sobre un dominio concreto. Aquí es donde entraban los humanos expertos en un campo a hacer sus aportaciones.
- Motor de inferencia, que es la parte que aplica las reglas de la base de conocimiento.
- Una interfaz para permitir a los usuarios interactuar con el sistema.
Las diferencias principales con los sistemas actuales era que la base de datos no era muy dinámica y era complicado que aprendiese cosas nuevas. Además, la cantidad de conocimiento que tenía era muy limitada. Por otro lado, el motor de datos era determinista y aplicaba una serie de reglas para llegar a un conocimiento. Sin embargo, los sistemas contemporáneos utilizan redes neuronales que pueden resolver problemas basándose en ejemplos, lo que les permite adaptarse a problemas nuevos.
Para hacernos una idea, un sistema experto es como un operario de una fábrica al que se le ha enseñado a ensamblar un componente con unas herramientas. Su base de conocimiento es todo lo que ha aprendido ensamblando ese componente concreto, cómo debe hacerlo y en qué orden, mientras que el motor de inferencia sería su forma de aplicar ese conocimiento. Sin embargo, si cambias a ese operario a otra posición de la fábrica, no sabría cómo ensamblar los nuevos componentes si antes no se le enseña. Por contra, la IA contemporánea es más como un artesano que es capaz de aprender técnicas sin que nadie se las haya enseñado de forma explícita, ya que puede aplicar conocimiento basado en experiencias previas.
Dos ejemplos de este tipo de máquinas son DENDRAL, que se desarrolló en los años 60 para ayudar a los químicos a identificar la estructura molecular de compuestos orgánicos, o MYCIN, creado en los años 70 y que se utilizó para la identificación de infecciones bacterianas y la recomendación de antibióticos.
Las edades de hielo de la IA
Sin embargo, la investigación en el campo de la inteligencia artificial no siempre fue un camino fácil ni lineal y ha estado marcada por momentos de entusiasmo y evolución mezclados con momentos de desilusión y falta de financiación. A estas épocas de vacas flacas las conocemos como las edades de hielo de la IA. Estos periodos fueron especialmente punzantes en los años 70 y a finales de los 80, cuando las expectativas eran demasiado altas y los resultados no cumplían las promesas iniciales. Esto llevó a drásticas reducciones de la inversión en investigación ya que los sistemas expertos no conseguían la flexibilidad que requerían y esperaban, sobre todo, las empresas. Estas épocas de enfriamiento no fueron malas para el desarrollo, ya que permitieron –o más bien obligaron– a los investigadores a replantear los enfoques y sentar las bases para futuros desarrollos.
El desarrollo de la inteligencia artificial contemporánea trae nuevos retos y nuevos problemas y no todos ellos son técnicos, sino que también encontramos elementos filosóficos, éticos o legales, y debemos hacer una reflexión fundamental sobre cómo los nuevos sistemas afectarán a nuestras vida, pero de esto os hablaré en el artículo siguiente.

Deja una respuesta