Envejecimiento · 27 Julio 2021

¿Qué es la Inteligencia Artificial? Origen de los sistemas inteligentes

Cuando escuchamos hablar de Inteligencia Artificial, tendemos a pensar automáticamente  en  asistentes personales virtuales, coches sin conductor o algoritmos que deciden la publicidad con la que bombardearnos desde nuestros dispositivos electrónicos. No obstante, más allá de estos conceptos mediáticos y en ocasiones controvertidos, ¿sabemos realmente qué es la Inteligencia Artificial?

La Enciclopedia Británica trata de sintetizar esta amplia realidad en la siguiente definición: “La Inteligencia Artificial (IA) es la capacidad de un ordenador o de un robot controlado por ordenador de realizar tareas comúnmente asociadas con seres inteligentes.”

Desde un punto de vista lingüístico, cumple a la perfección su cometido. No obstante, presupone la existencia clara de un límite entre un “ser inteligente” y otro que no es considerado como tal. Una forma de tratar de explorar este límite es conocer cómo se han comportado los ordenadores tradicionalmente considerados como “no inteligentes” desde sus inicios hasta el reciente surgimiento de la IA, momento en el que parece cruzarse la frontera hacia lo definitivamente “inteligente”.

Fue hace dos siglos cuando la matemática y escritora británica Ada Lovelace postuló por primera vez el concepto de “programa de ordenador”, concretamente en el año 1843. Desde este revelador momento, la lógica subyacente a la programación de los ordenadores ha permanecido prácticamente intacta hasta casi nuestros días. Según la idea de Ada Lovelace, programar un ordenador, reduciéndolo a su esencia, no es más que proporcionarle una serie de instrucciones que debe ejecutar de forma matemáticamente precisa. 

El programador humano idea un programa con un objetivo claro y lo escribe en un lenguaje que la máquina comprenda, conocido como un lenguaje de programación. Este programa indica al ordenador que ejecute una serie de acciones lógicas bajo un orden y condiciones determinados. Esto, ni más ni menos, es un algoritmo. Toda inteligencia que pueda destilar este conjunto de instrucciones es, salvo que se demuestre lo contrario, originada en la mente de su creador, habitualmente conocido como desarrollador o programador informático. El ordenador meramente obedece sus órdenes.

Un ejemplo de algoritmo es el conjunto de instrucciones que emplea el ordenador de un transbordador espacial para ejecutar en orden los distintos pasos necesarios para elevarse hasta un estado orbital sobre la tierra. Pero también puede ser el conjunto de instrucciones que la CPU de nuestro lavavajillas ejecuta para primero humedecer, más tarde enjabonar y por último aclarar y secar la vajilla, así como los tiempos que dedica a cada una de estas tareas. 

El primer algoritmo ejecutado sobre un ordenador electrónico lo hizo sobre el ENIAC de IBM, que es considerado como el primer ordenador no mecánico, o dicho de otra forma, electrónico. La construcción del masivo ENIAC se inició en 1943, ¡un siglo después de que Ada Lovelace intuyera la primera concepción de programa informático! Y a pesar de ello ejecutó, en efecto, un conjunto de instrucciones lógicas previamente pensadas por un ser humano.

Desde este auténtico gigante de 27 toneladas hasta el primer teléfono iPhone que presentó Steve Jobs en 2007 con 135 gramos de peso, los avances en la tecnología de los componentes ha permitido una reducción de tamaño espectacular al mismo tiempo que la capacidad de cómputo ha aumentado exponencialmente y sin descanso año tras año, sin visos de tomarse descansos por ahora.

Sin embargo, la inmensa mayoría de los dispositivos que han existido en el lapso temporal que sucedió entre la presentación del gigante ENIAC y el pequeño iPhone han seguido la misma filosofía de funcionamiento interno. Podríamos decir que estos dispositivos cumplen el rol de un pinche que ejecuta recetas entre fogones, mientras que los programadores son los chefs que las diseñan y mejoran con el tiempo. El ser inteligente, aquel que crea, es el humano.

Es por ello que estos dispositivos obedientes jamás se consideraron inteligentes, aunque pudieran realizar millones de tareas y operaciones en cuestión de segundos, a diferencia de un humano, debido a su naturaleza electrónica y a su gran capacidad de cómputo. Al fin y al cabo, su toma de decisiones se limitaba a seguir un protocolo, por complejo que este pudiera ser. 

A pesar de que la IA tiene un aura de concepto novedoso y puntero, ya en 1950 Alan Turing, considerado el padre de la informática actual, planteó la pregunta “¿pueden las máquinas pensar?”. De hecho, para permitir responder de manera objetiva, además, se preocupó de diseñar el conocido como Test de Turing, que trata de poner a prueba la capacidad de una máquina de exhibir un comportamiento humano.

A modo de contextualización temporal, la primera máquina en superar el Test de Turing fue un asistente conversacional que trataba de imitar a un adolescente ucraniano llamado Eugene Goostman. Esto sucedió en 2014, 64 años más tarde de su enunciamiento teórico.  A pesar de ello, el nivel de inteligencia de Eugene aún parecía chirriar bajo el exigente ojo humano, como se puede comprobar en esta entrevista que le realizó la revista Times en 2014.

Hay numerosos ejemplos de sistemas de Inteligencia Artificial a lo largo de las últimas décadas que han copado titulares tecnológicos, como el conocido ejemplo del programa Deep Blue, desarrollado por la multinacional americana IBM, que ganó en 1997 al entonces campeón del mundo en ajedrez Gary Kásparov. Sin embargo, este programa como tantos otros en aquel momento, seguía empleando programación tradicional. Numerosas reglas lógicas y condiciones, así como capacidad para decidir movimientos en base a complejos árboles de decisión, todo ello ejecutado sobre una gran capacidad de cómputo. Esto es denominado “usar la fuerza bruta” en el argot informático. Se tratan de calcular tantos movimientos futuros posibles como el hardware del ordenador permite, y se toma una decisión en base a los resultados esperados en cada opción.

A pesar de saber que este sistema emplea la fuerza bruta, la frontera entre “lo inteligente” y “lo obediente” no se encuentra trazada de forma  claramente definida en el campo de la Inteligencia Artificial. ¿Es inteligente un ordenador capaz de ganar a un ser humano en un juego complejo? ¿O sencillamente es un gran trabajo por parte de sus desarrolladores? Dicho de otra forma ¿Era sencillamente una buena ejecución de una suculenta receta diseñada por un gran chef?

En el momento en el que nos encontramos esta indefinición comienza a desvanecerse, y los desarrollos que surgen cada día se encuentran con aparente claridad en el territorio de lo inteligente. Actualmente, por distópico que parezca, los ordenadores tienen la capacidad de aprender por sí mismos. Ya no necesitan una receta milimétricamente calculada hasta el último detalle. En cambio, les basta con ver muchas recetas distintas hasta llegar a comprender de forma abstracta el concepto de receta, para así poder crear ellos sus propias recetas. Una IA que juega al ajedrez no tiene un manual de instrucciones como el de Deep Blue. Sencillamente ha visto miles y millones de partidas hasta que ha descubierto la mejor forma de hacerlo. Es esto lo que ha marcado un antes y un después en la tecnología e implantación en el amplio campo de la Inteligencia Artificial.

La dirección principal en la que se encamina la investigación y desarrollo de la IA actual está sustentada en los descubrimientos realizados por una serie de grandes mentes durante los últimos dos siglos. 

En primer lugar, destaca la ampliación de las fronteras del conocimiento del cerebro que proporcionaron al mundo los galardonados con el premio Nobel de Medicina Santiago Ramón y Cajal, y Charles Scott Sherrington. Uno de los descubrimientos principales de estos dos eminentes doctores fue la descripción del funcionamiento y estructura del sistema nervioso y, más específicamente, la observación de la neurona como unidad estructural y funcional del mismo.Sus estudios demostraron que las neuronas de nuestro sistema nervioso reciben una serie de impulsos químicos y eléctricos que son procesados en su interior y generan un impulso de salida que se comunica al resto de las neuronas circundantes.

En base a esto, y en 1958, el psicólogo estadounidense Frank Rosenblatt teorizó sobre la posibilidad de definir una estructura matemática que mimetizara el comportamiento de una neurona humana para ejecutar cálculos complejos tal y como los hace el cerebro. Esta neurona artificial fue bautizada como Perceptrón. Rosenblatt también imaginó sumar múltiples unidades de estos perceptrones, construyendo una red de perceptrones compleja, o tal y como se la conoce actualmente, una red neuronal. Al fin y al cabo, nuestros cerebros se encuentran estructurados en forma de numerosas redes neuronales interconectadas que están basadas en esa unidad estructural que es la neurona. De esta forma, los algoritmos de Deep Learning, llamado así por la gran profundidad de estas redes neuronales, están basados en las estructuras del cerebro humano, que han sido perfeccionadas durante millones de años por la naturaleza a través de la evolución.

La capacidad de cómputo para ejecutar estos algoritmos no fue suficiente hasta la segunda década del siglo XXI, cuando la teoría pasó a la práctica a una velocidad vertiginosa. Sobre el funcionamiento de este tipo de algoritmos profundizaremos en futuras entradas. Por ahora es suficiente con entender que estos sistemas inteligentes aprenden a desempeñar tareas concretas por sí mismos. Si les proporcionamos una cantidad suficiente de datos etiquetados, por ejemplo, de imágenes de peces con sus correspondientes especies, una red neuronal podrá aprender por sí sola a distinguir especies de peces. El programador no tendrá que explicarle a la red neuronal qué es un pez, o las diferencias entre ellos. Tendrá que diseñar una red neuronal lo suficientemente potente como para realizar este trabajo por sí misma. Las redes neuronales tienen la capacidad de abstraer conocimiento complejo en base a grandes cantidades de datos. De esta forma, permiten automatizar tareas e incluso mejorar la precisión de los humanos en el desempeño de las mismas. Un ejemplo es el sistema Alpha Go, desarrollado por la empresa Deep Mind bajo el paraguas de Google. Esta IA fue capaz de batir al campeón del mundo de Go, considerado como uno de los juegos más complejos en la actualidad. Para hacerlo, su complejo entramado de redes neuronales solo necesitó presenciar miles de partidas pasadas de este juego para lograr batir al mejor jugador con vida del momento.

En la actualidad los expertos en IA hacen referencia a dos tipos de inteligencia; la general y la específica. Todas las IA con las que contamos hasta el momento son del tipo específico. Esto quiere decir que están centradas en aprender a cumplir un objetivo de manera autónoma y precisa, tanto o más que los humanos. La característica clave de este objetivo es que es concreto y específico. Bien sea conducir de manera autónoma, detectar aterosclerosis en una imagen médica o conversar con un humano acerca de los billetes de tren que no está siendo capaz de comprar, las Inteligencias Artificiales actuales basadas en redes neuronales están centradas en tareas muy bien definidas y en alcanzar la excelencia en las mismas.

Por otra parte, los seres humanos tenemos una inteligencia general. Sabemos realizar más de una tarea, incluso de forma simultánea. En un mismo día cocinamos, conducimos, desempeñamos nuestro trabajo, mantenemos conversaciones y leemos el periódico sin que ninguna de estas tareas afecte negativamente al rendimiento de las demás.  En la actualidad, una Inteligencia Artificial que sea tan polivalente como un ser humano solo existe en los sueños de los desarrolladores y emprendedores a lo largo del mundo. Las voces de ciertos expertos como el director de IA del CSIC, Ramón López de Mántaras, creen que “Por muy inteligentes que lleguen a ser las futuras inteligencias artificiales, incluidas las de tipo general, nunca serán iguales a las inteligencias humanas”

En definitiva, actualmente contamos con sistemas considerados claramente como inteligentes dado que son capaces de desempeñar con gran precisión tareas específicas que han logrado aprender por sí mismas. Por tanto, cumplen con la definición de Inteligencia Artificial de la Enciclopedia Británica. Ya no se encuentran constreñidas por un algoritmo que liste los pasos a ejecutar como una receta de cocina. Hemos obtenido sistemas adaptativos que, compartiendo una misma estructura basada en redes neuronales, pueden aprender tanto a conducir como a estudiar radiografías sin más información que una gran cantidad de datos ejecutados, aunque no ambas al mismo tiempo, al menos por ahora. A pesar de que a estas inteligencias les quede mucho camino por recorrer hasta acercarse mínimamente a las capacidades de un ser humano, ya han probado ser de gran ayuda en multitud de tareas complejas y todo apunta a que cada vez habrá una mayor colaboración entre hombres e Inteligencia Artificial para facilitar, acelerar y en definitiva mejorar innumerables procesos del día a día.

Aunque en esta entrada hemos reducido los ejemplos a adolescentes charlatanes o a  sistemas que aprenden a jugar a juegos de mesa más o menos complejos, esta no es en absoluto la utilidad real de mercado de las Inteligencias Artificiales y de las redes neuronales. Ahora que parece haber más luz acerca de qué es y qué no es la Inteligencia Artificial, podremos abordar en futuras entradas cómo está siendo aplicada actualmente en prácticamente todos los sectores económicos, las previsiones de futuro de su desarrollo a corto plazo, y, en suma, cómo puede ayudar a mejorar las vidas de todos.

Compartir 
En el marco de: Programa Operativo Cooperación Transfronteriza España-Portugal
Instituciones promotoras: Fundación General de la Universidad de Salamanca Fundación del Consejo Superior de Investigaciones Científicas Direção Geral da Saúde - Portugal Universidad del Algarve - Portugal