La era de la machina sapiens

Escucha el contenido

Las tecnologías basadas en Inteligencia Artificial han transformado hábitos sociales, percepciones individuales, formas de convivir, trabajar, producir y comprar. Algunas aplicaciones constituyen avances significativos en la medicina, la lucha contra el calentamiento global y el desarrollo del conocimiento en infinidad de disciplinas. Sin embargo, también hay señales perturbadoras que generan incertidumbre, sobre todo en materia de libertades y derechos, que obligan al escrutinio público.

| Reportaje de Octavio Olvera


En mayo de 2017, AlphaGo, un programa de Inteligencia Artificial (IA) de Google, venció a Ke Jie, considerado uno de los mejores jugadores de Go en el planeta. Además de abatir el ánimo del joven chino de 19 años, quien dejó escapar conmovedoras lágrimas, la derrota confirmaba el inicio de una nueva era: los programas de “redes neuronales profundas” se convertían en factor de competencia y dominio global.

Para Kai-Fu Lee, inversor de riesgos y uno de los desarrolladores más sobresalientes de IA a nivel global, el acontecimiento fue algo más que un nuevo triunfo de las máquinas sobre el hombre (en 2016, el mismo programa venció al coreano Lee Sedol, 18 veces campeón mundial de Go): representaba la victoria de las empresas tecnológicas occidentales sobre las demás naciones con proyectos de IA, y acentuaba su liderazgo en el desarrollo de artefactos capaces de superar la inteligencia humana.

Ante tal circunstancia, el gobierno chino decidió responder al desafío: diseñó un plan con el propósito de acelerar el proceso de investigación científica y tecnológica, así como la inversión empresarial. La disposición de enormes recursos económicos arrojó frutos en muy corto tiempo. En 2021, el país oriental fue considerado una potencia en este rubro a la par de Estados Unidos, con lo que se sentaban las bases para cumplir el verdadero objetivo: hacer de China el centro más avanzado en IA llegado el año 2030.

Se trata del efecto Sputnik en la tecnología digital actual, según lo analiza Kai-Fu Lee, al equiparar el fenómeno con la carrera por la “conquista del espacio” que precipitó la puesta en órbita del primer satélite artificial (el Sputnik 1) por la antigua Unión de Repúblicas Socialistas Soviéticas (URSS) en 1957. Es por eso que el avance y la innovación en IA será, en adelante, no sólo un factor clave en la vida común de la gente, la economía y las industrias, sino en el orden político mundial.

Pero Lee hace un pronóstico aún más inquietante sobre la evolución de la IA:

Marcará el inicio de una era de un formidable incremento de la productividad, pero también de perturbaciones generalizadas en el mercado laboral, así como de profundos problemas sociopsicológicos con consecuencias para las personas, a medida que la inteligencia artificial se haga cargo de los trabajos realizados por seres humanos en todo tipo de industrias.

De ahí la preocupación de un sector de científicos y humanistas, entre ingenieros, matemáticos, informáticos, filósofos, sociólogos y juristas de todo el mundo, por seguir de cerca los avances de esta tecnología que ha permeado casi todos los ámbitos de la vida social.

Inicio y desarrollo de la IA

Hace apenas una década el potencial de la IA era sólo parte de inquietantes argumentos de la literatura y el cine. Un clásico de la cinematografía como 2001: Odisea del espacio, de Stanley Kubrick (1968), sería el mejor ejemplo de la fantasía que generó el entusiasmo por la ia en su etapa inicial.

Desde luego, aún estamos muy lejos de esas historias extremas de la ficción. La saga de HAL 9000, el supercomputador algorítmico programado heurísticamente, contra cinco astronautas en misión a Júpiter (síntesis de la compleja trama que construye Kubrick a partir de la novela homónima de Arthur C. Clarke), representa uno de los miedos latentes en el universo de la distopía: la rebelión de las máquinas contra su creador.

Por el momento, la realidad es relativamente más sencilla: los artefactos que vencieron a Garri Kaspárov (Gran Maestro de ajedrez derrotado en 1997 por Deep Blue, una supercomputadora desarrollada por ibm) y a Ke Jie están impedidos de hacer algo mejor que jugar, magistralmente, al ajedrez o al Go.

Aunque desde la antigüedad la literatura nos muestra el sueño del hombre por crear criaturas inteligentes a su semejanza, los inicios de la IA no rebasan las siete décadas.

Lo cierto es que, hoy por hoy, sería imposible pensar la vida cotidiana sin los paradigmas que va sentando la IA.

Quizá una parte de nuestra sociedad no lo advierte, y sólo se maravilla con la asistencia de los dispositivos que usa a diario. Por ejemplo, cuando abrimos un servicio de streaming y nos disponemos a gozar de una serie o película y, enseguida, el sistema ofrece sugerencias de contenido de acuerdo con nuestros gustos que ya tiene detectados.

Los teléfonos móviles nos proporcionan, por lo menos, tres ejemplos de IA en su funcionamiento: el reconocimiento facial para acceder al celular, el asistente vocal para activar determinados comandos del dispositivo y la obsesiva necesidad de adivinar nuestro pensamiento o corregirlo cuando enviamos un mensaje de texto.

El Sistema de Posicionamiento Global (GPS, por sus siglas en inglés) se añadió a nuestra rutina para buscar destinos desconocidos o elegir la mejor ruta cuando estamos entre el complicado tránsito.

¿Pero cómo llegamos a este desarrollo? ¿Cuándo inició todo? Aunque desde la antigüedad la literatura nos muestra el sueño del hombre por crear criaturas inteligentes a su semejanza (pensemos en Hefestos y sus estatuas móviles de oro dotadas de inteligencia que aparecen en la Iliada, por dar un ejemplo), los inicios de la IA no rebasan las siete décadas.

Al término de la Segunda Guerra Mundial, en la que jugó un papel decisivo para descifrar el código Enigma que contenía los mensajes criptados del ejército alemán, el matemático inglés Alan Turing construyó uno de los primeros computadores programables. Años después, en 1950, publicó un artículo que fue determinante para establecer las bases de la IA: “Computing Machinery and Intelligence”.

En ese trabajo, Turing propone una prueba para dictaminar si un sistema es inteligente, conocido a la postre como el Test de Turing. Este ejercicio consiste en lo siguiente: una persona interacciona, a la vez, con una computadora y con otro individuo a los que no ve. Si en ese lapso no logra identificar cuál de sus interlocutores es la máquina, el dispositivo artificial es considerado inteligente.

El segundo gran hito fundacional se dio un lustro después. Sucedió en 1956, en la histórica Conferencia de Dartmouth, en New Hampshire, Estados Unidos. Participaron en ella John McCarthy, Marvin Minsky, Claude Shannon, Herbert Simon y Allen Newell, todos figuras sobresalientes de la informática y, a la postre, ganadores del Premio Turing, el más prestigioso en computación, equivalente al Nobel en su especialidad.

Ahí acuñan el término de Inteligencia Artificial como “la disciplina dentro de la informática o la ingeniería que se ocupa del diseño de sistemas inteligentes”, refiriéndose a programas con las propiedades necesarias para realizar funciones equiparables a la inteligencia humana, estableciendo así las bases para su desarrollo.

En los años posteriores a la convención de Dartmouth se registran importantes avances. Uno de ellos, la creación de Eliza, el primer programa para procesar lenguaje y dialogar con los humanos, creado en 1965 por Joseph Weizenbaum en el Massachusetts Institute of Technology (MIT).

Fueron tiempos de gran entusiasmo por la tecnología en ciernes. Herbert Simon predijo que, “en veinte años, las máquinas serán capaces de hacer el trabajo de una persona”. Por su parte, en 1970, Marvin Minsky, en entrevista para la revista Life, arriesgó un pronóstico: que en un lapso de tres a ocho años “tendremos una máquina con la inteligencia general de un ser humano”. Pero la fe en la evolución casi instantánea de la inteligencia no biológica construyó su propia trampa. El prodigio no tuvo lugar en los plazos imaginados.

A principios de la década de los setenta, el Congreso estadounidense y el gobierno británico empezaron a desconfiar del frenesí por la IA, que no mostraba desarrollos prácticos. Aunado a ello, las circunstancias de la posguerra —inicio de la carrera armamentista y la batalla entre las potencias por la conquista del espacio— desviaron los recursos económicos al incremento del arsenal bélico (más armas y con mayor potencial destructivo) y a la construcción de naves para explorar el espacio fuera de la órbita terrestre.

A esta etapa se le conoce como “El invierno de la IA”. Situación que se repetirá a finales de los ochenta. Ambos periodos fueron provocados, principalmente, por el alto costo de las investigaciones y los resultados poco aplicables en la actividad económica.

Octavio Olvera

Reportero de la Dirección General de Divulgación de las Humanidades