Inteligencia Artificial: inductiva, falible, reflejo de la humana

Escucha el contenido

En la ciencia y la vida cotidiana

La década de los sesenta del siglo XX fue la de los main frames, los grandes procesadores centrales a los que había que acudir o comunicarse remotamente como clientes pasivos. La década de los setenta fue de las “minicomputadoras” con sistemas más ligeros que se podían usar directamente; a través de ellas se pudo acceder a sistemas centrales más potentes. Los ochenta fueron los años de las computadoras personales y el internet, mientras que en los noventa aparece la web y los buscadores generales. Ya en la primera década de este siglo irrumpen los teléfonos celulares y dispositivos relacionados, así como las redes sociales. Actualmente, los sistemas se han hecho ubicuos y multifuncionales —con acceso a datos de manera masiva a través de interfaces naturales, como la voz y el video— y han permeado, prácticamente, todos los ámbitos de actividad humana.

Los avances de la IA, tanto del programa simbólico como el de redes neuronales, se han incorporado como parte de las tecnologías visibles e invisibles. Ejemplos de ello: las máquinas de traducción del lenguaje y las de reconocimiento visual de imágenes y videos (que se utilizan en sistemas de vigilancia o para reconocer y etiquetar personas en fotografías, lo mismo en aplicaciones de seguridad que en las redes sociales), los mecanismos de geolocalización y control, utilizados en los vehículos autónomos, o para el reconocimiento de voz y recuperación de información, como las que están disponibles en los “dispositivos inteligentes” como Siri y Alexa. Se encuentran también en las aplicaciones para producir textos y presentaciones: editores de textos, hojas de cálculo y programas tipo PowerPoint.

Las redes neuronales profundas se pueden pensar, asimismo, como un aproximador universal basado en datos para resolver problemas científicos de dimensiones múltiples y gran complejidad, cuyos modelos analíticos no existen o no son computables. Este aspecto tiene ya un impacto muy significativo en la física, la química, la biología, etcétera. Por ejemplo, los recientes desarrollos para predecir el desdoble en el espacio tridimensional de las proteínas repercutirán en el desarrollo de la medicina y la ingeniería de materiales, con grandes beneficios potenciales; o las prótesis mentales para que personas cuadripléjicas puedan expresarse de manera textual.

¿Cuánto de la ficción será posible en la realidad?

Probablemente, los avances científicos y tecnológicos que serán posibles gracias a la computación tendrán mucho más impacto en la vida real que los “robots inteligentes” que se muestran en las películas. La presencia de la IA es ubicua en la tecnología de computación y comunicaciones. Esta tendencia se acentuará a lo largo del presente siglo, y la percepción de que la IA es una realidad seguirá fortaleciéndose.

Si recordamos lo que se mencionó antes sobre la inteligencia no monotónica, no es de sorprender que haya muchos ejemplos de aplicaciones computacionales prácticas que implementan razonamientos no monotónicos, en especial las relacionadas con el control de agentes en contextos complejos. Estos razonamientos no deductivos son falibles, pero gran parte de la inteligencia que queremos reproducir artificialmente es una inteligencia falible. De lo contrario, nos quedaríamos sin los procesos diarios de inducción, analogía, cálculo probabilístico, manejo de generalidades, etcétera.

Estamos viviendo la mejor época, hasta ahora, de la IA. Pero, aun así, enfrentamos muchas carencias y peligros en la representación inteligente de la realidad.

Esta IA no monotónica puede equivocarse, pero también puede aprender de sus errores y autocorregirse. Puede bloquear las inferencias riesgosas o permitirlas, dependiendo del contexto en que se encuentre. Es una inteligencia contextual que refleja mejor la capacidad humana de aprender y adaptarse cuando razona y toma decisiones. Estos sistemas son desarrollados en todo el mundo. Por ejemplo, en el Instituto de Investigaciones en Matemáticas Aplicadas y en Sistemas (IIMAS) de la UNAM, se tiene un grupo de trabajo, el Grupo Golem, que desarrolla robots de servicio basados en IA e interacción humano-robot para asistir a sus usuarios humanos en actividades cotidianas. El robot Golem-III cuenta con un sistema de razonamiento y una base de conocimientos no monotónica.

Esta sofisticación de la IA ayuda a la inserción de sistemas computacionales en la vida diaria. Pero ello supone, inevitablemente, enfrentar problemas filosóficos, pues necesitamos análisis conceptual para tomar buenas decisiones y encarar dilemas de muy diversa índole: tanto la responsabilidad por los actos que despliega un programa en la Bolsa de Valores, como las operaciones que realice u omita un vehículo autónomo. El desarrollo de la IA, como el de toda inteligencia, conlleva problemas de estética, justicia, valores y epistemología, entre muchos otros, por no hablar de los aspectos éticos que atañen a diversas aplicaciones de la IA.

El desafío consiste, pues, en desarrollar versiones más afinadas y complejas sobre cómo pensar la inteligencia, en general, y la artificial, en particular. Sin tal sofisticación filosófica no podremos entender y aprovechar la relación entre inteligencia y empatía, o entre la inteligencia, la intensionalidad (con s) y la intencionalidad (con c).

Lógica y ética, claves del futuro

El programa conexionista y de redes neuronales ha tenido, al menos, tres ciclos de vida. Los dos primeros con su surgimiento, crecimiento, culminación y decadencia. El tercero, aún vigente, conocido como “redes neuronales profundas”, se encuentra en su cénit y ha logrado romper barreras que habían sido insuperables. Su éxito se debe, en parte, a la combinación de distintos elementos: el desarrollo de algoritmos de aprendizaje, conocidos desde el siglo pasado, pero que se han ampliado y perfeccionado; los datos masivos, indispensables para entrenar a las máquinas, que antes no se podían recopilar y ahora están disponibles gracias a internet, así como al desarrollo y disponibilidad de una gran variedad de dispositivos de sensado en las diferentes modalidades de la percepción que permiten monitorear y recolectar, de forma continua, la información que se genera en el entorno global. Finalmente, los desarrollos de hardware y software que permiten procesar, almacenar y transferir grandes cantidades de información de manera muy eficiente y a un costo muy bajo.

La IA guarda una estrecha relación con ramas de las humanidades como la literatura, la música, la lingüística, la psicología, el derecho, la sociología o la historia.

Estamos viviendo la mejor época, hasta ahora, de la IA. Pero, aun así, enfrentamos muchas carencias y peligros en la representación inteligente de la realidad.

Los impresionantes avances en el procesamiento de la información no deben cegarnos a los retos que todavía afrontamos. La meteorología, la economía y la medicina han logrado avances significativos sin poder predecir, con seguridad, cómo evolucionará nuestra situación el día de mañana; mucho menos, poder controlarla. Asimismo, se registran continuamente logros sorprendentes en la IA, pero sigue siendo muy difícil diseñar conductas inteligentes, como conversar en ambientes altamente complejos. Alan Turing no exageraba cuando decía que sostener una conversación inteligente sobre cualquier tema es un signo importante de inteligencia. Hay humanos que, a menudo, parecemos incapaces de superar esa prueba.

La IA guarda una estrecha relación con ramas de las humanidades como la literatura, la música, la lingüística, la psicología, el derecho, la sociología o la historia. Mucho menos conocida es su relación con las subdisciplinas filosóficas como la estética, la ontología, la antropología filosófica, la filosofía política y la epistemología. Abundaremos aquí, solamente, sobre dos puntos de contacto: la lógica y la ética.

Las humanidades son necesarias para conducir éticamente el avance de la inteligencia artificial

En el siglo XIX, las lógicas booleanas establecieron los fundamentos para los circuitos de las unidades centrales de procesamiento. Hace 90 años, el cálculo Lambda para el estudio de la recursión sentó las bases de lo que sería la programación funcional y el lenguaje por excelencia de la IA por muchas décadas: Lisp. Hace 60 años se desarrollaron las lógicas temporales, útiles para modelar la dinámica de los procesos computacionales. Las lógicas epistémicas afinaron los conceptos básicos para la programación en paralelo y la concurrencia de multiagentes que permiten desarrollar supercomputadoras y grandes redes de intercomunicación.

Por su parte, las lógicas difusas permitieron innumerables implementaciones tecnológicas para el control de procesos graduales. Hace 50 años la programación lógica facilitó el control de procesos de resolución y unificación, y desde hace cuatro décadas las lógicas no monotónicas han permitido entender mejor el papel de la herencia en programación por objetos o el supuesto de mundo cerrado en bancos de datos.

Respecto a la ética, la IA genera interrogantes importantes. Las aplicaciones de IA han facilitado las “cámaras de eco” y otras formas de manipulación de la opinión pública, han hecho que desaparezcan empleos o provocado la muerte de personas atropelladas por autos autónomos, han posibilitado el despliegue de robots militares que asesinan soldados aliados (no sólo enemigos) y que el Estado y las grandes corporaciones nos vigilen mejor.

Es un hecho que algunos sistemas de IA pueden tomar decisiones mejor informadas, pero eso mismo abre preguntas de gran calado: ¿es posible crear un sistema sin sesgos ni subjetividad? ¿Es posible, como pide la Declaración de Barcelona de 2017, que los nuevos métodos sean verificados antes de estar disponibles y que, cuando un sistema de IA tome una decisión, las personas afectadas puedan recibir una explicación sobre las razones que la sustentan? Finalmente, la más inquietante: ¿pueden tener derechos las máquinas inteligentes?

Esta última pregunta es conceptualmente importante y da lugar a opiniones discrepantes. Por ejemplo, el doctor Luis Pineda, coautor de este artículo, considera que los sistemas de IA no pueden tomar decisiones genuinas, ya que carecen de intencionalidad y, consecuentemente, de libre albedrío. Por lo mismo, piensa que las máquinas no pueden tener derechos. Las decisiones, realmente, están preprogramadas y/o precondicionadas. Los programadores no saben las consecuencias que siguen de los programas ya que, justamente, la limitante para los seres humanos es explorar el espacio de búsqueda y hacer cálculos complejos. Por ello, si una computadora “toma una decisión”, quien realmente la toma es el programador, aunque no sepa que la está tomando. Por ejemplo, los movimientos que hace un programa de ajedrez están predeterminados por el programa, aunque el programador no sepa ninguna de las jugadas que hará la máquina. Lo mismo para los programas que manejan vehículos autónomos o armas automáticas. El programa es una creación intelectual, como el arte, y no es bueno ni malo; la responsabilidad ética recae en quien lo utiliza en una situación particular.

El futuro de la IA es abierto y ambicioso, por lo que requerirá de nuestras mejores capacidades tecnológicas y humanísticas para desarrollarlo de manera ética y fructífera. La gran empresa de la IA ha contado desde sus inicios con las contribuciones de científicos y filósofos, artistas y literatos. En la conjunción de todos los recursos humanos a nuestro alcance residen nuestras mejores esperanzas de desarrollar inteligentemente una inteligencia artificial.


PARA CONTINUAR EXPLORANDO ESTOS TEMAS

l Si te interesa leer más sobre IA puedes consultar el libro de Luis A. Pineda Racionalidad computacional (México, Academia Mexicana de Computación, 2021, 252 pp.) en http://turing.iimas.unam.mx/~luis/cursos/IA2022-1/lecturas/Libro-Racionalidad.pdf. También es posible revisar su artículo “El modo de computación” (en https://arxiv.org/abs/1903.10559), en el que desarrolla su concepto de computación y la relación de ésta con la inteligencia natural y la IA.

l Si quieres consultar videos sobre el Grupo Golem del IIMAS, haz clic en los siguientes enlaces: https://www.youtube.com/user/golemiimas, o http://bit.ly/3Nsm4Az.

l Si es de tu interés profundizar sobre problemas filosóficos del razonamiento no monotónico, puedes leer los artículos de Raymundo Morado “Nuevos paradigmas de la inferencia racional”, en Carmen Trueba, comp. Racionalidad: Lenguaje, argumentación y acción, México, UAM/Plaza y Valdés, 2000, pp. 89-99; y “Problemas filosóficos de las lógicas no monotónicas”, en Raúl Orayen y Alberto Moretti, Enciclopedia Iberoamericana de Filosofía, vol. 27, Madrid, Editorial Trotta y Consejo Superior de Investigaciones Científicas, 2004, pp. 313-344.

l Si deseas explorar las cuestiones éticas relacionadas con la IA y la robótica, puedes leer el artículo en inglés de la Enciclopedia de filosofía, de la Universidad de Stanford, el cual aborda los principales temas de debate como la privacidad, la manipulación de la conducta, la opacidad, los sesgos, la interacción con humanos, la automatización industrial, los sistemas autónomos, la ética de las máquinas, los agentes morales artificiales y la singularidad. Consúltalo en este enlace: https://plato.stanford.edu/entries/ethics-ai.

icono-13junio

Luis A. Pineda y Raymundo Morado

Instituto de Investigaciones Filosóficas | Instituto de Investigaciones en Matemáticas Aplicadas