Los “agentes inteligentes” son parte de la IA

La Inteligencia Artificial ha tenido un vínculo estrecho con diversas áreas del conocimiento como la psicología, la neurofisiología y la biología. Para probar las teorías que han surgido, las computadoras brindan la rapidez necesaria para demostrar dichos modelos.

| Comentario de Esther Martínez

Con la evolución de la IA se han integrado nuevas áreas de estudio. Entre las aplicaciones más conocidas se encuentran las redes neuronales, la robótica, el aprendizaje automático o el reconocimiento de patrones; sin embargo, desde hace algunos años han surgido otras que integran a la sociología y hasta la etología. Una de ellas es lo que se conoce como la “teoría de agentes inteligentes”.

El surgimiento de los agentes en IA se dio a partir de la década de 1980, con la Inteligencia Artificial Distribuida (DAI por sus siglas en inglés) que trataba de construir y explicar artefactos inteligentes que sensan y actúan dentro de un ambiente definido, tal como lo presentaron Stuart Russell y Meter Norvig. De la misma manera, el trabajo de Carl Hewitt y Baker con relación al “modelo de actores” contribuyó a la definición de agentes en este periodo, dando un sustento conceptual necesario para su modelado inicial.

Al mismo tiempo, el desarrollo de la IA “basada en el comportamiento” —corriente iniciada por Maes y Brooks, investigadores del MIT—, relacionaba algunos conceptos como situacionalidad, reactividad y autonomía con los agentes.

Un agente inteligente basado en software es una entidad que exhibe un comportamiento autónomo mientras está situado en un sistema de información que puede ser computacional.

En su libro Inteligencia artificial. Un enfoque moderno, Russell y Norvig presentan la siguiente definición: “Un agente es un sistema computacional persistente, capaz de actuar autónomamente para encontrar sus objetivos o metas, cuando está situado en un ambiente”.

Bajo esta definición, un agente es visto como una serie de entradas del ambiente donde está situado, y produce acciones como salida en respuesta a su percepción. Estas acciones modifican el ambiente en una interacción que suele ser continua e indeterminada, lo que refleja la persistencia.

Un ambiente es el espacio donde un agente, o grupo de ellos, está situado. Ese ambiente no tiene que ser necesariamente físico; podría ser un sistema operativo o la World Wide Web. Lo realmente importante es la interacción del agente con su ambiente a través de la acción y la percepción. Algunas propiedades de los posibles ambientes están dadas en los términos de accesibilidad, determinismo, periodicidad, dinamismo y continuidad; estas propiedades caracterizan el ambiente de manera cualitativa; no son exclusivas y pueden existir combinaciones entre ellas.

Un agente es un sistema computacional persistente, capaz de actuar autónomamente para encontrar sus objetivos o metas, cuando está situado en un ambiente

Dadas estas propiedades, los ambientes que tradicionalmente han sido estudiados por la ia han sido también identificados y clasificados. Entre dichos ambientes, se encuentran el ajedrez, los sistemas de análisis de imágenes, los tutores, los brazos robóticos o los sistemas de diagnóstico.

Si se analiza este punto, se deduce que un agente puede estar situado en cualquiera de los ambientes mencionados o en otro, con la restricción de que sean identificadas las propiedades de dichos ambientes y que cada uno requiera que el agente esté acondicionado con diferentes programas para que interactúe efectivamente.

La arquitectura de un agente es la organización de los componentes del mismo; es decir, su estructura de información, las operaciones que puede hacer, el control que existe entre las acciones que estén programadas, etcétera. Así, encontramos que hasta el agente más sencillo requiere de un análisis y una abstracción detallada.

Dentro de las arquitecturas que actualmente se manejan en IA encontramos que un agente debe estar dotado de ciertas capacidades, entre las que encontramos la percepción —una función que permite que el agente conozca su ambiente— y una función de acción, que le permitirá decidir qué debe hacer.

Los robots y otros agentes situados en un mundo físico pueden emplear hardware para realizar la función de percepción, ya sea a través de videocámaras, sensores de infrarrojos o sonares; mientras que un agente basado en un ambiente virtual, como puede ser un software, puede hacer uso de instrucciones y programas asociados al sistema operativo en el que interactúa.

Existen autores, como Jenny Fooner, que sostienen que para considerar a un agente inteligente, éste debe exhibir algún tipo particular de comportamiento, entre los que sobresale el comportamiento autónomo.

En términos generales, autonomía significa “control de sí mismo”; es la capacidad de actuar libre de fuerzas opresivas internas y externas. En el contexto de los agentes, la autonomía hace énfasis en que actúan a nuestro favor, pero sin la intervención directa de un humano u otra , y tiene el control sobre sus propios estados internos y sus acciones.

Así, podemos decir que un agente es una entidad que actúa y, para hacerlo, debe iniciar su acción en función de ejercer su poder para hacerlo. Esto es muy parecido a ejercer su autonomía.

Sin embargo, la relación entre autonomía y habilidad social es muy sutil. Un agente no ejerce su poder de actuar sin haber sido influido por su historia pasada; pero lo que se debe tener claro es que las influencias no son lo que deben determinar su acción. Algunos investigadores establecen la raíz y presentan modelos para determinar la eficiencia de estas acciones.

En el contexto de la IA, Allen Newell, en su estudio Unified Theories of Cognition, concilia la autonomía con una habilidad social:

Los humanos deben vivir autónomamente dentro de una comunidad social. Esta restricción es un poco impar, porque es bimodal. Un aspecto de la autonomía es mayor capacidad para ser libre de dependencias del ambiente. Cuando nosotros consideramos lo lejos de la autonomía que están las computadoras actuales y los robots, la restricción parece hablar en un camino considerable para incrementar las capacidades. Pero, por otra parte, mucho de lo que hemos aprendido de la etología y la teoría social habla de la dependencia de los individuos dentro de las comunidades donde se elevan y residen. Las capacidades adicionales para la autonomía de bajo nivel no niegan la extensión necesaria de la socialización y el arraigo en una estructura de soporte social. Si nos alejan de nuestras comunidades, nos convertimos en ineptos y disfuncionales en muchos caminos.

Los agentes se construyen para que hagan tareas por nosotros, los usuarios, y usualmente les decimos qué esperamos de ellos. Sin embargo, si lo hiciéramos de la manera tradicional, empleando programas computacionales con instrucciones ordenadas y precisas, coartaríamos su autonomía. Es por ello que, para trabajar con agentes, es necesario trabajar con metas y funciones de utilidad, de esa manera ellos sabrán qué hacer y nosotros no les diremos cómo hacerlo.

Los agentes se construyen para que hagan tareas por nosotros, los usuarios, y usualmente les decimos qué esperamos de ellos.

Las metas, en el sentido que originalmente se manejan en IA, son situaciones deseables para un agente, y definidas como un cuerpo de conocimiento sobre el ambiente. La definición de una meta está indicada por el espacio de estados de problemas, que se compone de:

Estado inicial: Estado dentro del ambiente donde el agente se encuentra en un momento inicial.

Operadores: Conjunto de posibles acciones a realizar por el agente.

Espacio de Estados: Conjunto de todos los estados posibles

Prueba Meta: Es una función que determina si un estado satisface el objetivo del agente.

Con todos estos elementos se puede determinar si un agente cumple con las características mínimas para las que fue creado.

Hasta aquí sólo se presenta la descripción simple de lo que es un agente en los términos que actualmente se emplean en IA. Así, se puede inferir que un agente cuenta con un ambiente, una arquitectura, un comportamiento y metas. Toda la descripción de agentes se ha perfilado a ser una de las áreas de desarrollo y producción científica de IA.

Al integrar el concepto de agentes en IA se ha reformado el uso de términos de cognición humana y animal e, inclusive, robótica. Ahora se incluye la teoría de agentes para hacer modelos que históricamente se han resuelto con IA clásica. Este entorno de la teoría de agentes no está asociado intuitivamente con la vida física real; sin embargo, los modelos que están resultando de su estudio y aplicación son fácilmente interpretados para las sociedades vivas de nuestro planeta, sin tener que ser representados con robots físicos.

Los agentes tienen un marco teórico fundamentado en diversas ciencias. Su teoría ha apoyado con seriedad la investigación que se había visto desvirtuada al emplear la “inteligencia artificial” en toda la publicidad relacionada con robots y simulaciones de comportamiento exclusivamente humano, del que se han hecho innumerables obras de entretenimiento o, sencillamente, está abriendo nuevos temas de discusión ante la siempre controvertida IA.

icono-13junio

Esther Martínez

Facultad de Contaduría y Administración, UNAM
Search
Escucha el contenido

Descarga el número completo en versión PDF. Puedes leerlo en tus dispositivos o imprimirlo bajo demanda.
¡Forma tu colección!

SÍGUENOS