Paradigmas de control

Fuente: PFC de Alejandro Sáez Castells (ETSII, Valencia, 2015).

Cibernética

La cibernética es el estudio interdisciplinario de la estructura de los sistemas reguladores. La cibernética está estrechamente vinculada a la teoría de control y a la teoría de sistemas. Tanto en sus orígenes como en su evolución, en la segunda mitad del siglo XX, la cibernética es igualmente aplicable a los sistemas físicos y sociales. Los sistemas complejos afectan su ambiente externo y luego se adaptan a él. En términos técnicos, se centra en funciones de control y comunicación: ambos fenómenos externos e internos del/al sistema. Esta capacidad es natural en los organismos vivos y se ha imitado en máquinas y organizaciones. Especial atención se presta a la retroalimentación y sus conceptos derivados.
La cibernética es una ciencia, nacida hacia 1942 e impulsada inicialmente por Norbert Wiener y Arturo Rosenblueth Stearns que tiene como objeto “el control y comunicación en el animal y en la máquina” o “desarrollar un lenguaje y técnicas que nos permitirán abordar el problema del control y la comunicación en general”. En 1950, Ben Laposky, un matemático de Iowa, creó los oscilones o abstracciones electrónicas por medio de un ordenador analógico: se considera esta posibilidad de manipular ondas y de registrarlas electrónicamente como el despertar de lo que habría de ser denominado computer graphics y, luego, computer art e infoarte. También, durante la década del cincuenta,William Ross Ashby propone teorías relacionadas con la inteligencia artificial.
En definitiva, la cibernética es la aplicación de la teoría de control a sistemas complejos. Un controlador (pudiendo ser o bien una función interna o un observador humano) compara el estado actual del sistema en el instante t con el estado deseado del sistema en dicho instante, la diferencia obtenida será el error que debe ser minimizado mediante el control.
La función de la cibernética es definir la función de control(con todas las señales de entradas y salidas, además de los retardos y las posibles perturbaciones) de tal forma que el sistema responda adecuadamente a una estimulación sensorial determinada.

Enfoque Funcional

El ciclo de sensorización-procesamiento-acción (ver figura siguiente) es una extensión de la teoría cibernética.
Mientras que en la cibernética el objetivo es minimizar el error de control de un sistema, en el ciclo de sensorización-procesamiento-acción se utiliza una definición más general del error, siendo el objetivo del ciclo, una vez más, minimizar dicho error. Se podría decir que funciona de forma similar a como lo hace el filtro del café en una cafetera: las señales sensoriales entran al sistema por la parte superior, se van filtrando al pasar por diversas capas de control, cuyo objetivo es minimizar las discrepancias entre el comportamiento observado y el deseado, para finalmente emerger transformadas en acciones de control en la parte inferior. El ciclo es repetido de forma continua, y si las capas de control que aparecen en mitad del ciclo son las apropiadas, el resultado total del proceso será un comportamiento inteligente.

diagrama_funcional

En la figura anterior, el sistema de control está descompuesto en cinco módulos funcionales. El primero de ellos procesa los datos recibidos por los sensores del robot (pre-procesamiento de la señal de los sensores). Los datos pre-procesados son entonces usados para, o bien construir o actualizar el modelo interno del entorno, o bien para compararlo con un modelo previo existente del medio para su clasificación. Dicho modelo es el criterio mediante el cual los datos son evaluados y la base de todas las decisiones de control.

El tercer módulo, la planificación, usa el modelo del mundo y la percepción actual para decidir un plan de acción. Es importante darse cuenta aquí de que esta planificación está basada en la naturaleza del mundo asumida por el robot (el modelo del robot, que es una representación generalizada y abstracta del mundo real).
Una vez se han generado una serie de acciones, el cuarto y quinto módulo ejecutan las acciones mediante un control de los actuadores del robot (por ejemplo motores). Este proceso de sensorización-procesamiento-acción es repetido de forma continua hasta que el objetivo principal del robot se haya alcanzado.
Construir una representación del mundo y diseñar una lista de acciones para conseguir el objetivo (planificación) son problemas clásicos de la inteligencia artificial (AI). Por tanto, de acuerdo con la descomposición funcional de la figura anterior, la inteligencia artificial puede ser vista como una parte de la robótica. Para construir un robot con comportamiento inteligente, solamente es necesario añadir sensores y actuadores a un sistema con inteligencia artificial. Esto es: Robot inteligente = sistema clásico de inteligencia artificial + ingeniería correcta.
El planteamiento funcional fue el paradigma fundamental de la mayoría de los primeros trabajos en robots móviles. No obstante, a lo largo de la década de 1980, esta visión (robótica inteligente como la unión de una correcta ingeniería y clásica inteligencia artificial simbólica) fue recibiendo más y más comentarios críticos, por las razones que a continuación se exponen.

En primer lugar, un sistema funcional es extremadamente frágil. Si cualquiera de los módulos falla, entonces el sistema completo fallará. El problema principal es la interfaz entre los sensores y el módulo de representación, que es el responsable de construir el modelo del mundo. El robot debe ser capaz de decidir qué necesita ser representado en dicho modelo y de qué forma. Un modelo es usado por toda una serie de propósitos diferentes. Es necesario para representar el entorno de tal forma que el robot sea capaz de moverse sin colisiones y, ya que el robot tiene una tarea
particular que realizar, la representación debe incluir toda la información necesaria para desarrollar un plan. El punto crucial es que el módulo de planificación sólo se refiere al modelo del mundo, no pudiendo acceder a los sensores.
Podría darse fácilmente el caso en el cual los sensores detectaran un objeto que podría ser relevante para el planificador, pero que no fuera representado en el modelo del mundo, y que, por tanto pudiera no ser tenido en cuenta. Por otro lado demasiado detalle en la representación del mundo da lugar a un aumento del tiempo necesario para construirlo y mantenerlo. Un tiempo de procesamiento corto es necesario en un entorno dinámico, ya que no es raro que el medio
cambie mientras que el programa de planificación está diseñando un plan basado en la actualización previa del mapa. Mantener un modelo actualizado es costoso desde el punto de vista computacional. Una gran cantidad de procesamiento es invertido simplemente en el mantenimiento del modelo. Parece ser más sensato que el robot respondiera inmediatamente a los cambios actuales del mundo y, aunque el planificador pudiera tener en cuenta varios objetivos, usar diferentes comportamientos fundamentales del robot para su control. Expresado de una forma diferente, la aproximación funcional no refleja de forma adecuada la necesidad del robot de una reacción rápida. Además, cada vez está menos claro que el comportamiento inteligente de un robot pueda ser conseguido mediante una manipulación simbólica en un sistema físico simbólico, sustentado sobre la base de un robot móvil ingenierilmente bien diseñado y construido. La cuestión relevante es si el comportamiento inteligente es el resultado de una manipulación simbólica o si todavía falta algún ingrediente.

Poco a poco fueron apareciendo alternativas a la aproximación funcional, así como un gran número de críticas a la misma. Una de dichas críticas es la conocida como problema del conocimiento (grounding problem). El problema del conocimiento simbólico expresado por Stevan Harnd, establece que el comportamiento, aunque interpretable como manejado por leyes, no tiene por qué ser gobernado por reglas simbólicas, y que la mera manipulación de símbolos no es suficiente para llegar al conocimiento. En su lugar, los símbolos tienen que ser integrados en alguna entidad con significado. En otras palabras: los símbolos por sí solos son carentes de significado, es su efecto físico en el robot el que es relevante para el funcionamiento del mismo (el alguien llame a un objeto para sentarse “silla” o “mesa” realmente no importa, el significado de cada palabra está definido por su conexión con los objetos físicos en el mundo real). El problema del conocimiento es un verdadero desafío para el control basado en modelos simbólicos del mundo. Dicha teoría afirma que los símbolos por sí mismos son carentes de significado, y como consecuencia cualquier razonamiento basado en símbolos es por tanto también sin sentido.

Basados en el Comportamiento:

Fundamentada en las objeciones a la aproximación funcional mencionadas previamente (la potencial falta de significado de los símbolos, fragilidad debida a procesos de razonamiento secuenciales encadenados, complejidad computacional a la hora de elaborar los modelos del mundo), la comunidad de investigadores trataron de desarrollar paradigmas de control que pudieran operar sin representaciones simbólicas, que tuvieran un nexo más firme entre percepción y acción, siendo además computacionalmente menos costosos. No obstante, si la complejidad era reducida en estos niveles, esa “pequeña inteligencia” tendría que venir de algún otro sitio. Ese “otro sitio” descansa en la forma de interacción entre los diferentes procesos, dando lugar al también llamado “fenómeno emergente” o “efectos sinérgicos”, en el que el resultado final es algo más que la suma de las acciones individuales por separado.

comportamientos
Un argumento a favor de la robótica basada en el comportamiento es que la representación simbólica es una carga innecesaria. Son difíciles de obtener, difíciles de mantener y sin fiabilidad. Como Brooks escribió: “La observación principal es que el mundo real es el mejor modelo de sí mismo. Siempre está perfectamente actualizado. Siempre contiene cada detalle que necesita ser conocido. El truco es medir adecuadamente y con la suficiente frecuencia.”

Por otro lado, el “efecto filtro” de la aproximación funcional es evitada y en su lugar se emplea una estructura de control en paralelo, en lugar de una en serie. Aquí, la tarea de control total es descompuesta en “comportamientos de consecución de tareas” que actúan en paralelo. Cada módulo de comportamiento implementa un comportamiento completo y funcional, en lugar de un único aspecto de una tarea de control total, y tiene acceso inmediato a los sensores y actuadores. La idea fundamental es que los comportamientos de consecución de tareas (módulos de comportamiento) operan de forma independiente, cada uno con respecto al resto y el comportamiento total del robot “emerge” por medio de su actuación conjunta: funcionalidad emergente. El comportamiento inteligente no es, por tanto, conseguido mediante el diseño de una estructura compleja y monolítica (descomposición funcional), sino produciendo juntos el tipo “correcto” de comportamientos simples, que generarán un comportamiento inteligente total por medio de su interacción, sin ningún agente sabiendo que está contribuyendo a una tarea en concreto, sino meramente siguiendo sus propias reglas. La relación con el mundo de los insectos se muestra aquí de forma evidente. Una hormiga no tiene un concepto sobre la colonia entera. En su lugar, parece que está siguiendo reglas simples y locales. El comportamiento global de una colonia de hormigas emerge del comportamiento de cada hormiga individual y de su interacción entre ellas.
La “arquitectura de premisa menor” (Subsumption Architecture, Brooks) es un ejemplo de esta aproximación al control robot. La siguiente figura muestra una descomposición de un control basado en el comportamiento según dicha arquitectura.

Subsumption_Architecture_Abstract_Diagram

Cada comportamiento del controlador es implementado de forma completamente independiente de cualquier otro comportamiento. En los primeros días de esta arquitectura, esto significaba que incluso cada comportamiento estaba implementado en tarjetas controladoras distintas. De esta forma la división conceptual entre comportamientos era manifestada físicamente.

La comunicación entre comportamientos está limitada al mínimo absoluto: un cable entre un nivel superior y un nivel inferior es usado para inhibir el comportamiento del nivel inferior. La aproximación basada en comportamientos tiene las siguientes ventajas:

  • El sistema soporta múltiples objetivos y es más eficiente. No hay herencia funcional entre diferentes capas: un nivel no llama a otro. Cada una puede trabajar sobre diferentes objetivos al tiempo, operando en paralelo. Esto tiene la ventaja de que cada capa puede responder individualmente a cambios en el entorno. No hay un módulo central de planificación que tenga que tener en cuenta todos los sub-objetivos. En otras palabras no es necesaria una estrategia de resolución de conflictos.
  • Los sistemas son fáciles de diseñar, de depurar y extender. El sistema de control es construido empezando por la capa más baja (que es la de evitar obstáculos). Esta capa es testeada. Si este nivel se comporta correctamente a continuación se van añadiendo más niveles. Las etapas superiores pueden producir información a las situadas por debajo pero no pueden influir en su comportamiento.
  • El sistema es robusto. Mientras que en la aproximación funcional el fallo de un módulo da lugar al fallo del sistema completo, en el modo basado en comportamiento el mal funcionamiento de una capa solo tiene una mínima influencia en el comportamiento del sistema global, ya que este es el resultado del funcionamiento conjunto de varias capas de control.

A pesar de las evidentes ventajas mostradas en este modelo, también existen limitaciones en su contra. El mayor argumento que ataca esta teoría es que es extremadamente difícil expresar la planificación. Un robot basado en comportamientos responde directamente a estímulos sensoriales, no tiene un estado interno de memoria y, por tanto, es imposible seguir externamente secuencias específicas de acciones. El problema es que el control basado en comportamiento hace muy difícil expresar planes tal y como los conocemos. No se sabe cual es la traducción de “Ve allí, busca esto, llévalo allí y finalmente barre el suelo”, ni incluso si dicha traducción existe. Este evidente problema de “traducción de tareas” es el que ha hecho que a pesar de las ventajas comentadas hacia el control basado en comportamientos, todavía hoy en día la teoría dominante y de mayor aplicación en robótica móvil sea la clásica de enfoque funcional.

Inteligencia Artificial

En ciencias de la computación se denomina inteligencia artificial (IA) a la capacidad de razonar de un agente no vivo. John McCarthy, acuñó el término en 1956, la definió: “Es la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes.”:

  • Búsqueda del estado requerido en el conjunto de los estados producidos por las acciones posibles.
  • Algoritmos genéticos (análogo al proceso de evolución de las cadenas de ADN).
  • Redes neuronales artificiales (análogo al funcionamiento físico del cerebro de animales y humanos).
  • Razonamiento mediante una lógica formal análogo al pensamiento abstracto humano.
  • También existen distintos tipos de percepciones y acciones, pueden ser obtenidas y producidas, respectivamente por sensores físicos y sensores mecánicos en máquinas, pulsos eléctricos u ópticos en computadoras, tanto como por entradas y salidas de bits de un software y su entorno software.

Varios ejemplos se encuentran en el área de control de sistemas, planificación automática, la habilidad de responder a diagnósticos y a consultas de los consumidores, reconocimiento de escritura, reconocimiento del habla y reconocimiento de patrones. Los sistemas de IA actualmente son parte de la rutina en campos como economía, medicina, ingeniería y la milicia, y se ha usado en gran variedad de aplicaciones de software, juegos de estrategia como ajedrez de computador y otros videojuegos.

El campo de la inteligencia artificial puede dividirse en varias categorías de estudio y aplicación, como son:

  • Sistemas que piensan como humanos: Estos sistemas tratan de emular el pensamiento humano; por ejemplo las redes neuronales artificiales. La automatización de actividades que vinculamos con procesos de pensamiento humano, actividades como la Toma de decisiones, resolución de problemas, aprendizaje.
  • Sistemas que actúan como humanos: Estos sistemas tratan de actuar como humanos; es decir, imitan el comportamiento humano; por ejemplo la robótica. El estudio de cómo lograr que los computadores realicen tareas que, de momento, los humanos hacen mejor.
  • Sistemas que piensan racionalmente: Es decir, con lógica (idealmente), tratan de imitar o emular el pensamiento lógico racional del ser humano; por ejemplo los sistemas expertos. El estudio de los cálculos que hacen posible percibir, razonar y actuar.
  • Sistemas que actúan racionalmente (idealmente): Tratan de emular de forma racional el comportamiento humano; por ejemplo los agentes inteligentes .Está relacionado con conductas inteligentes en artefactos.

La inteligencia artificial es, actualmente, un estudio en auge y con una gran cantidad de aplicaciones en el mundo de la robótica.

 

Sidebar