Busca monografías, tesis y trabajos de investigación

Buscar en Internet 

       Revistas   Cursos   Biografías

rss feeds RSS / /

Incertidumbre

Resumen: Axiomas probabilidad. Dominio incierto. Inferencia probabilística. Redes creencia múltiples conexiones. Utilidad. Preferencia. Decisiones dinámicas.

Publicación enviada por Ilustrados




 


Como Actuar Ante la Incertidumbre

Como Actuar Ante la Incertidumbre

Una de las limitaciones de la lógica de primer orden y, por lo tanto, del método del agente lógico, es que los agentes casi nunca tienen acceso a toda la verdad acerca de su ambiente.

El empleo de la lógica de primer orden tiene sus limitantes:

·                   

Pereza: el listar el conjunto completo de antecedentes o consecuentes necesarios para garantizar una regla sin excepciones implica demasiado trabajo, y también seria muy difícil emplear las enormes resultantes.

·                   

Ignorancia Teórica: las ciencias no cuentan aun con una teoría completa sobre todas las cosas.

·                   

Ignorancia Practica: Aun conociendo todas las reglas, cuando no es posible realizar todas las pruebas que sea necesario hacer, albergaríamos ciertas dudas.

Lo que el conocimiento del agente puede ofrecer es solo un grado de creencia. Nuestra herramienta principal para manejar los grados de creencia será la teoría de probabilidad. La probabilidad es una forma de resumir la incertidumbre originada en nuestra pereza e ignorancia.

Las preferencias, expresadas en función de las utilidades se combinan con la probabilidad en la teoría general de decisiones racionales conocida como teoría de decisiones. La idea básica de la teoría de decisiones es que un agente será racional si y solo si elige una acción que le produzca la mayor de las utilidades esperadas, prorratea esta tomando en cuenta todos los resultados posibles de la acción.

Los Axiomas de Probabilidad

·        

Todas las probabilidades están comprendidas entre 0 y 1.

·         La probabilidad de las proposiciones necesariamente verdaderas es de 1, y de las necesariamente falsas es de 0.

·         La probabilidad de una disyunción se expresa de la siguiente manera:

P(A V B) = P(A) P(B) - P(A


 B)

¿Cuál es el Origen de las Probabilidades?

Este debate sobre el origen tiene varios puntos de vista:

·                   

Frecuentista: este punto de vista dice que los números solo pueden originarse en experimentos

·                   

Objetivista: las probabilidades son aspectos reales del universo.

·                   

Subjetivista: considera a las probabilidades como una manera de caracterizar las creencias de un agente, y no les concede ninguna significación externa.

SISTEMAS DE RAZONAMIENTO PROBABILISTICPO

 

Representación del Conocimiento en un Dominio Incierto.

Para representar la dependencia que existe entre determinadas variables se utiliza una estructura de datos conocida como red de creencia. Esta red es una grafica en la que se cumple lo siguiente:

·                   

Los nodos de la red están formados por un conjunto de variables aleatorias.

·                   

Cada par de nodos se conecta entre sí mediante un conjunto de enlaces o flechas. El significado implícito de una flecha que vaya del nodo X al nodo Y es que X ejerce una influencia directa en Y.

·                   

Por cada nodo hay una tabla de probabilidad condicional que sirve para cuantificar los efectos de los padres sobre el nodo. Los padres de un nodo son aquellos nodos cuyas flechas apuntan hacia este.

·                   

La grafica no tiene ciclos dirigidos.

La Naturaleza de las Inferencias Probabilísticas

Las redes de creencias no se limitan a un razonamiento de diagnostica; de Hecho, efectúan cuatro tipos de inferencia:

·                   

Inferencias por diagnostico: de los efectos a las causas.

·                   

Inferencias causales: de las causas a los efectos.

·                   

Inferencias Ínter causales: entre las causas de un efecto comun.

·                   

Inferencias mixtas: combinación de una o varias de las inferencias anteriores.

Las redes de creencia pueden emplearse también en los siguientes casos:

·                   

Para tomar decisiones con base en las probabilidades de la red y en los recursos del agente.

·                   

Para saber que tantas más variables de evidencia hay que observar para poder conseguir información útil.

·                   

Para llevar a cabo un análisis de sensibilidad con el fin de saber cuales son los aspectos del modelo que tiene mas pero en las probabilidades de las variables de consulta.

·                   

Para explicar al usuario los resultados obtenidos mediante inferencia probabilística.

La Inferencia en Redes de Creencia con Múltiples Conexiones

Una grafica de conexión múltiple es aquella en la que dos nodos están conectados mediante mas de una ruta. Esto ocurre cuando hay 2 o más causas posibles de una variable y las causas tienen un ancestro en común.

Para evaluar redes con varia conexiones de recurre a 3 tipos básicos de algoritmos:

·                   

Método de agrupamiento: transforman la red en un poliarbol probabilista equivalente, mediante la fusion de los nodos que estorban.

·                   

Método de condicionamiento: efectúan la transformación al dar valores concretos a las variables y, luego, evaluando un poliarbol por cada concretización realizada.

·                   

Método de Simulación Estocástica: utilizan una red para producir una gran cantidad de modelos concretos de dominio congruentes con la distribución de la red.

TOMA DE DECISIONES SENCILLAS

Bases de la teoría de la Utilidad

El principio de la Máxima Utilidad Esperada (MUE) afirma que el agente debe elegir aquellas acciones que permitan obtener el máximo de la utilidad esperada del agente. En cierto sentido, podrá considerarse que el principio de la MUE define enteramente la IA. Todo lo que tiene que hacer el agente inteligente es calcular las diversas cantidades implicadas, maximizar sus acciones y eso es todo. Lo cual no quiere decir que basta con la definición para resolver los problemas de IA.

Si bien el principio de la MUE determina la acción que conviene ejecutar en determinado problema de decisión, los cálculos respectivos pueden ser prohibitivos, y si hay ocasiones en las que es imposible lograr la mera formulación del problema. Para saber el estado inicial del mundo se requiere de percepciones, aprendizaje, representación del conocimiento e inferencia. Para calcularlo se necesito contar con un completo modelo causal del mundo y, como se explica, una actualización completa de las redes de creencia. El calcular la utilidad de los estados a menudo requiere de una búsqueda o de una planificación, ya que el agente no sabe que tan bueno es un estado hasta no saber a donde le permitirá llegar dicho estado. Es decir, la teoría de decisiones no es la panacea para todos los problemas de IA, aunque si sirve como marco de referencia que permite ver como encajan los diversos elementos constituidos de un sistema IA.

Restricciones que se Aplican a Preferencias Racionales

Las seis siguientes restricciones son conocidas como axiomas de la teoría de la utilidad:

·                   

Posibilidad de Ordenación: dados 2 estados, el agente debe preferir uno de ambos o valorar ambos como igualmente preferibles.

·                   

Transitividad: dados 3 estados, si el agente prefiere A en vez de B, y prefiere B en vez de C entonces preferiría a A en vez de C.

·                   

Continuidad: si en grado de preferencia un estado B esta entre A y C, existe una probabilidad P de que el agente racional le sea indiferente obtener con toda seguridad B y obtener la lotería que produce A.

·                   

Posibilidad de sustitución: Al agente le es indiferente la obtención de 2 loterías A y B al agente también le será indiferente la obtención de 2 loterías más complejas que sean lo mismo excepto que una de ellas B este remplazado por A.

·                   

Monotonicidad: si hay 2 loterías cuyos resultados son los mismos A y B. Si el agente prefiere A sobre B también debe preferir la lotería que ofrece mayor probabilidad para A.

·                   

Posibilidad de descomposición: las loterías compuestas pueden reducirse a loterías más simples mediante la aplicación de las leyes de la probabilidad

Estructura de Preferencia y la Utilidad de Atributos Múltiples

Preferencias sin incertidumbre:

El caso en el que no existe incertidumbre en cuanto al resultado de las acciones, y que lo único que ocupa la atención son las diversas preferencias entre uno u oro resultado concreto. En un caso así, a la regularidad básica que caracteriza a la estructura de preferencias se le denomina independencia de las preferencias.

Preferencias bajo condiciones de incertidumbre:

Si en el dominio existe incertidumbre, no bastara con determinar el valor de las funciones, sino que será necesario también considerar la estructura de las preferencias entre las loterías y comprender las propiedades resultantes en las funciones de utilidad. Como las matemáticas respectivas pueden resultar bastante complejas, representaremos algunos de los resultados más importantes para dar una idea de lo que puede realizarse.

Redes de Decisión

Se le conoce también como diagrama de influencia. En las redes de decisión se combinan las redes de creencia con tipos adicionales de nodos para acciones y utilidades.

Una red de decisión esta representada la información sobre el estado actual del agente sus posibles acciones, el estado que resultara de las acciones que emprenda el agente así como la utilidad de dicho estado.

Los tres nodos empleados son:

·                   

Nodos Aleatorios (óvalos): representan variables aleatorias, exactamente como en el caso de redes de creencia. A cada nodo le corresponde una tabla de probabilidad condicional.

·                   

Nodos de Decisión (rectángulos): representan puntos para los cuales puede decidirse que acción emprender.

·                   

Nodos de Utilidad (rombos): representan la función de utilidad del agente. Los padres del nodo de utilidad son aquellas variables que describen el estado resultado que afecta directamente la utilidad. La tabla asociada es una fabulación directa de la utilidad.

TOMA DE DICISIONES COMPLEJAS

Las decisiones complejas se deben tomar en el caso de los problemas de decisión secuencial, en donde la utilidad del agente depende de una secuencia de decisiones. Este tipo de problemas, que implican utilidades, incertidumbre y percepción, constituye una generalización de los problemas de búsqueda y planificación.

Empezaremos este análisis con el caso de los ambientes accesibles. En estos, las percepciones del agente en cada paso le permitirán identificar cual es el estado en que se encuentra.

El total de correlaciones entre estados y acciones se conoce como política. Con base en esta, puede calcularse la utilidad esperada de las posibles historias ambientales producidas por dicha política. El problema, por tanto, no reside en calcular la secuencia de acciones optima, sino en calcular la política optima: es decir, aquella que produce la mayor utilidad esperada.

Una vez calculada una política con base en el modelo de transición y en la función de utilidad, es cuestión trivial el decidir que hacer. La política representa de manera explicita la función del agente, y por tanto constituye la descripción de un sencillo agente reflejo, calculada con base en la información utilizada para un agente basado en la utilidad.

El caso de los ambientes inaccesibles, la percepción no aporta suficiente información para determinar el estado o las probabilidades de la transición correspondiente. En la literatura de la investigación de operaciones a este tipo de problemas se le conoce como problemas de decisión de Markov parcialmente observables o PDMPO.

La forma adecuada de resolver los PDMPO consiste en calcular una distribución de probabilidades que abarque todos los estados posibles, tomando en cuenta todas las percepciones anteriores, y basar las decisiones en esta distribución.

Interacción de Valores

Un algoritmo que sirve para calcular una política optima conocida como interacción de valores. La idea fundamental consiste en calcular la utilidad de cada uno de los estados y con base en estas utilidades, seleccionar una acción optima para cada uno de ellos.

Lo difícil en el calculo es que no sabemos a que nos conducirá una acción determinada.

Interación de Política

El algoritmo de interación de política funciona escogiendo una política y luego calculando la utilidad de cada estado con base en dicha política. Luego actualiza la política correspondiente a cada estado utilizando las utilidades de los estados sucesores, lo que se repite hasta que es estabilizada la política. El paso en el cual los valores de la utilidad son definidos a partir de una determinada política es conocida como determinación de valor.

La idea básica en que se apoya la interación de política, comparada con la interación de valores, es que la determinación de valores debe ser más sencilla que la interación de valores, puesto que la acción correspondiente a cada estado es definida por la política.

Redes de Creencia Dinámicas

Esta es una red que cuenta con un nodo por cada estado y variable de sensor, durante cada etapa temporal. En el caso de una red real de un problema determinado, cada uno de los nodos de estado y percepción se remplazaran mediante varios nodos, realizando las conexiones adecuadas.

Las fases de predicción y estimación se implantan como operaciones de la red de creencia; El ciclo del proceso funciona de la siguiente manera:

·                   

Predicción

·                   

Eliminación

·                   

Estimación

Mediante este procedimiento se implanta el algoritmo formal, utilizando la maquinaria de inferencia de la red de creencia en todos los cálculos.

Redes de Decisión Dinámicas

Para convertir redes de creencia dinámica en redes de decisión dinámicas basta con añadir nodos de utilidad y nodos de decisión correspondientes a las acciones.

El problema de decisión implica calcular aquel valor que maximice la utilidad esperada del agente a través de la secuencia de estado restante. Además de los nodos de decisión para los pasos de tiempo actual y futuros, nótese que en la red esta también la decisión anterior como nodo de evidencia.

El algoritmo de evaluación de las RDD básicamente es el mismo que el de las redes de decisión comunes. Para el peor de los casos la RDD calcula la utilidad esperada de las secuencias de decisión fijando los nodos de decisión y aplicando inferencia probabilística para calcular el estado final.

Anteriormente se manejo esto mediante el calculo de una política mediante la que se establece una relación con cada estado. En el caso de la RDD, no existe esta posibilidad, puesto que los estados son representados implícitamente mediante el conjunto de variables de estado. Por otra parte en los ambientes inaccesibles, el agente de todas maneras ignora en que estado se encuentra. Lo que hay que hacer es considerar cada una de las posibles concretizaciones de las futuras variables de sensor así como también toda posible concretización de las variables de decisión futuras.

Al evaluar una acción, hay que tomar en cuenta no solo su efecto sobre el ambiente, sino también sobre el estado interno del agente a través de las percepciones que genera; Tales consideraciones permiten al agente ver el valor de mirar antes de saltar, a la búsqueda de claves perdidas y así sucesivamente.



Valora este artículo 5   4   3   2   1

Comparte  Enviar a facebook Facebook   Enviar a menéame Menéame   Digg   Añadir a del.icio.us Delicious   Enviar a Technorati Technorati   Enviar a Twitter Twitter
Artículos Destacados