1. Intelligent Agents
Agentes Inteligentes
Universidad Técnica Particular de Loja
Advanced Technology Computing Group
Nelson Piedra, Janneth Chicaiza, María Belén Mora
C ATCG.UTPL
bnla
www.utpl.edu.ec
Computer Science School - Intelligence Artifitial Fundamentals 2007 Course
1
3. entorno
Agentes y su
entorno
actuadores
sensores
?
Un agente es cualquier cosa
agente
capaz de percibir su percepciones acciones
medioambiente con la ayuda
de sensores y actuar en ese
medio utilizando actuadores.
figura 1, agentes y su entorno
3
4. analogía...
órganos miembros
sensoriales para actuar
ojos, oídos,
AGENTE manos,
piel, nariz,
HUMANO piernas, boca
sinestesia
figura 1, agentes y su entorno
entradas componentes
sensoriales para actuar
presentación
tecleo, files, AGENTE monitor, envío
paquetes ROBOT paquetes
visitar:
http://es.wikipedia.org/wiki/Sentido
http://es.wikipedia.org/wiki/Sinestesia
4
5. hipótesis general: un agente puede
percibir sus propias acciones, pero no
siempre sus efectos
5
6. Un agente tomará una decisión en un
momento dado dependiendo de la
secuencia completa de percepciones
hasta ese instante
f (percepciones(acciones)) = comportamiento
Entorno
Acciones
Comportamiento
Función de
percepciones
6
7. f de caracterización externa
comportamiento
percepción a percepción b percepción c percepción n
acción a X X X
acción b X X
acción c X X
acción n X X
7
9. Función y Programa de
un Agente
• La función de un agente es una
descripción matemática abstracta.
8
10. Función y Programa de
un Agente
• La función de un agente es una
descripción matemática abstracta.
• El programa el agente es una
implementación completa, que se
ejecuta sobre la arquitectura del agente.
8
11. A B
Aspiradora percibe el
cuadrante en el que
está y si hay o no
suciedad.
figura 2, el mundo de la aspiradora
Elige entre moverse a
la izquierda, derecha,
aspirar la suciedad o
no hacer nada
figura 3, tabla parcial para el mundo de la aspiradora
9
12. A B
Aspiradora percibe el
cuadrante en el que
está y si hay o no
suciedad.
figura 2, el mundo de la aspiradora
Elige entre moverse a
[A, limpio] Derecha la izquierda, derecha,
aspirar la suciedad o
no hacer nada
figura 3, tabla parcial para el mundo de la aspiradora
9
13. A B
Aspiradora percibe el
cuadrante en el que
está y si hay o no
suciedad.
figura 2, el mundo de la aspiradora
Elige entre moverse a
[A, limpio] Derecha la izquierda, derecha,
aspirar la suciedad o
[A, sucio] Aspirar
no hacer nada
figura 3, tabla parcial para el mundo de la aspiradora
9
14. A B
Aspiradora percibe el
cuadrante en el que
está y si hay o no
suciedad.
figura 2, el mundo de la aspiradora
Elige entre moverse a
[A, limpio] Derecha la izquierda, derecha,
aspirar la suciedad o
[A, sucio] Aspirar
no hacer nada
[B, limpio] Izquierda
figura 3, tabla parcial para el mundo de la aspiradora
9
15. A B
Aspiradora percibe el
cuadrante en el que
está y si hay o no
suciedad.
figura 2, el mundo de la aspiradora
Elige entre moverse a
[A, limpio] Derecha la izquierda, derecha,
aspirar la suciedad o
[A, sucio] Aspirar
no hacer nada
[B, limpio] Izquierda
[B, sucio] Aspirar
figura 3, tabla parcial para el mundo de la aspiradora
9
16. A B
Aspiradora percibe el
cuadrante en el que
está y si hay o no
suciedad.
figura 2, el mundo de la aspiradora
Elige entre moverse a
[A, limpio] Derecha la izquierda, derecha,
aspirar la suciedad o
[A, sucio] Aspirar
no hacer nada
[B, limpio] Izquierda
[B, sucio] Aspirar
[A, limpio], [A, limpio] Derecha
figura 3, tabla parcial para el mundo de la aspiradora
9
17. A B
Aspiradora percibe el
cuadrante en el que
está y si hay o no
suciedad.
figura 2, el mundo de la aspiradora
Elige entre moverse a
[A, limpio] Derecha la izquierda, derecha,
aspirar la suciedad o
[A, sucio] Aspirar
no hacer nada
[B, limpio] Izquierda
[B, sucio] Aspirar
[A, limpio], [A, limpio] Derecha
[A, limpio], [A, sucio] Aspirar
figura 3, tabla parcial para el mundo de la aspiradora
9
18. A B
Aspiradora percibe el
cuadrante en el que
está y si hay o no
suciedad.
figura 2, el mundo de la aspiradora
Elige entre moverse a
[A, limpio] Derecha la izquierda, derecha,
aspirar la suciedad o
[A, sucio] Aspirar
no hacer nada
[B, limpio] Izquierda
[B, sucio] Aspirar
[A, limpio], [A, limpio] Derecha
[A, limpio], [A, sucio] Aspirar
[A, limpio], [A, limpio], [A, limpio] Derecha
figura 3, tabla parcial para el mundo de la aspiradora
9
19. A B
Aspiradora percibe el
cuadrante en el que
está y si hay o no
suciedad.
figura 2, el mundo de la aspiradora
Elige entre moverse a
[A, limpio] Derecha la izquierda, derecha,
aspirar la suciedad o
[A, sucio] Aspirar
no hacer nada
[B, limpio] Izquierda
[B, sucio] Aspirar
[A, limpio], [A, limpio] Derecha
[A, limpio], [A, sucio] Aspirar
[A, limpio], [A, limpio], [A, limpio] Derecha
[A, limpio], [A, limpio], [A, sucio] Aspirar
figura 3, tabla parcial para el mundo de la aspiradora
9
20. ¿Qué hace que un agente sea bueno o
malo, inteligente o estúpido?
10
23. Un agente racional es aquel que
hace lo correcto.
¿Qué es hacer los correcto?:
12
24. Un agente racional es aquel que
hace lo correcto.
¿Qué es hacer los correcto?:
Es obtener el mejor resultado; por tanto es
necesario medir el grado de éxito
12
25. Un agente racional es aquel que
hace lo correcto.
¿Qué es hacer los correcto?:
Es obtener el mejor resultado; por tanto es
necesario medir el grado de éxito
Las medidas de rendimiento incluyen los
criterios que determinan el éxito en el
comportamiento del agente.
12
26. Hay que contar con medidas de
rendimiento objetivas.
Se puede preguntar al agente por su
opinión subjetiva acerca de su propia
actuación, pero muchos agentes serían
incapaces de contestar, y otros podrían
engañarse a sí mismos.
La selección de medidas de
rendimiento no es siempre fácil.
13
27. ¿Qué es mejor, una vida
temeraria con altos y bajos, o
una existencia segura pero
aburrida?
14
28. ¿Qué es mejor, una economía en
la que todo el mundo es pobre
o una en la que unos son pobres
y otros ricos?
15
29. ¿Cuál es la mejor forma de
limpiar una casa: lento pero
bien, o rápido y mediocre?
16
32. Racionalidad, depende de:
Medida de
Rendimiento
que define criterio
de éxito
Conocimiento
del medio
acumulado por el
agente
17
33. Racionalidad, depende de:
Medida de
Rendimiento
que define criterio
de éxito
Conocimiento
del medio
acumulado por el
agente
Secuencia
de Percepciones
del agente hasta ese
moment
17
34. Racionalidad, depende de:
Medida de
Rendimiento
que define criterio
de éxito
Conocimiento
del medio
acumulado por el Acciones que
agente puede ejecutar
el agente
Secuencia
de Percepciones
del agente hasta ese
moment
17
36. Agente racional,
definición
• En cada posible secuencia de
percepciones, un agente racional deberá
emprender aquella acción que
supuestamente maximice su medida de
rendimiento, basándose en las evidencias
aportadas por la secuencia de
percepciones y en el conocimiento que el
agente mantiene.
18
37. ¿Se puede considerar agente
racional el usado en el problema
de la aspiradora?
19
39. Depende!! para que lo sea, se
han de definir la medida de
rendimiento, características del
entorno, determinar los
sensores y actuadores del
agente
20
41. • La medida de rendimiento premia con un punto al agente
por cada recuadro limpio en un periodo de tiempo
concreto, a lo largo de una ciclo de 1000 periodos
21
42. • La medida de rendimiento premia con un punto al agente
por cada recuadro limpio en un periodo de tiempo
concreto, a lo largo de una ciclo de 1000 periodos
• La geografía del medio se conoce a priori, pero la
distribución de la suciedad y localización inicial del agente
no se conocen. Las cuadrículas se mantienen limpias y
aspirando se limpia la cuadrícula en que se encuentre el
agente.
21
43. • La medida de rendimiento premia con un punto al agente
por cada recuadro limpio en un periodo de tiempo
concreto, a lo largo de una ciclo de 1000 periodos
• La geografía del medio se conoce a priori, pero la
distribución de la suciedad y localización inicial del agente
no se conocen. Las cuadrículas se mantienen limpias y
aspirando se limpia la cuadrícula en que se encuentre el
agente.
• Las acciones Izquierda y Derecha mueven al agente hacia la
izquierda y derecha excepto en el caso de que ello pueda
llevar al agente fuera del recinto, en este caso el agente
permanece donde se encuentra.
21
44. • La medida de rendimiento premia con un punto al agente
por cada recuadro limpio en un periodo de tiempo
concreto, a lo largo de una ciclo de 1000 periodos
• La geografía del medio se conoce a priori, pero la
distribución de la suciedad y localización inicial del agente
no se conocen. Las cuadrículas se mantienen limpias y
aspirando se limpia la cuadrícula en que se encuentre el
agente.
• Las acciones Izquierda y Derecha mueven al agente hacia la
izquierda y derecha excepto en el caso de que ello pueda
llevar al agente fuera del recinto, en este caso el agente
permanece donde se encuentra.
• Las únicas acciones permitidas son Izquierda, Derecha,
Aspirar y NoOperar
21
45. • La medida de rendimiento premia con un punto al agente
por cada recuadro limpio en un periodo de tiempo
concreto, a lo largo de una ciclo de 1000 periodos
• La geografía del medio se conoce a priori, pero la
distribución de la suciedad y localización inicial del agente
no se conocen. Las cuadrículas se mantienen limpias y
aspirando se limpia la cuadrícula en que se encuentre el
agente.
• Las acciones Izquierda y Derecha mueven al agente hacia la
izquierda y derecha excepto en el caso de que ello pueda
llevar al agente fuera del recinto, en este caso el agente
permanece donde se encuentra.
• Las únicas acciones permitidas son Izquierda, Derecha,
Aspirar y NoOperar
• El agente percibe correctamente su localización y si esta
localización contiene suciedad
21
48. Ominisciencia,
aprendizaje y autonomía
• Racionalidad versus Omnisciencia
• Un agente omnisciente conoce el resultado
de su acción y actúa de acuerdo con él.
22
49. Ominisciencia,
aprendizaje y autonomía
• Racionalidad versus Omnisciencia
• Un agente omnisciente conoce el resultado
de su acción y actúa de acuerdo con él.
• Según la definición propuesta, la racionalidad
no requiere omnisciencia, ya que la elección
racional depende sólo de la secuencia de
percepción hasta la fecha.
22
50. Ominisciencia,
aprendizaje y autonomía
• Racionalidad versus Omnisciencia
• Un agente omnisciente conoce el resultado
de su acción y actúa de acuerdo con él.
• Según la definición propuesta, la racionalidad
no requiere omnisciencia, ya que la elección
racional depende sólo de la secuencia de
percepción hasta la fecha.
• En realidad, la omnisciencia no es posible
22
52. un poco de cultura...
La discusión de la predestinación implica generalmente la
consideración de si Dios es omnisciente, o eterno o
atemporal (fuera del flujo del tiempo en nuestro universo). En
términos de estas ideas, Dios puede VER el pasado, el
presente y el futuro, para que Dios sepa efectivamente el
futuro.
23
53. un poco de cultura...
La discusión de la predestinación implica generalmente la
consideración de si Dios es omnisciente, o eterno o
atemporal (fuera del flujo del tiempo en nuestro universo). En
términos de estas ideas, Dios puede VER el pasado, el
presente y el futuro, para que Dios sepa efectivamente el
futuro.
Si Dios en algún sentido SABE tempranamente lo que
sucederá, entonces los acontecimientos en el universo se
predeterminan efectivamente del punto de vista de Dios. Esto
en sí mismo no es predestinación (aunque implique el
determinismo). La predestinación implica que Dios ha
determinado el avance de lo que será el destino de las
criaturas, no que esté simplemente enterado.
23
54. un poco de cultura...
La discusión de la predestinación implica generalmente la
consideración de si Dios es omnisciente, o eterno o
atemporal (fuera del flujo del tiempo en nuestro universo). En
términos de estas ideas, Dios puede VER el pasado, el
presente y el futuro, para que Dios sepa efectivamente el
futuro.
Si Dios en algún sentido SABE tempranamente lo que
sucederá, entonces los acontecimientos en el universo se
predeterminan efectivamente del punto de vista de Dios. Esto
en sí mismo no es predestinación (aunque implique el
determinismo). La predestinación implica que Dios ha
determinado el avance de lo que será el destino de las
criaturas, no que esté simplemente enterado.
http://es.wikipedia.org/wiki/Predestinaci%C3%B3n
23
56. Racionalidad NO es lo
mismo que perfección.
Racionalidad maximiza el
rendimiento esperado, mientras
la perfección maximiza el
resultado ideal/real.
24
60. La definición propuesta de racionalidad no
requiere omnsciencia, ya que la elección
racional depende sólo de la secuencia
de perfección hasta la fecha.
Es necesario asegurarse de no haber
permitido, por descuido, que el agente se
dedique decididamente a llevar a cabo
acciones poco inteligentes.
26
61. Partes importantes de la
racionalidad
¿Cómo llevar a cabo
acciones con la
intención de modificar
percepciones futuras?
27
62. Partes importantes de la
racionalidad
¿Cómo llevar a cabo
Recopilación de
Información
acciones con la
intención de modificar
percepciones futuras?
27
63. Partes importantes de la
racionalidad
¿Cómo llevar a cabo
Recopilación de
Información
acciones con la
intención de modificar
percepciones futuras?
Exploración
27
64. Partes importantes de la
racionalidad
¿Cómo llevar a cabo
Recopilación de
Información
acciones con la
intención de modificar
percepciones futuras?
Exploración
Aprendizaje
sobre lo que se está
percibiendo
27
65. Entorno & Aprendizaje
¿Es
¿Se un poco
Actúa de forma
necesario
conoce el NO!
correcta, es frágil
Aprender?
entorno?
NO!
SI!
SI!
No es Recopila
necesario percibir y información y
aprender aprende
28
66. La configuración inicial del agente puede
reflejar un conocimiento preliminar del
entorno, pero a medida que el gente
adquiere experiencia éste puede
modificarse y aumentar.
Esto implica que el agente racional, además
de recopilar información, aprenda lo
máximo posible de lo que está percibiendo.
29
67. Los agentes de éxito dividen las tareas de
calcular la función de agente en tres
periodos diferentes
Pensando en la
siguiente Cuando
Diseño operación se está
del aprendiendo
procesando de la
agente cálculos experiencia
Cálculos iniciales
nuevos cálculos
El Agente decide cómo comportarse
30
68. Autonomía y Evolución
¿Hay algo común?
Si, ambos implican que se
entreguen parámetros iniciales
vitales y suficientes para que se
pueda evolucionar/progresar.
31
70. Autonomía
Entorno
Se apoya más en el
conocimiento inicial
que le proporciona el
diseñador
Carece de autonomía
32
71. Autonomía
Entorno Entorno
Sabe
aprender de sus
Se apoya más en el
percepciones,
conocimiento inicial
compensa el
que le proporciona el
conocimiento
diseñador
incompleto o
parcial
Agente racional autónomo
Carece de autonomía
32
73. Autonomía en los
agentes
• Un agente racional debe ser autónomo, debe saber
aprender a determinar cómo tiene que compensar
el conocimiento incompleto o parcial inicial.
33
74. Autonomía en los
agentes
• Un agente racional debe ser autónomo, debe saber
aprender a determinar cómo tiene que compensar
el conocimiento incompleto o parcial inicial.
• Cuando el agente haya tenido poca o ninguna experiencia, tendrá
que actuar de forma aleatoria a menos que el diseñador
le haya proporcionado ayuda.
33
75. Autonomía en los
agentes
• Un agente racional debe ser autónomo, debe saber
aprender a determinar cómo tiene que compensar
el conocimiento incompleto o parcial inicial.
• Cuando el agente haya tenido poca o ninguna experiencia, tendrá
que actuar de forma aleatoria a menos que el diseñador
le haya proporcionado ayuda.
• Es razonable entregar a los agentes que disponen de
inteligencia artificial un conocimiento inicial, así como la
capacidad de aprendizaje.
33
77. Claves con respecto a la
autonomía
Después de las suficientes experiencias
de interacción con el entorno, el
comportamiento del agente racional
será efectivamente independiente del
conocimiento que poseía inicialmente.
34
84. Descripción REAS del entorno de trabajo
de un taxista automático
Tipo de
agente
Taxista
39
85. Descripción REAS del entorno de trabajo
de un taxista automático
Tipo de Medidas de
agente rendimiento
Seguro,
rápido, legal,
viaje
Taxista
confortable,
maximización
de beneficio
39
86. Descripción REAS del entorno de trabajo
de un taxista automático
Tipo de Medidas de
Entorno
agente rendimiento
Seguro,
rápido, legal, Carreteras,
viaje otro tráfico,
Taxista
confortable, peatones,
maximización clientes
de beneficio
39
87. Descripción REAS del entorno de trabajo
de un taxista automático
Tipo de Medidas de
Entorno Actuadores
agente rendimiento
Seguro,
Dirección,
rápido, legal, Carreteras,
acelerador,
viaje otro tráfico,
Taxista freno, señal,
confortable, peatones,
bocina,
maximización clientes
visualizador
de beneficio
39
88. Descripción REAS del entorno de trabajo
de un taxista automático
Tipo de Medidas de
Entorno Actuadores Sensores
agente rendimiento
Cámaras,
sonar,
velocímetro,
Seguro,
Dirección, GPS,
rápido, legal, Carreteras,
acelerador, tacómetro,
viaje otro tráfico,
Taxista freno, señal, visualizador
confortable, peatones,
bocina, de la
maximización clientes
visualizador aceleración,
de beneficio
sensores de
motor,
teclado
39
89. Ejemplos de tipos de
Agentes
Tablas de descripción REAS: Rendimiento, Entorno,
Actuadores, Sensores.
40
91. Ejemplo 1, Sistema de diagnóstico médico
Tipo de
agente
Sistema de
diagnóstico
médico
41
92. Ejemplo 1, Sistema de diagnóstico médico
Tipo de Medidas de
agente rendimiento
Pacientes
Sistema de
sanos, reducir
diagnóstico
costes,
médico
demandas
41
93. Ejemplo 1, Sistema de diagnóstico médico
Tipo de Medidas de
Entorno
agente rendimiento
Pacientes
Sistema de Pacientes,
sanos, reducir
diagnóstico hospital,
costes,
médico personal
demandas
41
94. Ejemplo 1, Sistema de diagnóstico médico
Tipo de Medidas de
Entorno Actuadores
agente rendimiento
Visualizar
Pacientes preguntas,
Sistema de Pacientes,
sanos, reducir pruebas,
diagnóstico hospital,
costes, diagnósticos,
médico personal
demandas tratamientos,
casos
41
95. Ejemplo 1, Sistema de diagnóstico médico
Tipo de Medidas de
Entorno Actuadores Sensores
agente rendimiento
Visualizar Teclado para
Pacientes preguntas, la entrada de
Sistema de Pacientes,
sanos, reducir pruebas, síntomas,
diagnóstico hospital,
costes, diagnósticos, conclusiones,
médico personal
demandas tratamientos, respuesta de
casos pacientes
41
97. No es tan importante la
distinción entre un medio real
y artificial, sino la complejidad
de la relación entre el
comportamiento del agente, la
secuencia de percepción generada
por el medio y la medida de
rendimiento
42
99. Ejemplo 2, Sistema de análisis de imágenes
de satélites
Tipo de
agente
Sistema de
análisis de
imágenes de
satélites
43
100. Ejemplo 2, Sistema de análisis de imágenes
de satélites
Tipo de Medidas de
agente rendimiento
Sistema de
Categorización
análisis de
de imagen
imágenes de
correcta
satélites
43
101. Ejemplo 2, Sistema de análisis de imágenes
de satélites
Tipo de Medidas de
Entorno
agente rendimiento
Sistema de Conexión
Categorización
análisis de con el
de imagen
imágenes de satélite en
correcta
satélites órbita
43
102. Ejemplo 2, Sistema de análisis de imágenes
de satélites
Tipo de Medidas de
Entorno Actuadores
agente rendimiento
Sistema de Conexión
Categorización Visualizar la
análisis de con el
de imagen categorización
imágenes de satélite en
correcta de una escena
satélites órbita
43
103. Ejemplo 2, Sistema de análisis de imágenes
de satélites
Tipo de Medidas de
Entorno Actuadores Sensores
agente rendimiento
Sistema de Conexión
Categorización Visualizar la Matriz de
análisis de con el
de imagen categorización pixeles de
imágenes de satélite en
correcta de una escena colores
satélites órbita
43
105. Ejemplo 3, Robot para la selección de
componentes
Tipo de
agente
Robot para la
selección de
componentes
44
106. Ejemplo 3, Robot para la selección de
componentes
Tipo de Medidas de
agente rendimiento
Porcentaje de
Robot para la componentes
selección de clasificados en
componentes los cubos
correctos
44
107. Ejemplo 3, Robot para la selección de
componentes
Tipo de Medidas de
Entorno
agente rendimiento
Porcentaje de Cinta
Robot para la componentes transportador
selección de clasificados en a con
componentes los cubos componentes
correctos cubos
44
108. Ejemplo 3, Robot para la selección de
componentes
Tipo de Medidas de
Entorno Actuadores
agente rendimiento
Porcentaje de Cinta
Robot para la componentes transportador
Brazo y mano
selección de clasificados en a con
articulados
componentes los cubos componentes
correctos cubos
44
109. Ejemplo 3, Robot para la selección de
componentes
Tipo de Medidas de
Entorno Actuadores Sensores
agente rendimiento
Porcentaje de Cinta
Robot para la componentes transportador Cámara,
Brazo y mano
selección de clasificados en a con sensor
articulados
componentes los cubos componentes angular
correctos cubos
44
112. Ejemplo 4, Controlador de una refinería
Tipo de Medidas de
agente rendimiento
Maximizar la
Controlador
pureza,
de una
producción y
refinería
seguridad
45
113. Ejemplo 4, Controlador de una refinería
Tipo de Medidas de
Entorno
agente rendimiento
Maximizar la
Controlador
pureza, Refinería,
de una
producción y operadores
refinería
seguridad
45
114. Ejemplo 4, Controlador de una refinería
Tipo de Medidas de
Entorno Actuadores
agente rendimiento
Maximizar la Válvulas,
Controlador
pureza, Refinería, bombas,
de una
producción y operadores calentadores,
refinería
seguridad monitores
45
115. Ejemplo 4, Controlador de una refinería
Tipo de Medidas de
Entorno Actuadores Sensores
agente rendimiento
Maximizar la Válvulas, Temperatura,
Controlador
pureza, Refinería, bombas, presión,
de una
producción y operadores calentadores, sensores
refinería
seguridad monitores químicos
45
117. Ejemplo 5, Tutor de inglés interactivo
Tipo de
agente
Tutor de
inglés
interactivo
46
118. Ejemplo 5, Tutor de inglés interactivo
Tipo de Medidas de
agente rendimiento
Maximizar la
Tutor de puntuación de
inglés los
interactivo estudiantes en
los exámenes
46
119. Ejemplo 5, Tutor de inglés interactivo
Tipo de Medidas de
Entorno
agente rendimiento
Maximizar la
Conjunto de
Tutor de puntuación de
estudiantes,
inglés los
agencia
interactivo estudiantes en
examinadora
los exámenes
46
120. Ejemplo 5, Tutor de inglés interactivo
Tipo de Medidas de
Entorno Actuadores
agente rendimiento
Maximizar la
Conjunto de Visualizar los
Tutor de puntuación de
estudiantes, ejercicios,
inglés los
agencia sugerencias,
interactivo estudiantes en
examinadora correcciones
los exámenes
46
121. Ejemplo 5, Tutor de inglés interactivo
Tipo de Medidas de
Entorno Actuadores Sensores
agente rendimiento
Maximizar la
Conjunto de Visualizar los
Tutor de puntuación de
estudiantes, ejercicios, Teclado de
inglés los
agencia sugerencias, entrada
interactivo estudiantes en
examinadora correcciones
los exámenes
46
122. Welcome to Softbots, the homepage for
research in intelligent software agents for the
Internet at the University of Washington's
Department of Computer Science and
Engineering
http://www.cs.washington.edu/research/projects/WebWare1/www/softbots/softbots.html
http://www.links2go.com/LinksSearch?q=Agents
http://www.youtube.com/user/therobotchannel
Softbots:
1. Piense en un piloto automático de vuelo
2. Robot buscador de links relevantes en la web
dotados de procesamiento de lenguaje natural
47
124. Propiedades de los
entornos de trabajo
• Totalmente observable vs parcialmente observable
48
125. Propiedades de los
entornos de trabajo
• Totalmente observable vs parcialmente observable
• Determinista vs estocástico
48
126. Propiedades de los
entornos de trabajo
• Totalmente observable vs parcialmente observable
• Determinista vs estocástico
• Episódico vs secuencial
48
127. Propiedades de los
entornos de trabajo
• Totalmente observable vs parcialmente observable
• Determinista vs estocástico
• Episódico vs secuencial
• Estático vs dinámico
48
128. Propiedades de los
entornos de trabajo
• Totalmente observable vs parcialmente observable
• Determinista vs estocástico
• Episódico vs secuencial
• Estático vs dinámico
• Discreto vs continuo
48
129. Propiedades de los
entornos de trabajo
• Totalmente observable vs parcialmente observable
• Determinista vs estocástico
• Episódico vs secuencial
• Estático vs dinámico
• Discreto vs continuo
• Agente individual vs multiagente
48
133. Totalmente observable/accesible
vs parcialmente observable
Totalmente observable Parcialmente observable
Acceso completo del medio y en
cada momento
Parcialmente observable debido al
ruido y a la existencia de sensores
poco exactos o que no reciben
información de parte del sistema
49
134. Totalmente observable/accesible
vs parcialmente observable
Totalmente observable Parcialmente observable
Acceso completo del medio y en
cada momento
Los sensores detectan los aspectos
que son relevantes para la toma de Parcialmente observable debido al
decisiones ruido y a la existencia de sensores
poco exactos o que no reciben
información de parte del sistema
49
135. Totalmente observable/accesible
vs parcialmente observable
Totalmente observable Parcialmente observable
Acceso completo del medio y en
cada momento
Los sensores detectan los aspectos
que son relevantes para la toma de Parcialmente observable debido al
decisiones ruido y a la existencia de sensores
La relevancia, en cada momento, poco exactos o que no reciben
depende de las medidas de información de parte del sistema
rendimiento
49
136. Totalmente observable/accesible
vs parcialmente observable
Totalmente observable Parcialmente observable
Acceso completo del medio y en
cada momento
Los sensores detectan los aspectos
que son relevantes para la toma de Parcialmente observable debido al
decisiones ruido y a la existencia de sensores
La relevancia, en cada momento, poco exactos o que no reciben
depende de las medidas de información de parte del sistema
rendimiento
Son convenientes porque el agente
no necesita mantener un estado
interno para saber del mundo
49
140. Determinista Vs Estocástico
Determinista Estocástico
Cuando es difícil mantener
Si el siguiente estado del medio está totalmente
determinado por el estado actual y la acción
constancia de todos los aspectos
ejecutada por el agente, entonces se dice que el
observados
entorno es determinista
50
141. Determinista Vs Estocástico
Determinista Estocástico
Cuando es difícil mantener
Si el siguiente estado del medio está totalmente
determinado por el estado actual y la acción
constancia de todos los aspectos
ejecutada por el agente, entonces se dice que el
observados
entorno es determinista
No hay incertidumbre si el ambiente Si el medio es parcialmente
es totalmente observable y observable puede parecer
determinista estocástico
50
142. Determinista Vs Estocástico
Determinista Estocástico
Cuando es difícil mantener
Si el siguiente estado del medio está totalmente
determinado por el estado actual y la acción
constancia de todos los aspectos
ejecutada por el agente, entonces se dice que el
observados
entorno es determinista
No hay incertidumbre si el ambiente Si el medio es parcialmente
es totalmente observable y observable puede parecer
determinista estocástico
Es mejor pensar pensar en entornos deterministas o estocásticos desde el
punto de vista del agente
50
143. Determinista Vs Estocástico
Determinista Estocástico
Cuando es difícil mantener
Si el siguiente estado del medio está totalmente
determinado por el estado actual y la acción
constancia de todos los aspectos
ejecutada por el agente, entonces se dice que el
observados
entorno es determinista
No hay incertidumbre si el ambiente Si el medio es parcialmente
es totalmente observable y observable puede parecer
determinista estocástico
Es mejor pensar pensar en entornos deterministas o estocásticos desde el
punto de vista del agente
Si el medio es determinista, excepto para las acciones de otros agentes,
decimos que el medio es estratégico
50
147. Episódico vs Secuencial
Episódico Secuencial
En un entorno de trabajo episódico,
la decisión presente puede afectar las
la experiencia del agente se divide en
decisiones futuras
episodios atómicos
51
148. Episódico vs Secuencial
Episódico Secuencial
En un entorno de trabajo episódico,
la decisión presente puede afectar las
la experiencia del agente se divide en
decisiones futuras
episodios atómicos
Cada episodio consiste en la
Las acciones a corto plazo pueden
percepción del agente y la realización
tener consecuencias a largo plazo
de una única acción posterior.
51
149. Episódico vs Secuencial
Episódico Secuencial
En un entorno de trabajo episódico,
la decisión presente puede afectar las
la experiencia del agente se divide en
decisiones futuras
episodios atómicos
Cada episodio consiste en la
Las acciones a corto plazo pueden
percepción del agente y la realización
tener consecuencias a largo plazo
de una única acción posterior.
El siguiente episodio no depende de
Son más complejos que los
las acciones que se realizaron en
episódicos
episodios previos
51
150. Episódico vs Secuencial
Episódico Secuencial
En un entorno de trabajo episódico,
la decisión presente puede afectar las
la experiencia del agente se divide en
decisiones futuras
episodios atómicos
Cada episodio consiste en la
Las acciones a corto plazo pueden
percepción del agente y la realización
tener consecuencias a largo plazo
de una única acción posterior.
El siguiente episodio no depende de
Son más complejos que los
las acciones que se realizaron en
episódicos
episodios previos
La elección de la acción en cada
Se necesita “pensar” teniendo en
episodio depende sólo del episodio
cuenta Tiempo
en sí mismo
51
154. Estático Vs Dinámico
Estático Dinámico
Los medios estáticos son fáciles de El entorno puede cambiar cuando el
agente esté deliberando.
tratar ya que el agente no necesita
estar pendiente del mundo Estos medios están preguntando
continuamente al agente qué
mientras está tomando una decisión
sobre una acción, ni necesita quiere hacer; sino se ha decidido,
preocuparse sobre el paso del se entiende que ha decidido no hacer
tiempo. nada.
52
155. Estático Vs Dinámico
Estático Dinámico
Los medios estáticos son fáciles de El entorno puede cambiar cuando el
agente esté deliberando.
tratar ya que el agente no necesita
estar pendiente del mundo Estos medios están preguntando
continuamente al agente qué
mientras está tomando una decisión
sobre una acción, ni necesita quiere hacer; sino se ha decidido,
preocuparse sobre el paso del se entiende que ha decidido no hacer
tiempo. nada.
Si el entorno no cambia con el paso del tiempo, pero el rendimiento del
agente cambia, entonces se dice que el medio es semidinámico.
52
163. Agente Individual Vs Multiagente
Agente Individual MultiAgente
Una entidad puede percibirse como un agente
Maximización de rendimiento de Agente 1 están en función del Agente 2
54
167. Multi Agente Competitivo y
Cooperativo
MultiAgente Competitivo MultiAgente Cooperativo
¿El agente A intenta maximizar su rendimiento
a costa del rendimiento del otro agente B?
Cuál es el proceso de comunicación entre agente
55
168. El caso más complejo es el parcialmente
observable, estocástico, secuencial,
dinámico, continuo y multiagente
Las situaciones reales son tan complejas
que sería discutible clasificarlas como
realmente deterministas, a efectos
prácticos se deben tratar como
estocásticas
56
171. Ejemplos de entornos de trabajo y sus características
Entornos de trabajo Observable Determinista Episódico Estático Discreto Agentes
57
172. Ejemplos de entornos de trabajo y sus características
Entornos de trabajo Observable Determinista Episódico Estático Discreto Agentes
Crucigrama Totalmente Determinista Secuencial Estático Discreto Individual
57
173. Ejemplos de entornos de trabajo y sus características
Entornos de trabajo Observable Determinista Episódico Estático Discreto Agentes
Crucigrama Totalmente Determinista Secuencial Estático Discreto Individual
Ajedrez con reloj Totalmente Estratégico Secuencial Semi Discreto Multi
57
174. Ejemplos de entornos de trabajo y sus características
Entornos de trabajo Observable Determinista Episódico Estático Discreto Agentes
Crucigrama Totalmente Determinista Secuencial Estático Discreto Individual
Ajedrez con reloj Totalmente Estratégico Secuencial Semi Discreto Multi
Póker Parcialmente Estratégico Secuencial Estático Discreto Multi
57
175. Ejemplos de entornos de trabajo y sus características
Entornos de trabajo Observable Determinista Episódico Estático Discreto Agentes
Crucigrama Totalmente Determinista Secuencial Estático Discreto Individual
Ajedrez con reloj Totalmente Estratégico Secuencial Semi Discreto Multi
Póker Parcialmente Estratégico Secuencial Estático Discreto Multi
Backgammon Totalmente Estocástico Secuencial Estático Discreto Multi
57
176. Ejemplos de entornos de trabajo y sus características
Entornos de trabajo Observable Determinista Episódico Estático Discreto Agentes
Crucigrama Totalmente Determinista Secuencial Estático Discreto Individual
Ajedrez con reloj Totalmente Estratégico Secuencial Semi Discreto Multi
Póker Parcialmente Estratégico Secuencial Estático Discreto Multi
Backgammon Totalmente Estocástico Secuencial Estático Discreto Multi
Taxi circulando Parcialmente Estocástico Secuencial Dinámico Continuo Multil
57
177. Ejemplos de entornos de trabajo y sus características
Entornos de trabajo Observable Determinista Episódico Estático Discreto Agentes
Crucigrama Totalmente Determinista Secuencial Estático Discreto Individual
Ajedrez con reloj Totalmente Estratégico Secuencial Semi Discreto Multi
Póker Parcialmente Estratégico Secuencial Estático Discreto Multi
Backgammon Totalmente Estocástico Secuencial Estático Discreto Multi
Taxi circulando Parcialmente Estocástico Secuencial Dinámico Continuo Multil
Diagnóstico médico Parcialmente Estocástico Secuencial Dinámico Continuo Individual
57
178. Ejemplos de entornos de trabajo y sus características
Entornos de trabajo Observable Determinista Episódico Estático Discreto Agentes
Crucigrama Totalmente Determinista Secuencial Estático Discreto Individual
Ajedrez con reloj Totalmente Estratégico Secuencial Semi Discreto Multi
Póker Parcialmente Estratégico Secuencial Estático Discreto Multi
Backgammon Totalmente Estocástico Secuencial Estático Discreto Multi
Taxi circulando Parcialmente Estocástico Secuencial Dinámico Continuo Multil
Diagnóstico médico Parcialmente Estocástico Secuencial Dinámico Continuo Individual
Análisis de imagen Totalmente Determinista Episódico Semi Continuo Individual
57
179. Ejemplos de entornos de trabajo y sus características
Entornos de trabajo Observable Determinista Episódico Estático Discreto Agentes
Crucigrama Totalmente Determinista Secuencial Estático Discreto Individual
Ajedrez con reloj Totalmente Estratégico Secuencial Semi Discreto Multi
Póker Parcialmente Estratégico Secuencial Estático Discreto Multi
Backgammon Totalmente Estocástico Secuencial Estático Discreto Multi
Taxi circulando Parcialmente Estocástico Secuencial Dinámico Continuo Multil
Diagnóstico médico Parcialmente Estocástico Secuencial Dinámico Continuo Individual
Análisis de imagen Totalmente Determinista Episódico Semi Continuo Individual
Robot Clasificador Parcialmente Estocástico Episódico Dinámico Continuo Individual
57
180. Ejemplos de entornos de trabajo y sus características
Entornos de trabajo Observable Determinista Episódico Estático Discreto Agentes
Crucigrama Totalmente Determinista Secuencial Estático Discreto Individual
Ajedrez con reloj Totalmente Estratégico Secuencial Semi Discreto Multi
Póker Parcialmente Estratégico Secuencial Estático Discreto Multi
Backgammon Totalmente Estocástico Secuencial Estático Discreto Multi
Taxi circulando Parcialmente Estocástico Secuencial Dinámico Continuo Multil
Diagnóstico médico Parcialmente Estocástico Secuencial Dinámico Continuo Individual
Análisis de imagen Totalmente Determinista Episódico Semi Continuo Individual
Robot Clasificador Parcialmente Estocástico Episódico Dinámico Continuo Individual
Controlador de refinaría Parcialmente Estocástico Secuencial Dinámico Continuo Individual
57
181. Ejemplos de entornos de trabajo y sus características
Entornos de trabajo Observable Determinista Episódico Estático Discreto Agentes
Crucigrama Totalmente Determinista Secuencial Estático Discreto Individual
Ajedrez con reloj Totalmente Estratégico Secuencial Semi Discreto Multi
Póker Parcialmente Estratégico Secuencial Estático Discreto Multi
Backgammon Totalmente Estocástico Secuencial Estático Discreto Multi
Taxi circulando Parcialmente Estocástico Secuencial Dinámico Continuo Multil
Diagnóstico médico Parcialmente Estocástico Secuencial Dinámico Continuo Individual
Análisis de imagen Totalmente Determinista Episódico Semi Continuo Individual
Robot Clasificador Parcialmente Estocástico Episódico Dinámico Continuo Individual
Controlador de refinaría Parcialmente Estocástico Secuencial Dinámico Continuo Individual
Tutor interactivo de inglés Parcialmente Estocástico Secuencial Dinámico Discreto Multi
57
183. = +
Agente Arquitectura Programa
La IA, se centra en diseñar el programa
que implemente la función del agente que
proyecta las percepciones en las acciones.
59
185. Ejemplo Construcción
http://www.gia.usb.ve/robotica/telemaco/construccion.htm
El primer paso para la construcción del robot es armar el chasis.
Esta es la estructura de soporte donde se emplazaran el resto de
las partes. Esta estructura debe ser rígida y capaz de sostener el
peso que se le va a colocar.
61
186. Una de la parte más importante del armado del robot es colocar los sensores. Estos
deben ser protegidos contra el ruido propio que provee el ambiente donde el robot se
inte-relaciona. El montaje involucra tres fases:
1. Montaje de Fotoceldas: Estas se 2. Sensor lineal: se colocan en las
colocan en una torre que permite bocas triangulares del robot para
obtener una mejor panorámica al detectar la interrupción que
rango de visión del sensor. produce la entrada de una pelota.
62
187. 4. Sensores de impacto: Estos
3. Sensores de color: Este sensor
sensores, colocados en el
permitirá identificar el color de la
parachoque, permiten detectar si
pelota capturada. Se coloca en la
ha ocurrido una colisión frontal.
parte de tope de la boca de
captura.
63
188. Programas de los
agentes
• Reciben las percepciones actuales como entradas
de los sensores y devuelven una acción a los
actuadores
• Los programas reciben sólo la percepción actual
como entrada porque no hay nada más disponible
en el entorno.
• Si las acciones del agente dependen de la secuencia
completa de percepciones, el agente tendría que
recordar las percepciones.
64
189. Función agente dirigido mediante tabla
función agente-dirigido-mediante tabla (percepción) devuelve una
acción
variables estáticas:
percepciones, una secuencia, vacía inicialmente
tabla, una tabla de acciones, indexada por las secuencias de
percepciones, totalmente definidas inicialmente
añadir la percepción al final de las percepciones
acción <- Consulta (percepciones, tabla)
devolver acción
El programa Agente-Dirigido-Mediante tabla se invoca con cada
nueva percepción y devuelve una acción en cada momento.
Almacena la secuencia de percepciones utilizando su propia
estructura de datos privada
65
196. Agentes reactivos
simples
• Son simples pero poseen un inteligencia muy limitada.
• Seleccionan las acciones sobre la base de las percepciones
actuales, ignorando el resto de las percepciones históricas
• Se usan reglas de condición - acción (situación - acción,
producción, o regla sí - entonces).
• A veces los bucles infinitos son inevitables; se puede salir
seleccionando alguna acción aleatoriamente, sin embargo en
los entornos simples esto no es un comportamiento
racional.
68
197. Función agente aspiradora
función agente-aspirador-reactivo ([localización, estado]) devuelve
una acción
Si: estado = Sucio Entonces devolver Aspirar
Caso Contrario,
SI localización = A Entonces devolver Derecha
Caso Contrario,
SI localización = B Entonces devolver Izquierda
69
202. Diagrama esquemático de un
agente reactivo simple
Agent
Sensors
Environment
What the world
is like now
70
203. Diagrama esquemático de un
agente reactivo simple
Agent
Sensors
Environment
What the world
is like now
70
204. Diagrama esquemático de un
agente reactivo simple
Agent
Sensors
Environment
What the world
is like now
What action I
should do now
70
205. Diagrama esquemático de un
agente reactivo simple
Agent
Sensors
Environment
What the world
is like now
Condition-Action What action I
Rules should do now
70
206. Diagrama esquemático de un
agente reactivo simple
Agent
Sensors
Environment
What the world
is like now
Condition-Action What action I
Rules should do now
70
207. Diagrama esquemático de un
agente reactivo simple
Agent
Sensors
Environment
What the world
is like now
Condition-Action What action I
Rules should do now
70
208. Diagrama esquemático de un
agente reactivo simple
Agent
Sensors
Environment
What the world
is like now
Condition-Action What action I
Rules should do now
Actuators
70
209. Diagrama esquemático de un
agente reactivo simple
Agent
Sensors
Environment
What the world
is like now
Condition-Action What action I
Rules should do now
Actuators
70
210. Un agente reactivo simple
función agente-reactivo-reactivo (percepción) devuelve una
acción
Estático: Reglas, un conjunto de reglas condición-acción
estado <- Interpretar-Entrada (percepción)
regla <- Regla-Coincidencia (estado, reglas)
acción <- Regla-Acción [regla]
devolver acción
funcionará sólo si se puede tomar la decisión correcta sobre la
base de la percepción actual, lo cual es posible sólo si el entorno es
totalmente observable
71
211. Agentes reactivos
basados en modelos
• La forma más efectiva de manejar las visibilidad parcial es
almacenar información de las partes del mundo que no
pueden ver (manteniendo algún estado interno,
dependiente de la historia percibida)
• Conocimiento sobre como funciona el mundo, esto es del
modelo del mundo.
72
212. Actualización de la información de estado
interno, requiere codificar
Información acerca de
Información sobre cómo
cómo evoluciona el
afecta al mundo las
mundo independientemente
acciones del agente
del agente
73
213. Diagrama esquemático agente
reactivo basado en modelos
Agent
Sensors
State
Environment
How the world evolves What the world
is like now
What my actions do
Condition-Action What action I
Rules should do now
Actuators
74
214. Diagrama esquemático de
agente basado en Objetivos
Agent
Sensors
State
Environment
How the world evolves What the world
is like now
What my actions do
What it will be like if I
do action A
Condition-Action What action I
Rules should do now
Actuators
75
215. Diagrama esquemático de
agente basado en Utilidad
Agent Sensors
State
How the world evolves
Environment
What the world
is like now
What my actions do
What it will be like if I
do action A
How happy I will be in
such a state
Utility What action I
should do now
Actuators
76
216. Agentes que aprenden
Performance
standard
Agent
Critic
Sensors
Environment
feedback
Changes
Learning Performance
Element element
Knowledge
learning
goals
Problem
generator
Actuators
77
217. Universidad Técnica Particular de Loja
Advanced Technology Computing Group
Nelson Piedra, Janneth Chicaiza, María Belén Mora
http://nopiedra.wordpress.com
nopiedra@utpl.edu.ec
C ATCG.UTPL
bnla
www.utpl.edu.ec
Computer Science School - Intelligence Artifitial Fundamentals 2007 Course
78