2.8.7 IS/Razonamiento Bajo Incertidumbre 
Temas:
Electivo
- Revisión de Probabilidad Básica   
Ref: Probabilidad Discreta  
- Variables aleatorias y distribuciones de probabilidad:
- Axiomas de probabilidad
 
- Inferencia probabilística
 
- Regla de Bayes
 
  
- Independecia Condicional 
 
- Representaciones del conocimiento:
- Redes bayesianas 
- Inferencia exacta y su complejidad
 
- Métodos de Muestreo aleatorio (Monte Carlo)  (p.e. Muestreo de Gibbs)
 
 
- Redes Markov 
 
- Modelos de probabilidad relacional
 
- Modelos ocultos de Markov
 
  
- Teoria de decisiones:
- Preferencias y funciones de utilidad
 
- Maximizando la utilidad esperada
 
  
Objetivos de Aprendizaje:
Elective:
	
- Aplicar la regla de Bayes para determinar el cumplimiento de una hipótesis  [Usar]
 
- Explicar cómo al tener independencia condicional permite una gran eficiencia en sistemas probabilísticos  [Evaluar]
 
- Identificar ejemplos de representación de conocimiento para razonamiento bajo incertidumbre  [Familiarizarse]
 
- Indicar la complejidad de la inferencia exacta. Identificar métodos para inferencia aproximada  [Familiarizarse]
 
- Diseñar e implementar, al menos una representación de conocimiento para razonamiento bajo incertidumbre  [Usar]
 
- Describir la complejidad del razonamiento probabilístico en el tiempo  [Familiarizarse]
 
- Diseñar e implementar un Modelo Oculto de Markov (HMM) como un ejemplo de sistema probabilístico en el tiempo  [Usar]
 
- Describir las relaciones entre preferencias y funciones de utilidad  [Familiarizarse]
 
- Explicar como funciones de utilidad  y razonamiento probabilístico puede ser combinado para tomar decisiones razonables  [Evaluar]
 
Generado por Ernesto Cuadros-Vargas ,               Sociedad Peruana de Computación-Peru,               basado en el modelo de la Computing Curricula de               IEEE-CS/ACM