Notes - MIECT
Inteligência Artificial
Notes - MIECT
Inteligência Artificial
  • Inteligência Artificial
  • Tópicos de Inteligência Artificial
    • Definição de “Inteligência”
    • História até à “Inteligência Artificial”
  • Agentes
    • Definição de “Agente”
    • Teste de Turing
    • A "Sala Chinesa" de Searle
    • Agentes Reactivos
    • Agentes Deliberativos
    • Arquiteturas
  • Representação do Conhecimento
    • Redes Semântica
      • GOLOG
      • UML / Diagramas de Classes
      • Indução versus Dedução
      • Em Python
    • Resolução e Refutação na Lógica de Primeira Ordem
    • Lógica Proposicional e Lógica de Primeira Ordem
      • Interpretações em Lógica Proposicional
      • Interpretações em Lógica de Primeira Ordem
      • Lógica - Regras de Substituição
      • CNF e Forma Clausal
      • Consequências Lógicas, Provas
      • Correcção, Completude
      • Metateoremas
      • Resolução não é Completa
      • Refutação por Resolução
      • Substituições, Unificação
      • Resolução com Claúsulas de Horn
    • Linguagem KIF
    • Engenharia do Conhecimento
    • Ontologias
    • Redes de Bayes
  • Técnicas de Resolução de Problemas
    • Resolução de problemas em IA
    • Formulação de problemas e pesquisa de soluções
    • Estratégias de pesquisa
      • Avaliação das estratégias de pesquisa
      • Pesquisa A*
        • Avaliação da Pesquisa em Árvore
      • IDA*
      • RBFS
      • SMA*
      • Pesquisa com propagação de restrições
      • Pesquisa por melhorias sucessivas
      • Planeamento
        • Aprendizagem
      • Árvores de decisão
      • Avaliação de algoritmos de aprendizagem supervisionada
  • Bayesian Networks
    • Ways to deal with Uncertainty
    • Discrete Random Variables
    • Probabilities
    • Conditional Probability
    • More General Forms of Bayes Rule
    • The Joint Distribution
    • Independence
    • Computing a Joint Entry
    • Exercises
Powered by GitBook
On this page
  • A bit of notation
  • Conditional Independence formalized
  1. Bayesian Networks

Independence

Suppose there are two events:

  • M: class subject is Maths.

  • S: It is Sunny.

The joint probability distribution function (p.d.f.) for these events contain 4 entries.

If we want to build the joint p.d.f. we’ll have to invent those four numbers. Do we?

  • We don’t have to specify with bottom level conjunctive events such as P(~M^S) IF...

  • ...instead it may sometimes be more convenient for us to specify things like: P(M), P(S).

But just P(M) and P(S) don’t derive the joint distribution. So you can’t answer all questions.

“The sunshine levels do not depend on and do not influence the subject”

This can be specified very simply:

  • P(S || M) = P(S) This is a powerful statement!

It required extra domain knowledge. A different kind of knowledge than numerical probabilities. It needed an understanding of causation.

From P(S || M) = P(S), the rules of probability imply:

  • P(~S || M) = P(~S)

  • P(M | S)=P(M)

  • P(M^S)=P(M).P(S)

  • P(~M ^ S) = P(~M) P(S), P(M^~S) = P(M)P(~S), P(~M^~S) = P(~M)P(~S)

A bit of notation

Assume a new event.

  • R: we will do Revisions in class.

P(R || M,L) = P(R || M) P(R || ~M,L) = P(R || ~M)

“R and L are conditionally independent given M”

Given knowledge of M and S, knowing anything else in the diagram won’t help us with L, etc.

Conditional Independence formalized

A Bayes net (also called a belief network) is an augmented directed acyclic graph, represented by the pair V , E where:

  • V is a set of vertices

  • E is a set of directed edges joining vertices. No loops of any length are allowed.

Each vertex in V contains the following information:

  • The name of a random variable.

  • A probability distribution table indicating how the probability of this variable’s values depends on all possible combinations of parental values.

PreviousThe Joint DistributionNextComputing a Joint Entry

Last updated 2 years ago