Notes - MIECT
Inteligência Artificial
Notes - MIECT
Inteligência Artificial
  • Inteligência Artificial
  • Tópicos de Inteligência Artificial
    • Definição de “Inteligência”
    • História até à “Inteligência Artificial”
  • Agentes
    • Definição de “Agente”
    • Teste de Turing
    • A "Sala Chinesa" de Searle
    • Agentes Reactivos
    • Agentes Deliberativos
    • Arquiteturas
  • Representação do Conhecimento
    • Redes Semântica
      • GOLOG
      • UML / Diagramas de Classes
      • Indução versus Dedução
      • Em Python
    • Resolução e Refutação na Lógica de Primeira Ordem
    • Lógica Proposicional e Lógica de Primeira Ordem
      • Interpretações em Lógica Proposicional
      • Interpretações em Lógica de Primeira Ordem
      • Lógica - Regras de Substituição
      • CNF e Forma Clausal
      • Consequências Lógicas, Provas
      • Correcção, Completude
      • Metateoremas
      • Resolução não é Completa
      • Refutação por Resolução
      • Substituições, Unificação
      • Resolução com Claúsulas de Horn
    • Linguagem KIF
    • Engenharia do Conhecimento
    • Ontologias
    • Redes de Bayes
  • Técnicas de Resolução de Problemas
    • Resolução de problemas em IA
    • Formulação de problemas e pesquisa de soluções
    • Estratégias de pesquisa
      • Avaliação das estratégias de pesquisa
      • Pesquisa A*
        • Avaliação da Pesquisa em Árvore
      • IDA*
      • RBFS
      • SMA*
      • Pesquisa com propagação de restrições
      • Pesquisa por melhorias sucessivas
      • Planeamento
        • Aprendizagem
      • Árvores de decisão
      • Avaliação de algoritmos de aprendizagem supervisionada
  • Bayesian Networks
    • Ways to deal with Uncertainty
    • Discrete Random Variables
    • Probabilities
    • Conditional Probability
    • More General Forms of Bayes Rule
    • The Joint Distribution
    • Independence
    • Computing a Joint Entry
    • Exercises
Powered by GitBook
On this page
  • Using the Joint Distribution
  • Inference
  • Joint distributions
  1. Bayesian Networks

The Joint Distribution

PreviousMore General Forms of Bayes RuleNextIndependence

Last updated 2 years ago

Recipe for making a joint distribution of M variables:

  1. Make a truth table listing all combinations of values of your variables (if there are M Boolean variables then the table will have 2M rows).

  2. For each combination of values, say how probable it is.

  3. If you subscribe to the axioms of probability, those numbers must sum to 1.

Using the Joint Distribution

Once you have the JD you can ask for the probability of any logical expression involving your attribute.

  • P(E) = ∑ P(row)

  • P(poor male) = 0.46

  • P(poor) = 0.75

Inference

P(E1|E2) = (P(E1∧ E2)) / (P(E2)) = (∑ P(row)) / (∑ P(row))

P(Male | Poor) = 0.46 / 0.75 = 0.61

Joint distributions

Good news.

  • Once you have a joint distribution, you can ask important questions about stuff that involves a lot of uncertainty.

Bad news.

  • Impossible to create for more than about ten attributes because there are so many numbers needed when you build it.