Notes - MIECT
Inteligência Artificial
Notes - MIECT
Inteligência Artificial
  • Inteligência Artificial
  • Tópicos de Inteligência Artificial
    • Definição de “Inteligência”
    • História até à “Inteligência Artificial”
  • Agentes
    • Definição de “Agente”
    • Teste de Turing
    • A "Sala Chinesa" de Searle
    • Agentes Reactivos
    • Agentes Deliberativos
    • Arquiteturas
  • Representação do Conhecimento
    • Redes Semântica
      • GOLOG
      • UML / Diagramas de Classes
      • Indução versus Dedução
      • Em Python
    • Resolução e Refutação na Lógica de Primeira Ordem
    • Lógica Proposicional e Lógica de Primeira Ordem
      • Interpretações em Lógica Proposicional
      • Interpretações em Lógica de Primeira Ordem
      • Lógica - Regras de Substituição
      • CNF e Forma Clausal
      • Consequências Lógicas, Provas
      • Correcção, Completude
      • Metateoremas
      • Resolução não é Completa
      • Refutação por Resolução
      • Substituições, Unificação
      • Resolução com Claúsulas de Horn
    • Linguagem KIF
    • Engenharia do Conhecimento
    • Ontologias
    • Redes de Bayes
  • Técnicas de Resolução de Problemas
    • Resolução de problemas em IA
    • Formulação de problemas e pesquisa de soluções
    • Estratégias de pesquisa
      • Avaliação das estratégias de pesquisa
      • Pesquisa A*
        • Avaliação da Pesquisa em Árvore
      • IDA*
      • RBFS
      • SMA*
      • Pesquisa com propagação de restrições
      • Pesquisa por melhorias sucessivas
      • Planeamento
        • Aprendizagem
      • Árvores de decisão
      • Avaliação de algoritmos de aprendizagem supervisionada
  • Bayesian Networks
    • Ways to deal with Uncertainty
    • Discrete Random Variables
    • Probabilities
    • Conditional Probability
    • More General Forms of Bayes Rule
    • The Joint Distribution
    • Independence
    • Computing a Joint Entry
    • Exercises
Powered by GitBook
On this page
  • Selecção do atributo de teste
  • Alguns problemas
  • Tratamento do ruído
  1. Técnicas de Resolução de Problemas
  2. Estratégias de pesquisa

Árvores de decisão

PreviousAprendizagemNextAvaliação de algoritmos de aprendizagem supervisionada

Last updated 2 years ago

Selecção do atributo de teste

Podemos ver o domínio dos exemplos como uma fonte de mensagens, cada uma delas representando uma das classes possíveis.

Baseado na Teoria da Informação

  • Entropia apriori:

  • Entropia aposteriori, dado o valor de um atributo:

  • Entropia global aposteriori:

Ganho de informação.

  • Ou seja, redução da entropia

As probabilidades podem ser estimadas com base nos exemplos disponíveis.

Nota: Este método funciona mal quando os atributos têm muitos valores possíveis.

Razão do ganho

  • Resolve o problema dos atributos com muitos valores.

  • Quando H(Aj) se aproxima de zero, a razão do ganho fica instável; por isso, são excluídos à partida os atributos cujo ganho de informação seja inferior à média.

Critério GINI

Impureza apriori.

Impureza aposteriori:

Alguns problemas

Tratamento do ruído – por vezes, os exemplos de treino contém ruido, ou seja, particularidades não representativas do domínio que podem levar o algoritmo de aprendizagem a fazer uma generalização incorrecta.

Atributos numéricos – como usá-los nas regras ou nas árvores de decisão?

Atributos com valores não especificados nos exemplos.

Levar em conta o custo de cálculo de cada atributo.

Aprendizagem incremental.

Aprendizagem por indução em lógica de primeira ordem.

  • FOIL

Tratamento do ruído

Parar a expansão da árvore quando o número de exemplos disponíveis é inferior a um dado limiar.

Ter um estimativa do erro, e parar a expansão quando a estimativa do erro começa a subir.

Ter um estimativa do erro, e parar a expansão quando essa estimativa sobe para além de um dado limiar.

Expandir completamente a àrvore e no fim podá-la.