Markov e Chebyshev

Permitem estabelecer facilmente majorantes para probabilidades de certas classes de acontecimentos

  • partindo apenas do conhecimento da média e variância de uma variável aleatória

Desigualdade de Markov

X é uma v.a. não negativa

  • P(X >= a) <= E[X] / a , ∀a > 0

Esta desigualdade dá um limite superior para a probabilidade de a função X ser maior ou igual a um determinado valor

Demonstração

E[X] = ?

= Integral_0 to a (x * f_x(x)) dx + Integral_a to +inf (x * f_x(x)) dx >=

=> Integral_a to +inf (x * f_x(x)) dx >= Integral_a to +inf (a * f_x(x)) dx >= a * P[X >= a]

Logo: P[X >= a] <= E[X] / a

Exemplo

Média de alturas: 1,65m

Qual o limite superior de probabilidade de um indivíduo ultrapassar os 2 metros

  • P(X >= 2) <= 1,65 / 2 = 0,825

Desigualdade de Chebyshev

  • P(|X - E[X]| >= a) <= Var(X) / a^2

Ou em alternativa

  • P(|X - E[X]| < a) >= 1 - Var(X) / a^2

Se expressarmos a em função do desvio padrão, fazendo a = h𝜎, teremos:

  • P(|X - E[X]| >= h𝜎) <= 𝜎^2 / (h𝜎)^2 = 1 / h^2

Qual a probabilidade da média das amostras se aproximar do valor médio (a menos de 𝜖) ?

  • P(|Mn − E[Mn]| < 𝜖)

Usando Chebyshev temos:

P(|Mn - E[Mn]| >= 𝜖) <= Var(Mn) / 𝜖^2

= P(|Mn - E[Mn]| >= 𝜖) <= (𝜎^2 / n) / 𝜖^2

= P(|Mn - E[Mn]| < 𝜖) >= 1 - 𝜎^2 / (𝜖^2 * n)

passando ao limite

lim_n->inf P(|Mn - E[Mn]| < 𝜖) = 1

Chamado de Lei Fraca dos Grandes Números

Last updated