Markov e Chebyshev
Permitem estabelecer facilmente majorantes para probabilidades de certas classes de acontecimentos
partindo apenas do conhecimento da média e variância de uma variável aleatória
Desigualdade de Markov
X é uma v.a. não negativa
P(X >= a) <= E[X] / a , ∀a > 0
Esta desigualdade dá um limite superior para a probabilidade de a função X ser maior ou igual a um determinado valor
Demonstração
E[X] = ?
= Integral_0 to a (x * f_x(x)) dx + Integral_a to +inf (x * f_x(x)) dx >=
=> Integral_a to +inf (x * f_x(x)) dx >= Integral_a to +inf (a * f_x(x)) dx >= a * P[X >= a]
Logo: P[X >= a] <= E[X] / a
Exemplo
Média de alturas: 1,65m
Qual o limite superior de probabilidade de um indivíduo ultrapassar os 2 metros
P(X >= 2) <= 1,65 / 2 = 0,825
Desigualdade de Chebyshev
P(|X - E[X]| >= a) <= Var(X) / a^2
Ou em alternativa
P(|X - E[X]| < a) >= 1 - Var(X) / a^2
Se expressarmos a em função do desvio padrão, fazendo a = h𝜎, teremos:
P(|X - E[X]| >= h𝜎) <= 𝜎^2 / (h𝜎)^2 = 1 / h^2
Qual a probabilidade da média das amostras se aproximar do valor médio (a menos de 𝜖) ?
P(|Mn − E[Mn]| < 𝜖)
Usando Chebyshev temos:
P(|Mn - E[Mn]| >= 𝜖) <= Var(Mn) / 𝜖^2
= P(|Mn - E[Mn]| >= 𝜖) <= (𝜎^2 / n) / 𝜖^2
= P(|Mn - E[Mn]| < 𝜖) >= 1 - 𝜎^2 / (𝜖^2 * n)
passando ao limite
lim_n->inf P(|Mn - E[Mn]| < 𝜖) = 1
Chamado de Lei Fraca dos Grandes Números
Last updated