Probability 1684334456

Fazer download em pdf ou txt
Fazer download em pdf ou txt
Você está na página 1de 136

!

" # $% & &' &()


* & +& & &' & ()
+ (, ( % #-
.&&* //0 001( 1# *12 /3 ))* /
Sumário

Prefácio iii

Capítulo 1: Análise Combinatória 1

Exercícios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
Respostas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

Capítulo 2: Probabilidade 15

1. Definições e propriedades . . . . . . . . . . . . . . . . . . . . . . 15
2. Probabilidade condicional e independência . . . . . . . . . . . . . . . 18
3. Conjuntos limites e continuidade da probabilidade. . . . . . . . . . . . 20
Exercícios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
Respostas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

Capítulo 3: Variáveis aleatórias 33

1. Definições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2. Variáveis aleatórias conjuntamente distribuídas . . . . . . . . . . . . . 35
3. Independência de variáveis aleatórias . . . . . . . . . . . . . . . . . 36
4. Modelos de distribuições discretas. . . . . . . . . . . . . . . . . . . 37
5. Modelos de distribuições contínuas . . . . . . . . . . . . . . . . . . 39
6. Aproximação de Poisson à Binomial . . . . . . . . . . . . . . . . . . 41
7. Aproximação Normal à Binomial . . . . . . . . . . . . . . . . . . . 41
8. Funções de variáveis aleatórias . . . . . . . . . . . . . . . . . . . . 42
9. Estatísticas de ordem . . . . . . . . . . . . . . . . . . . . . . . . 45
10. Modelos multidimensionais. . . . . . . . . . . . . . . . . . . . . . 46
11. Distribuições relacionadas com a normal . . . . . . . . . . . . . . . . 47
Exercícios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
Respostas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
ii Sumário

Capítulo 4: Esperança 65
1. Definições e propriedades . . . . . . . . . . . . . . . . . . . . . . 65
2. Distribuição e esperança condicionais . . . . . . . . . . . . . . . . . 67
3. Funções geradoras . . . . . . . . . . . . . . . . . . . . . . . . . 69
4. Desigualdades . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
Exercícios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
Respostas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

Capítulo 5: Modos de Convergência e Teoremas Limites 95


1. Lema de Borel-Cantelli . . . . . . . . . . . . . . . . . . . . . . . 95
2. Modos de Convergência . . . . . . . . . . . . . . . . . . . . . . . 95
3. Teoremas Limites. . . . . . . . . . . . . . . . . . . . . . . . . . 98
4. Outros Teoremas Limites . . . . . . . . . . . . . . . . . . . . . . 100
5. Convergência de momentos . . . . . . . . . . . . . . . . . . . . . 101
Exercícios. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
Respostas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117

Apêndice 119

Distribuição Normal Padrão 123

Referências Bibliográficas 125


Prefácio

Este livro destina-se a estudantes de cursos de probabilidade em nível de Gradua-


ção e Mestrado. Os temas abordados são: Análise Combinatória, Probabilidade, Variá-
veis Aleatórias, Esperança e Teoremas Limites. No começo de cada capítulo, visando à
recordação da matéria, reúnem-se em forma de tópicos as principais definições e resulta-
dos. Para mais detalhes e demonstrações, sugerimos ao leitor que consulte as referências
bibliográficas. Ao final de cada capítulo, enunciam-se os exercícios correspondentes à
teoria exposta, alguns dos quais têm a solução apresentada.
Cumpre-nos salientar que, por fins didáticos, decidimos definir os principais modos
de convergência para tratar dos teoremas limites. As seções e os tópicos marcados com
um asterisco correspondem a assuntos mais avançados, que podem ser omitidos em uma
primeira leitura. Os exercícios que envolvem esses assuntos também estão assinalados.
Aceitaremos, com prazer, as críticas e sugestões que nos permitam aperfeiçoar o livro.
Gostaríamos de expressar nosso agradecimento aos professores com os quais con-
vivemos nos anos de formação acadêmica, assim como aos autores e docentes cujos livros,
listas de exercícios e provas nos serviram de fonte. Agradecemos também ao Departa-
mento de Estatística e à Comissão dos Cursos de Verão do IME–USP, à CAPES-PROEX
e à FAPESP, pelo apoio recebido.

Novembro de 2008.
Os autores.
Capítulo 1

Análise Combinatória

1.1. Princípio multiplicativo: Uma tarefa deve ser executada em uma seqüência de
r etapas. Existem n1 maneiras de realizar a primeira etapa; para cada uma dessas n1
maneiras, existem n2 maneiras de realizar a segunda etapa; para cada uma dessas n2
maneiras, existem n3 maneiras de realizar a terceira etapa, e assim por diante. Então, o
número total de maneiras de efetuar a tarefa completa é dado por n1 n2 . . . nr .

Observação. Ao usar o princípio multiplicativo, é fundamental que o número de manei-


ras de realizar uma determinada etapa não seja influenciado por nenhuma das etapas
predecessoras.

1.2. Princípio aditivo para partes disjuntas: Se A1 , . . . An são conjuntos dois a dois
disjuntos, então
n
[ n
X
Ai = |Ai |.
i=1 i=1

Princípio da Inclusão-Exclusão: Em geral, devemos usar


n
[ X X
Ai = |Ai | − |Ai ∩ Aj |
i=1 i i<j
X
+ |Ai ∩ Aj ∩ Ak | − · · · + (−1)n+1 |A1 ∩ . . . ∩ An |.
i<j<k

1.3. Convém recordar uma técnica bastante útil em problemas de contagem: primeiro
ignore uma restrição do problema, contando a mais. Depois, desconte o que foi indevida-
mente contado.

1.4. Um conjunto com n elementos tem 2n subconjuntos.

1.5. Permutações: O número de maneiras de ordenar n objetos distintos é

n! = n (n − 1) . . . 2 1.

O número n! é chamado o fatorial de n. Por convenção, 0! = 1.


2 Análise Combinatória

Observação. Uma fórmula muito importante quando se trata de fatoriais foi obtida por
Stirling (1730):

n! ∼ nn e−n 2πn,

onde o símbolo ∼ indica que a razão entre os dois lados tende a 1 quando n → ∞.

1.6. Permutações circulares: O número de maneiras de dispor n objetos distintos em


torno de um círculo é (n − 1)!.
Nessa contagem, interessa apenas a posição relativa dos objetos entre si, ou seja, duas
disposições são consideradas indistinguíveis se uma pode ser obtida a partir da outra por
uma rotação conveniente dos objetos.

1.7. O número de palavras de comprimento k que podem ser compostas com n elementos
dados é nk .

1.8. Arranjos: O número de k-subconjuntos ordenados de um n-conjunto é

(n)k = n(n − 1) . . . (n − k + 1).

1.9. Combinações: O número de k-subconjuntos de um n-conjunto é


!
n n!
= ,
k k! (n − k)!

que é chamado um coeficiente binomial. Estes números podem ser arrumados em uma
disposição triangular, o famoso Triângulo de Pascal.

1.10. Teorema Binomial: Para quaisquer n ≥ 0 inteiro e x, y ∈ R,


n
!
X n k n−k
n
(x + y) = x y .
k=0 k

1.11. O número de divisões possíveis de n objetos distintos em r grupos distintos de


tamanhos respectivos n1 , n2 , . . . , nr (n1 + n2 + · · · + nr = n) é
!
n n!
= .
n 1 , n2 , . . . , n r n 1 ! n 2 ! . . . nr !

Esta fórmula também fornece o número de anagramas de uma palavra com n letras que
contém n1 vezes a letra ℓ1 , n2 vezes a letra ℓ2 , . . . , nr vezes a letra ℓr (n1 +n2 +· · ·+nr = n).
Exercícios 3

1.12. Para qualquer inteiro p > 0 fixado, o número de vetores distintos (x1 , . . . , xn ) não-
 
p+n−1
negativos e a valores inteiros que satisfazem a equação x1 + · · · + xn = p é n−1
.
Esse é o chamado número de combinações completas (ou com repetição), pois é o número
de modos de escolher p objetos entre n objetos distintos dados, podendo repetir a escolha
(xi é o número de vezes que tomamos o objeto i).

Em outras palavras, o número de maneiras de distribuir p moedas idênticas a n crianças


 
p+n−1
é n−1
.

1.13. Para qualquer inteiro p > 0 fixado, o número de vetores distintos (x1 , . . . , xn ) a
 
p−1
valores inteiros que satisfazem x1 + · · · + xn = p e xi ≥ 1 para todo i = 1, . . . , n é n−1
.

Isto significa que o número de maneiras de distribuir p moedas idênticas a n crianças de


 
p−1
forma que cada criança receba pelo menos uma moeda é n−1
.

1.14. A tabela a seguir resume o número de maneiras de tomarmos uma amostra de


tamanho k de uma população com n elementos distintos, dependendo se o mesmo objeto
pode ser escolhido mais de uma vez (amostragem com ou sem reposição) e se vamos distin-
guir entre duas escolhas com os mesmos objetos escolhidos em ordem diferente (amostra
ordenada ou não).

Ordenada Não-ordenada
 
k+n−1
Com reposição nk n−1
 
n
Sem reposição (n)k k

Exercícios

1. Quantas permutações diferentes existem das letras A, B, C, D, E, F


(a) que têm as letras A, B juntas em qualquer ordem?
(b) que têm a letra A em primeiro lugar ou a letra F em último?
(c) em que a letra A vem antes da letra B?
(d) em que a letra E não é a última?

Solução. (a) Imaginamos as letras A e B coladas como uma letra só, na ordem AB, o
que fornece 5! permutações. Como também existem 5! permutações nas quais a letra
4 Análise Combinatória

B está imediatamente antes da letra A, obtemos um total de 2 . 5! = 240 permutações


diferentes.
(b) Sejam A o conjunto das permutações que começam por A e F o conjunto das permuta-
ções que terminam em F . Pelo Princípio da Inclusão-Exclusão, o número de permutações
que começam por A ou terminam em F é

|A ∪ F| = |A| + |F| − |A ∩ F| = 5! + 5! − 4! = 216.

(c) Existe um total de 6! = 720 permutações possíveis, e existem tantas com A antes de
B quantas com B antes de A, logo a resposta é 360.
(d) Existem 5! permutações em que a letra E é a última, portanto 6! − 5! = 600 permu-
tações em que E não é a última letra.

2. Numa prova, um estudante deve responder exatamente 7 questões de um total de


10 questões. Quantas escolhas ele tem? Quantas escolhas ele tem se entre as 7 questões
deve responder pelo menos 3 das primeiras 5 questões?
Solução. O estudante deve
  escolher um subconjunto de tamanho 7 de um conjunto com
10 elementos, logo tem 10
7
= 120 escolhas.
No caso em que entre as 7 questões deve responder pelo menos 3 das primeiras 5 questões,
o estudante possui três opções (disjuntas):
• Escolher exatamente 3 das primeiras 5 questões e 4 das 5 últimas;
• Escolher exatamente 4 das primeiras 5 questões e 3 das 5 últimas;
• Escolher as 5 primeiras questões e 2 das 5 últimas.

Assim, o total de escolhas que tem é


! ! ! ! ! !
5 5 5 5 5 5
+ + = 110.
3 4 4 3 5 2
! !
5 5
Outra resposta para a segunda pergunta: 120 − = 110.
2 5

3. Um pai compra 7 presentes diferentes (entre os quais, um videogame e um relógio)


para dar a seus três filhos.
(a) De quantas maneiras ele pode dividir os 7 presentes entre os filhos, se decide dar
2 presentes ao filho mais velho, 2 presentes ao filho do meio e 3 presentes ao mais
novo?
(b) De quantas maneiras ele pode dividir os 7 presentes, se, além da divisão 2 ao
mais velho, 2 ao do meio e 3 ao mais novo, ele resolve dar pelo menos um entre o
videogame e o relógio ao filho mais velho?
(c) De quantas maneiras ele pode dividir os 7 presentes, se, além da divisão 2 ao
mais velho, 2 ao do meio e 3 ao mais novo, ele decide dar exatamente um entre o
videogame e o relógio ao filho mais velho?
Exercícios 5

Solução. (a) O número de divisões possíveis de n objetos distintos em r grupos distintos


de tamanhos respectivos n1 , n2 , . . . , nr (n1 + n2 + · · · + nr = n) é
!
n n!
= .
n 1 , n2 , . . . , n r n 1 ! n 2 ! . . . nr !
Assim, a resposta é !
7 7!
= = 210.
2, 2, 3 2! 2! 3!
Outras respostas: • O pai dispõe os presentes numa fila, os dois primeiros destinados ao
filho mais velho, os dois seguintes ao filho do meio e os três últimos ao mais novo. Existem
7! maneiras de ordenar os presentes, porém fixada uma ordenação entre os presentes, a
ordem dos presentes de cada um dos filhos pode ser alterada, sem mudar a distribuição.
7!
Dessa forma, o pai tem = 210 maneiras de distribuir os presentes.
2! 2! 3!
 
7
• O pai escolhe 2 dos 7 presentes para o filho mais velho, o que pode fazer de = 21
2 
5
modos; em seguida, deve escolher 2 dos 5 presentes restantes para o filho do meio ( 2
= 10
modos); os 3 presentes que sobram são do mais novo. A resposta é 21 . 10 = 210.
(b) Sejam
nv = Número de maneiras de dividir os presentes, sendo 2 ao filho mais velho, 2 ao do
meio e 3 ao mais novo, com o mais velho ganhando o videogame;
nr = Número de maneiras de dividir os presentes, sendo 2 ao filho mais velho, 2 ao do
meio e 3 ao mais novo, com o mais velho ganhando o relógio;
nvr = Número de maneiras de dividir os presentes, sendo o videogame e o relógio ao filho
mais velho, 2 outros presentes ao do meio e 3 ao mais novo.
Pelo Princípio da Inclusão-Exclusão, a resposta é dada por:
6! 5!
nv + nr − nvr = 2 . − = 110.
1! 2! 3! 2! 3!
  
5 5
Outra resposta: 210 − 2 2
= 110.
(c) Sejam
N1 = Número de maneiras de dividir os presentes, sendo 2 ao filho mais velho, 2 ao do
meio e 3 ao mais novo, com o mais velho ganhando o videogame porém não o relógio;
N2 = Número de maneiras de dividir os presentes, sendo 2 ao filho mais velho, 2 ao do
meio e 3 ao mais novo, com o mais velho ganhando o relógio porém não o videogame.
 
5
Uma forma de obter N1 é observar que o pai tem 1
= 5 escolhas para o outro presente
 
5
para o filho mais velho e = 10 maneiras de dividir os 5 presentes restantes entre os
2
filhos menores, logo N1 = 5 . 10 = 50. (Outro modo seria notar que N1 = nv − nvr ).
Analogamente, temos que N2 = 50. Visto que N1 e N2 se referem a opções disjuntas, o
número de maneiras é
N1 + N2 = 100.
6 Análise Combinatória

Outra resposta: 110 − nvr = 100.

4. Quantos são os anagramas da palavra “COMBINATORIA”? (Considere O sem acento).


Quantos deles começam por vogal ou terminam em consoante?
Solução. O número de permutações de n objetos, dos quais n1 são do tipo 1, n2 são do
tipo 2, . . . , nk são do tipo k (n1 + n2 + · · · + nk = n) é
n!
.
n 1 ! n 2 ! . . . nk !

A palavra “COMBINATORIA” tem 2A, 2I, 2O, 1B, 1C, 1M, 1N, 1R, 1T, logo o número
total de anagramas (ordenações diferentes das letras) é
12!
= 59875200.
2! 2! 2!
Outra resposta:
  Escolhemos 2 de 12 lugares para colocar as 2 letras A, o que pode ser
12
feito de 2 = 66 modos; em seguida, devemos escolher 2 dos 10 lugares restantes para
 
10
colocar as 2 letras I ( = 45 modos); a seguir, escolhemos 2 dos 8 lugares que restam
 2
8
para as 2 letras O ( = 28 modos) e finalmente temos 6 lugares para 6 letras distintas
2
(6! = 720 modos). A resposta é 66 . 45 . 28 . 720 = 59875200.
Sejam V o conjunto dos anagramas que começam por vogal e C o conjunto dos anagramas
que terminam em consoante. A fim de obter |V|, notamos que temos 3 escolhas para
11!
a vogal inicial e, feita essa escolha, formas de permutar as letras restantes. Para
2! 2!
11!
calcular |C|, existem 6 escolhas para a consoante final e, tomada essa decisão,
2! 2! 2!
10!
modos de permutar as letras restantes. Analogamente, |V ∩ C| = 3 . 6 . .
2! 2!
Pelo Princípio da Inclusão-Exclusão, concluímos que o número de anagramas que começam
por vogal ou terminam em consoante é:
11! 11! 10!
|V ∪ C| = |V| + |C| − |V ∩ C| = 3 . + 6. − 3.6. = 43545600.
2! 2! 2! 2! 2! 2! 2!

5. Permutam-se de todas as formas possíveis os algarismos 1, 2, 4, 6, 7 e escrevem-se os


números formados em ordem crescente. Determine:
(a) que lugar ocupa o número 62417.
(b) que número ocupa o 66º lugar.
(c) qual o 166º algarismo escrito.
(d) a soma dos números assim formados.

Solução. (a) Precisamos determinar quantos números antecedem o 62417. Antecedem-no


todos os números começados em 1 (4! = 24), em 2 (4! = 24), em 4 (4! = 24), em 61 (3!
= 6) e em 621 (2! = 2), logo 80 números. O número 62417 ocupa o 81º lugar.
Exercícios 7

(b) Contemos os números:


Começados por Quantidade Acumulado
1 4! = 24 24
2 4! = 24 48
41 3! = 6 54
42 3! = 6 60
46 3! = 6 66
Assim, o 66º número é o último (maior) que começa com 46, portanto o 46721.
(c) Visto que 166 = 5 . 33 + 1, o 166º algarismo escrito é o primeiro do 34º número. Os
24 primeiros números começam por 1 e os 24 seguintes por 2, logo o 34º número começa
por 2. Assim, o 166º algarismo escrito é 2.
(d) Iniciamos como se deve: somando as unidades dos números formados. Cada um dos
algarismos 1, 2, 4, 6, 7 aparece como algarismo das unidades em 24 números, portanto a
soma das unidades dos números é 24 . (1 + 2 + 4 + 6 + 7) = 480. Analogamente, a soma
das dezenas é 480 dezenas, isto é, 4800. A soma das centenas é 48000, a das unidades de
milhar é 480000 e a das dezenas de milhar é 4800000. A soma total fica então

480 + 4800 + 48000 + 480000 + 4800000 = 480 . 11111 = 5333280.

6. Quantos são os anagramas da palavra “PARAGUAIO” que não possuem consoantes


adjacentes?
Solução. Arrumemos inicialmente as vogais, o que pode ser feito de 6!/3! = 120 modos,
e depois colocamos as consoantes de forma que não fiquem adjacentes. Arrumadas as
vogais (digamos na ordem “AAUAIO”), temos 7 escolhas para a colocação do P, 6 para o
R e 5 para o G. Assim, existem 120 . 7 . 6 . 5 = 25200 anagramas de “PARAGUAIO” que
não possuem consoantes adjacentes.
Outra resposta: Escolhida a ordem das consoantes, decidimos quantas vogais desejamos
colocar nos quatro espaços disponíveis (de forma que
 não fiquem consoantes adjacentes)
e finalmente permutamos as vogais. O total fica 3! 73 6!/3! = 25200.

7. Quantos são os números inteiros positivos menores que 360 e primos com 360?
Solução. Notamos que 360 = 23 . 32 . 5 e definimos os conjuntos

A = {1, 2, . . . , 360},

A1 = {x ∈ A : x é múltiplo de 2},

A2 = {x ∈ A : x é múltiplo de 3},

A3 = {x ∈ A : x é múltiplo de 5}.
8 Análise Combinatória

Desejamos calcular a cardinalidade do conjunto A \ (A1 ∪ A2 ∪ A3 ). Porém,


360 360 360
|A1 | = = 180, |A1 ∩ A2 | = = 60, |A1 ∩ A2 ∩ A3 | = = 12.
2 2.3 2.3.5
360 360
|A2 | = = 120, |A1 ∩ A3 | = = 36,
3 2.5
360 360
|A3 | = = 72, |A2 ∩ A3 | = = 24,
5 3.5
Portanto, pelo Princípio da Inclusão-Exclusão,
|A1 ∪ A2 ∪ A3 | = 180 + 120 + 72 − 60 − 36 − 24 + 12 = 264.
Assim, existem ao todo 96 números inteiros positivos menores que 360 e primos com 360.

8. Uma bolsa contém 8 moedas de 1 real, 7 moedas de 50 centavos, 4 moedas de 25


centavos e 3 moedas de 10 centavos. De quantos modos diferentes podemos retirar 6
moedas dessa bolsa?
Solução. Definimos
x1 : número de moedas de 1 real,

x2 : número de moedas de 50 centavos,

x3 : número de moedas de 25 centavos,

x4 : número de moedas de 10 centavos.


Queremos obter o número de soluções inteiras não-negativas da equação x1 +x2 +x3 +x4 =
6, satisfazendo as condições x1 ≤ 8, x2 ≤ 7, x3 ≤ 4 e x4 ≤ 3. Sejam os conjuntos
A = {(x1 , x2 , x3 , x4 ) ∈ N4 : x1 + x2 + x3 + x4 = 6},

A1 = {(x1 , x2 , x3 , x4 ) ∈ A : x1 ≥ 9},

A2 = {(x1 , x2 , x3 , x4 ) ∈ A : x2 ≥ 8},

A3 = {(x1 , x2 , x3 , x4 ) ∈ A : x3 ≥ 5},

A4 = {(x1 , x2 , x3 , x4 ) ∈ A : x4 ≥ 4}.
Então, o número pedido é y = |A| − |A1 ∪ A2 ∪ A3 ∪ A4 |. No entanto,
! ! !
9 4 5
|A| = = 84, |A1 | = |A2 | = 0, |A3 | = = 4, |A4 | = = 10,
3 3 3
|Ai ∩ Aj | = 0, 1 ≤ i < j ≤ 4,

|Ai ∩ Aj ∩ Ak | = 0, 1 ≤ i < j < k ≤ 4 e

|A1 ∩ A2 ∩ A3 ∩ A4 | = 0.
Usando o Princípio da Inclusão-Exclusão, obtemos que y = 84 − 4 − 10 = 70.
Exercícios 9

9. O conjunto A possui 3 elementos, e o conjunto B, 10 elementos. Quantas funções


f : A → B existem? Quantas delas são injetoras?

10. De quantos modos podemos colocar dois reis diferentes em casas não-adjacentes de
um tabuleiro 6 × 6? E se os reis fossem iguais?

11. Quantos números pares de dois algarismos podem ser formados no sistema decimal
(a) podendo repetir algarismos?
(b) sem repetir algarismos?

12. Quantos números inteiros maiores que 53000 e de cinco algarismos distintos podem
ser formados com os algarismos 0, 1, 2, 3, 4, 5, 6 e 7?

13. Quantas são as permutações dos números 1, 2, . . . , n nas quais o elemento que ocupa
a k-ésima posição é inferior a k + 4, para todo k?

14. Quantos são os anagramas da palavra “URUGUAIO” que começam por vogal?

15. Quantos números de 5 algarismos podem ser formados usando apenas os algarismos
1, 1, 1, 1, 2 e 3?

16. Cinco moças e cinco rapazes vão posar para uma fotografia, ocupando cinco degraus
de uma escadaria, de forma que em cada degrau fique uma moça e um rapaz. De quantas
maneiras podemos arrumar este grupo?

17. De quantos modos quatro casais podem sentar-se em torno de uma mesa redonda
(a) não sentando juntos dois homens?
(b) não sentando juntos dois homens e nenhum homem ficando perto de sua esposa?

18. Participam de um congresso 15 professores de Matemática e 15 professores de Física.


Quantas comissões de 8 professores podem ser formadas:
(a) sem restrições?
(b) com pelo menos um professor de Matemática?
(c) com pelo menos 4 professores de Matemática e pelo menos 2 professores de Física?

19. De quantas maneiras se pode preencher um cartão da loteria esportiva (com 13 jogos)
com três prognósticos duplos e dois triplos?

20. Sinais luminosos são transmitidos de uma ilha para a costa por meio de seis lâmpadas
brancas e seis lâmpadas vermelhas, colocadas nos vértices de um hexágono regular, de tal
modo que
(i) em cada vértice há duas lâmpadas de cores diferentes;
(ii) em cada vértice não há mais do que uma lâmpada acesa;
(iii) o número mínimo de vértices iluminados é três.
10 Análise Combinatória

Determine o número total de sinais que podem ser transmitidos.

21. Suponha que João vai participar de uma reunião na qual estarão mais 4 homens e 6
mulheres. Ele sabe que há 4 casais, porém não conhece ninguém.
(a) De quantas formas poderia João imaginar que estão formados os casais?
(b) E se sabe que há exatamente 3 casais?

22. (a) De quantos modos é possível dividir 15 atletas em três times de 5 atletas, deno-
minados Esporte, Tupi e Minas?
(b) De quantos modos é possível dividir 15 atletas em três times de 5 atletas?

23. Quantos são os anagramas da palavra “ARARAQUARA” que não possuem duas
letras A juntas?

24. Quantos são os anagramas da palavra “CONTADORIA”


(a) em que aparecem juntas, nesta ordem, as letras da palavra CONTO?
(b) em que aparecem juntas, numa ordem qualquer, as letras da palavra CONTO?
(c) em que as letras da palavra CONTO aparecem nesta ordem?

25. Considerando o alfabeto com 26 letras, existem quantas seqüências de 4 letras distin-
tas com pelo menos uma vogal?

26. Dentre todos os números de 7 algarismos, quantos possuem exatamente três algaris-
mos 9 e os quatro algarismos restantes todos diferentes?

27. Quantas são as permutações dos 10 números 0, 1, . . . , 9 em que o primeiro dígito é


maior do que 1 e o último dígito menor do que 7?

28. Representantes de dez países, incluindo a Rússia, França, Inglaterra e Estados Unidos,
serão dispostos em uma fila. De quantas maneiras isso pode ser feito, se os representantes
da França e da Inglaterra devem ficar um ao lado do outro, e o americano e o russo não
devem?

29. Teresa pretende convidar 5 de 11 amigos para um jantar em sua casa.


(a) Quantas escolhas Teresa possui, se 2 dos 11 amigos são desafetos e não aceitam
estar juntos?
(b) Quantas escolhas Teresa tem, se 3 dos 11 amigos não aceitam participar do jantar
a menos que juntos?

30. De quantos modos se podem repartir 27 livros diferentes entre Ana, Beto e Carla, de
forma que Ana e Beto, juntos, recebam o dobro de livros de Carla e que ninguém fique
sem livro?
Exercícios 11

31. Quantos números de 6 algarismos podemos formar com 3 pares distintos de algarismos
iguais?

32. De quantas maneiras se podem pintar seis esferas iguais, usando-se apenas três cores
diferentes?
33. De quantas maneiras podemos distribuir 30 laranjas para 4 crianças de forma que
cada uma receba pelo menos duas laranjas?

34. Obtenha uma fórmula para o número de soluções inteiras não-negativas da inequação

x1 + · · · + xn ≤ p (p > 0 inteiro dado).

35. Obtenha uma fórmula para o número de soluções inteiras não-negativas da equação

x1 + · · · + xn = p (p > 0 inteiro dado)

satisfazendo xi ≥ ai para todo i = 1, . . . , n, onde a1 , . . . , an são inteiros não-negativos tais


que a1 + · · · + an ≤ p.

36. Quantos inteiros entre 1 e 100000 têm a propriedade de que cada dígito é menor ou
igual ao seu sucessor?

37. Em um amigo secreto, dizemos que o sorteio é viável se nenhuma pessoa fica com seu
próprio nome. Quantos sorteios viáveis existem em um amigo secreto com 4 pessoas?

38. Obtenha o número total de permutações de (1, 2, . . . , 2n) em que nenhum número
ímpar ocupa o seu lugar primitivo.

39. Se quatro americanos, três franceses e três ingleses são colocados em uma fila, deter-
mine o número de maneiras de dispô-los de forma que nenhum grupo de mesma naciona-
lidade fique todo junto.

40. Quantos inteiros entre 1 e 33000 não são divisíveis por 3, por 5 e nem por 11?

41. Quantos inteiros entre 1 e 1000000 não são quadrados perfeitos, cubos perfeitos e nem
quartas potências perfeitas?

42. Quantos números de n algarismos (n ≥ 3) podemos formar com os algarismos 1, 2


e 3, de forma que em cada número figure cada um desses três algarismos pelo menos uma
vez?
43. Quantos inteiros entre 1 e 10000 têm soma de seus algarismos igual a 23?

44. No elevador de um edifício entram seis pessoas. De quantas maneiras essas seis pessoas
podem saltar no primeiro, segundo e terceiro andares, de forma que salte pelo menos uma
pessoa em cada um desses andares?
12 Análise Combinatória

45. De quantos modos podemos distribuir 3 moedas de 25 centavos, 5 moedas de 50


centavos e 4 moedas de 1 real entre dois meninos, de maneira que cada menino receba
pelo menos uma moeda?

46. De quantas maneiras podemos distribuir 8 maçãs, 10 peras e 7 laranjas em quatro


caixas, se cada caixa deve receber ao menos uma fruta?

47. Mostre que o produto de p números naturais consecutivos é divisível por p!.

48. Prove, usando um argumento combinatório, que


! ! ! !
n m n n−k
(a) = para 0 < k ≤ m ≤ n.
m k k m−k
! ! ! ! ! ! !
n+m n m n m n m
(b) = + + ··· + para r ≤ n, r ≤ m.
r 0 r 1 r−1 r 0
n
!
X n 3
(c) k = 2n−3 n2 (n + 3) para n ≥ 3.
k=1 k
(3n)!
(d) é um número inteiro (n ≥ 1).
2n 3n
(3n)!
(e) é um número inteiro (n ≥ 1).
n! 2n 3n
Sugestão: (c) Considere n pessoas e conte de duas formas diferentes o número de modos
de escolher um grupo com pelo menos uma pessoa e selecionar desse grupo um presidente,
um vice e um secretário, os cargos podendo ser cumulativos.
(d) e (e) Pense qual é o número de maneiras de separar 3 n objetos distintos em n grupos
de tamanho 3.

Respostas

9. 1000 funções, 720 injetoras

10. 1040, 520

11. (a) 45 (b) 41

12. 2160

13. 6 . 4n−3
14. 5040
15. 30
16. 460800
17. (a) 144 (b) 12
Respostas 13

18. (a) 5852925 (b) 5846490 (c) 3755115

19. 2279881890
20. 656
21. (a) 360 (b) 480

22. (a) 756756 (b) 126126

23. 120
24. (a) 360 (b) 21600 (c) 15120

25. 215160
26. 99120
27. 2056320
28. 564480
29. (a) 378 (b) 84

30. ≈ 1,23 . 1012

31. 9720
32. 28
33. 2300
 
p+n
34. n

 
p−a1 −···−an +n−1
35. n−1

36. 2001
37. 9
n
!
X n
k
38. (−1) (2n − k)!
k=0 k

39. 3079296
40. 16000
41. 998910
42. 3n − 3 . 2n + 3
43. 480
44. 540
14 Análise Combinatória

45. 118
46. 5239868
Capítulo 2

Probabilidade

1. Definições e propriedades

1.1. Um experimento é aleatório se, ao ser repetido nas mesmas condições, é impossível
prever antecipadamente o resultado. Em contrapartida, um experimento é determinístico
se, quando repetido nas mesmas condições, conduz ao mesmo resultado.
Denominamos espaço amostral o conjunto de todos os resultados possíveis de um experi-
mento aleatório, e o denotamos por Ω. Um subconjunto A ⊂ Ω é chamado evento.
Dados dois eventos A e B, dizemos que A ⊂ B se ω ∈ A implica que ω ∈ B. Em palavras,
a ocorrência de A implica a ocorrência de B.
A união de dois eventos A e B é A ∪ B = {ω : ω ∈ A ou ω ∈ B} e representa o evento de
que pelo menos um dos dois eventos A e B ocorre.
A intersecção de dois eventos A e B é A ∩ B = {ω : ω ∈ A e ω ∈ B} e representa o evento
de que ambos A e B ocorrem.
Dois eventos A e B são disjuntos ou mutuamente exclusivos se A ∩ B = ∅. Isso significa
que A e B não ocorrem simultaneamente.
Para qualquer evento A, o complementar de A é Ac = {ω ∈ Ω : ω 6∈ A} e representa o
evento de que A não ocorre.

1.2. Leis de De Morgan:


[
∞ c ∞
\
Ai = Aci , (DM1)
i=1 i=1
\
∞ c ∞
[
Ai = Aci . (DM2)
i=1 i=1

Notamos que (DM1) estabelece que o evento de que nenhum dos Ai ’s ocorre é igual ao
complementar do evento de que pelo menos um dos Ai ’s ocorre. Já (DM2) expressa que
o complementar do evento de que todos os Ai ’s ocorrem é exatamente o evento de que ao
menos um deles não ocorre.
16 Probabilidade

A B A B

A∪B A∩B

A B Ac
A e B disjuntos

Figura 2.1: União e intersecção dos eventos A e B; A e B disjuntos; Complementar de A.

1.3. Definição clássica (Cardano (1663), De Moivre (1718), Laplace (1812)):


Seja Ω finito, não-vazio, e suponhamos que cada subconjunto elementar de Ω é igualmente
provável. Então, para qualquer A ⊂ Ω, definimos a probabilidade de A como

|A|
P (A) = .
|Ω|

Observação. A definição anterior formaliza a primeira definição conhecida de probabili-


dade: “relação entre o número de casos favoráveis ao acontecimento (evento) e o número
total de casos possíveis, supondo todos os casos igualmente possíveis”.

1.4. Definição axiomática (Kolmogorov (1933)): Uma probabilidade é uma função


P (·) a valores reais definida em uma classe F de eventos de um espaço amostral Ω, que
satisfaz as seguintes condições:

(A1) 0 ≤ P (A) ≤ 1 para todo A ∈ F,

(A2) P (Ω) = 1,

(A3) Aditividade enumerável: para qualquer seqüência A1 , A2 , . . . ∈ F de eventos dois a


dois disjuntos,
[
∞  ∞
X
P Ai = P (Ai ).
i=1 i=1

A tripla (Ω, F, P ) é chamada um espaço de probabilidade.


Definições e propriedades 17

Observação. No caso de Ω finito ou infinito enumerável, podemos definir a probabilidade


na classe F de todos os subconjuntos de Ω, a qual é usualmente denotada por 2Ω ou P(Ω)
(conjunto das partes de Ω). Neste caso, escrevendo Ω como Ω = {ω1 , ω2 , . . .}, associamos
P∞
a cada ωi , i = 1, 2, . . . , um número p(ωi ) tal que p(ωi ) ≥ 0 e i=1 p(ωi ) = 1. Para
i = 1, 2, . . . , p(ωi ) é a probabilidade do evento simples {ωi }. A probabilidade de um
evento A ⊂ Ω é definida por
X
P (A) = p(ωi ).
i: ωi ∈A

Quando Ω é infinito não-enumerável, é em geral impossível associar uma probabilidade


bem definida a todos os subconjuntos de Ω. Define-se então uma probabilidade em uma
classe mais restrita de subconjuntos de Ω; apenas esses subconjuntos são denominados
eventos. O ponto essencial é que essa classe contém todos os subconjuntos (eventos) de
interesse prático. Um exemplo importante é Ω igual a um intervalo da reta, para o qual
se considera a classe de subconjuntos conhecida como σ-álgebra de Borel. Para mais
detalhes sobre esse tema, sem ainda abordar profundamente a Teoria da Medida, veja-se
o livro de James [8].

1.5. Propriedades de uma probabilidade:

1. P (∅) = 0.

2. Aditividade finita: Se A1 , . . . , An são eventos dois a dois disjuntos, então


[
n  n
X
P Ai = P (Ai ).
i=1 i=1

3. P (Ac ) = 1 − P (A) para todo evento A.

4. Para quaisquer eventos A e B,

P (B) = P (A ∩ B) + P (Ac ∩ B).

5. Se A ⊂ B, então P (A) ≤ P (B).

6. Para quaisquer eventos A e B,

P (A ∪ B) = P (A) + P (B) − P (A ∩ B).


18 Probabilidade

7. Princípio da Inclusão-Exclusão: Para qualquer seqüência finita A1 , A2 , . . . , An de


eventos,
[
n  X X
P Ai = P (Ai ) − P (Ai ∩ Aj )
i=1 i i<j
X
+ P (Ai ∩ Aj ∩ Ak ) − · · · + (−1)n+1 P (A1 ∩ . . . ∩ An ).
i<j<k

8. Subaditividade finita: Para qualquer seqüência finita A1 , A2 , . . . , An de eventos,


[
n  n
X
P Ai ≤ P (Ai ).
i=1 i=1

9. Subaditividade enumerável: Para qualquer seqüência A1 , A2 , . . . de eventos,


[
∞  ∞
X
P Ai ≤ P (Ai ).
i=1 i=1

As propriedades 8 e 9 são conhecidas por desigualdades de Boole.

2. Probabilidade condicional e independência

2.1. Seja (Ω, F, P ) um espaço de probabilidade. Para eventos A e B com P (B) > 0, a
probabilidade condicional de A dado que B ocorreu é definida por

P (A ∩ B)
P (A | B) = .
P (B)

2.2. Regra da multiplicação (ou da probabilidade composta): Se A1 , A2 , . . . An


são eventos com P (A1 ∩ . . . ∩ An−1 ) > 0, então

P (A1 ∩ A2 ∩ . . . ∩ An ) = P (A1 ) P (A2 | A1 ) . . . P (An | A1 ∩ . . . ∩ An−1 ).

2.3. Condicionamento: Se A e B são eventos com 0 < P (B) < 1, então

P (A) = P (A | B) P (B) + P (A | B c ) P (B c ).

2.4. Fórmula da probabilidade total: Seja {B1 , B2 , . . . , Bn } uma partição do espaço


amostral Ω em eventos de probabilidade positiva, isto é, esses eventos são dois a dois
Sn
disjuntos, Ω = i=1 Bi e P (Bi ) > 0 para todo i. Então, para qualquer evento A,
n
X
P (A) = P (A | Bi ) P (Bi ).
i=1
Probabilidade condicional e independência 19

2.5. Fórmula de Bayes (1763): Seja {B1 , B2 , . . . , Bn } uma partição do espaço amos-
tral Ω em eventos de probabilidade positiva. Se A é um evento com P (A) > 0, então,
para todo j = 1, . . . , n,
P (A | Bj ) P (Bj )
P (Bj | A) = X
n .
P (A | Bi ) P (Bi )
i=1


B1 B5 B8

B2 A
B4 B6

B3 B7 B9

Figura 2.2: Partição de Ω em {B1 , B2 , . . . , B9 } e um evento A.

2.6. Para um evento B fixado tal que P (B) > 0, temos que P (· | B) é uma probabilidade.

2.7. Dois eventos A e B são independentes se P (A ∩ B) = P (A) P (B).

Observação. Em palavras, A e B são independentes se o conhecimento da ocorrência de


um deles não influencia a probabilidade do outro.

2.8. Os eventos A1 , . . . , An são independentes se para qualquer escolha de k (2 ≤ k ≤ n)


e índices 1 ≤ i1 < i2 < · · · < ik ≤ n,

P (Ai1 ∩ Ai2 ∩ . . . ∩ Aik ) = P (Ai1 ) P (Ai2 ) . . . P (Aik ).

2.9. Uma coleção infinita de eventos é independente se toda subcoleção finita desses
eventos é independente.

2.10. Se A1 , . . . , An são independentes, então, para qualquer escolha de Bj com Bj = Aj


ou Acj ,
P (B1 ∩ B2 ∩ . . . ∩ Bn ) = P (B1 ) P (B2 ) . . . P (Bn ).
20 Probabilidade

2.11. Freqüentemente, um experimento aleatório consiste em realizar uma seqüência de


ensaios (subexperimentos). Por exemplo, se o experimento aleatório é lançar uma moeda
repetidamente, cada lançamento pode ser considerado como um ensaio. Neste caso, dizer
que os ensaios são independentes significa dizer que a seguinte condição é válida: se Ai é
um evento cuja ocorrência é completamente determinada pelo resultado do i-ésimo ensaio,
então A1 , A2 , . . . são independentes.

3. Conjuntos limites e continuidade da probabilidade*

3.1. Sejam A1 , A2 , . . . eventos em um espaço de probabilidade (Ω, F, P ).


Por An ↑ A, denotamos que

[
A1 ⊂ A2 ⊂ A3 ⊂ · · · e A= An .
n=1

Assim, An ↑ A significa que a ocorrência de An implica a ocorrência de An+1 para todo n


e A é o evento de que pelo menos um dos An ’s ocorre.
Por An ↓ A, denotamos que

\
A1 ⊃ A2 ⊃ A3 ⊃ · · · e A= An .
n=1

Dessa forma, An ↓ A significa que a ocorrência de An+1 implica a ocorrência de An para


todo n e A é o evento de que todos os An ’s ocorrem.

3.2. Continuidade por baixo da probabilidade: Se An ↑ A, então P (An ) ↑ P (A)


quando n → ∞.

Continuidade por cima da probabilidade: Se An ↓ A, então P (An ) ↓ P (A) quando


n → ∞.

3.3. Conjuntos limites: Para uma seqüência A1 , A2 , . . . de eventos em um espaço de


probabilidade (Ω, F, P ), definimos os eventos
∞ \
[ ∞
lim inf An =
n→∞
Ak e
n=1 k=n
∞ [
\ ∞
lim sup An = Ak ,
n→∞ n=1 k=n

denominados respectivamente limite inferior e limite superior da seqüência {An }.


Exercícios 21

Observamos que

ω ∈ lim inf An ⇐⇒ Existe n tal que ω ∈ Ak para todo k ≥ n


n→∞

⇐⇒ |{n : ω 6∈ An }| < ∞,

ou seja, lim inf An é o evento de que ocorre An para todo n suficientemente grande.
n→∞

Ademais,

ω ∈ lim sup An ⇐⇒ Para todo n ≥ 1, existe k ≥ n tal que ω ∈ Ak


n→∞

⇐⇒ |{n : ω ∈ An }| = ∞,

ou seja, lim sup An é o evento de que ocorre An para uma infinidade de n’s.
n→∞

Isso justifica as seguintes notações:

lim inf An = {An para todo n suficientemente grande} e


n→∞

lim sup An = {An infinitas vezes}.


n→∞

É fácil ver que lim inf An ⊂ lim sup An . Se vale a inclusão oposta, dizemos que n→∞
n→∞
lim An
n→∞
existe e é definido por
lim An = lim inf An = lim sup An .
n→∞ n→∞ n→∞

3.4. Vale que


   
P lim inf An ≤ lim inf P (An ) ≤ lim sup P (An ) ≤ P lim sup An .
n→∞ n→∞ n→∞ n→∞

3.5. Continuidade da probabilidade: Se A = lim An existe, então


n→∞

P (A) = lim P (An ).


n→∞

Isso generaliza as propriedades dadas no tópico 3.2.

Exercícios

1. Sejam A, B e C três eventos em um espaço de probabilidade. Expresse os seguintes


eventos em termos de A, B e C:
(a) Apenas A ocorre;
(b) A e B ocorrem, mas C não ocorre;
22 Probabilidade

(c) Os três eventos ocorrem;


(d) Pelo menos um dos três eventos ocorre;
(e) Nenhum dos três eventos ocorre;
(f) Exatamente um dos três eventos ocorre;
(g) No máximo um dos três eventos ocorre;
(h) Pelo menos dois dos três eventos ocorrem.

2. Um baralho comum consiste de 52 cartas separadas em 4 naipes com 13 cartas de cada


um. Para cada naipe, os valores das cartas são 2, 3, 4, 5, 6, 7, 8, 9, 10, J, Q, K e A. Um
baralho comum é embaralhado. Qual é a probabilidade de que as quatro cartas do topo
tenham
(a) valores diferentes?
(b) naipes diferentes?

Solução. Se consideramos como relevante a ordem entre as quatro cartas do topo, então
o espaço amostral consiste de 52 . 51 . 50 . 49 resultados. Além disso, existem 52 . 48 . 44 . 40
resultados em que as cartas têm valores diferentes e 52 . 39 . 26 . 13 resultados em que as
cartas têm naipes diferentes. Portanto, assumindo que o “embaralhamento” significa que
cada resultado no espaço amostral é igualmente provável, temos que as probabilidades
desejadas são
52 . 48 . 44 . 40 52 . 39 . 26 . 13
(a) ≈ 0,676; (b) ≈ 0,105.
52 . 51 . 50 . 49 52 . 51 . 50 . 49
Observação. Claramente as mesmas respostas seriam obtidas se considerássemos as quatro
cartas do topo como um conjunto não ordenado de cartas.

3. Em uma classe, estudam dez crianças, entre as quais os irmãos Ana e Beto. A professora
decide separar ao acaso a turma em dois grupos de cinco crianças cada um; o primeiro
grupo fará um trabalho sobre os planetas e o segundo sobre as civilizações antigas. Qual
é a probabilidade de que os irmãos Ana e Beto façam parte do mesmo grupo? Há alguma
diferença (no raciocínio e no resultado) se ambos os grupos farão trabalhos sobre o mesmo
assunto?
4. Extraem-se 4 cartas de um baralho com 52 cartas. Qual é a probabilidade de que 2
sejam pretas e 2 vermelhas?

5. Qual é a probabilidade de que os aniversários de doze pessoas sejam em meses diferen-


tes? E a probabilidade de que os aniversários de quatro pessoas sejam em dois meses?

6. Uma pessoa possui 5 livros diferentes de Matemática, 2 livros diferentes de Química


e 3 livros diferentes de Física, que serão dispostos aleatoriamente em uma prateleira.
Calcule as probabilidades de que:
(a) os livros de cada assunto fiquem juntos.
Exercícios 23

(b) os livros de Matemática não fiquem todos juntos.


(c) os livros de Física fiquem todos separados.

7. Uma caixa contém 40 parafusos bons e 10 defeituosos. Seleciona-se uma amostra de 5


parafusos. Calcule as probabilidades dos seguintes eventos:
(a) nenhum parafuso na amostra é defeituoso.
(b) nenhum, um ou dois parafusos na amostra são defeituosos.
(c) a amostra contém pelo menos um parafuso bom.

8. Distribuímos 12 bolas em 5 caixas numeradas 1, 2, 3, 4, 5. Calcule a probabilidade da


caixa 1 conter exatamente 3 bolas se
(a) as bolas são distinguíveis.
(b) as bolas são indistinguíveis.

9. Os clubes de xadrez de duas escolas consistem, respectivamente, de 8 e 9 jogadores.


Quatro membros de cada clube são escolhidos ao acaso para participar de uma competição
entre as duas escolas. Os jogadores selecionados de uma equipe são pareados aleatoria-
mente com aqueles da outra equipe, e cada par joga uma partida de xadrez. Suponha
que Rosa e sua irmã Margarida estão nos clubes de xadrez em escolas diferentes. Qual a
probabilidade de que
(a) Rosa e Margarida sejam pareadas;
(b) Rosa e Margarida sejam escolhidas para representar suas escolas mas não joguem
entre si;
(c) exatamente uma das irmãs seja selecionada para representar sua escola.

10. Se André e Pedro estão entre n homens dispostos aleatoriamente em uma fila, qual é
a probabilidade de que haja exatamente r homens entre eles?

11. Suponha que cada uma de um total de n varetas seja quebrada em uma parte longa
e uma curta. As 2n partes são arrumadas ao acaso em n pares a partir dos quais novas
varetas são formadas. Calcule a probabilidade de que
(a) as partes sejam unidas na ordem original;
(b) todas as partes longas sejam emparelhadas com partes curtas.

12. Um armário contém n pares diferentes de sapatos. Se 2r sapatos são escolhidos ao


acaso (com 2r < n), determine a probabilidade de que dentre os sapatos selecionados
(a) não exista par algum completo;
(b) exista exatamente um par completo;
(c) existam exatamente dois pares completos.
24 Probabilidade

Considere n = 10 e r = 2 e calcule de duas maneiras diferentes a probabilidade de que


exista pelo menos um par completo dentre os sapatos selecionados.

13. Uma urna contém a bolas azuis e b bolas brancas. As bolas são retiradas uma a uma
da urna, ao acaso e sem reposição, até que a urna fique vazia. Calcule a probabilidade de
que a última bola retirada seja azul nos seguintes casos:
(a) as bolas são todas distintas.
(b) as bolas são distinguíveis apenas pela cor.

14. Prove que se A1 , A2 , . . . e B1 , B2 , . . . são eventos do mesmo espaço de probabilidade


tais que P (An ) → 1 e P (Bn ) → p quando n → ∞, então P (An ∩Bn ) → p quando n → ∞.

15. Uma secretária atrapalhada prepara quatro cartas com conteúdos distintos para en-
viar a quatro firmas distintas. Na hora de envelopá-las, bate um vento que derruba as
cartas e os envelopes, e, com pressa, a secretária coloca aleatoriamente as cartas nos
envelopes.
(a) Determine a probabilidade de que nenhuma carta tenha sido corretamente envelo-
pada.
(b) Sabendo que ao menos uma carta foi colocada no envelope certo, calcule a proba-
bilidade de que todas as cartas tenham sido corretamente envelopadas.

Solução. (a) Sejam os eventos

A : Pelo menos uma carta foi colocada no envelope certo.


Ai : A i-ésima carta foi colocada no envelope certo, i = 1, 2, 3, 4.
S4
Como A = i=1 Ai , temos que, pelo Princípio da Inclusão-Exclusão,
X X X
P (A) = P (Ai ) − P (Ai ∩ Aj ) + P (Ai ∩ Aj ∩ Ak ) − P (A1 ∩ A2 ∩ A3 ∩ A4 ).
i i<j i<j<k

Porém,
3! 1
P (Ai ) = = , i = 1, 2, 3, 4,
4! 4
2! 1
P (Ai ∩ Aj ) = = , 1 ≤ i < j ≤ 4,
4! 12
1 1
P (Ai ∩ Aj ∩ Ak ) = = ,1≤i<j<k≤4 e
4! 24
1 1
P (A1 ∩ A2 ∩ A3 ∩ A4 ) = = .
4! 24

Portanto, ! !
1 4 1 4 1 1 5
P (A) = 4 . − + − = .
4 2 12 3 24 24 8
Exercícios 25

Assim, a probabilidade de que nenhuma carta tenha sido corretamente envelopada é


P (Ac ) = 3/8 = 0,375.
(b) Visto que (A1 ∩ A2 ∩ A3 ∩ A4 ) ∩ A = A1 ∩ A2 ∩ A3 ∩ A4 , a probabilidade desejada é

P (A1 ∩ A2 ∩ A3 ∩ A4 ) 1/24 1
P (A1 ∩ A2 ∩ A3 ∩ A4 | A) = = = .
P (A) 5/8 15

16. Se quatro casais de namorados são dispostos aleatoriamente em uma fila, determine
a probabilidade de que nenhum dos casais fique junto.

17. Cinco bolas são selecionadas aleatoriamente, sem reposição, de uma urna que contém
5 bolas vermelhas, 6 bolas brancas e 7 bolas azuis. Determine a probabilidade de que
pelo menos uma bola de cada cor seja selecionada.

18. Um colégio tem em seu corpo docente sete professores de Biológicas, oito professores
de Exatas e nove professores de Humanas. Uma comissão de sete professores será selecio-
nada aleatoriamente. Determine a probabilidade de que nesta comissão haja pelo menos
um professor de cada área.

19. Um baralho comum consiste de 52 cartas diferentes sendo 13 cartas de cada naipe.
Uma pessoa retira ao acaso 13 cartas de um baralho. Calcule a probabilidade de que pelo
menos um naipe esteja ausente entre as cartas selecionadas.

20. As cartas de um baralho são misturadas e distribuídas entre 4 jogadores de modo que
cada um recebe 13 cartas. Calcule a probabilidade de que pelo menos um jogador receba
todas as cartas do mesmo naipe.

21. Sabe-se que com probabilidade 1 pelo menos um dos eventos Ai , 1 ≤ i ≤ n, ocorre, e
que não mais que dois ocorrem simultaneamente. Se P (Ai ) = p e P (Ai ∩ Aj ) = q, i 6= j,
mostre que p ≥ 1/n e q ≤ 2/n.

22. Três aventureiros devem escolher um deles para uma missão arriscada. Para isso,
pegam uma urna com duas bolas brancas e uma bola vermelha, e cada um retira suces-
sivamente uma bola, sem reposição. Aquele que pegue a bola vermelha será o escolhido
para realizar a missão. Mostre que todos têm a mesma probabilidade de ser o escolhido,
qualquer que seja a ordem em que realizem as extrações.

23. Um contador tem sobre a sua mesa dois grupos de 20 planilhas cada um. No primeiro
grupo existem duas planilhas com erros de cálculo e no segundo há três. Um vento faz
com que as planilhas caiam da mesa, e, ao arrumá-las, uma do primeiro grupo se mistura
às do segundo grupo. Qual a probabilidade de que, ao revisar uma planilha do segundo
grupo, o contador encontre um erro?

24. Um cliente que visita o departamento de roupas masculinas de uma loja compra
um terno com probabilidade 2/5, uma gravata com probabilidade 5/12 e uma camisa
26 Probabilidade

com probabilidade 1/2. O cliente compra um terno e uma gravata com probabilidade
2/15, um terno e uma camisa com probabilidade 17/60 e uma gravata e uma camisa com
probabilidade 1/4; compra os três itens com probabilidade 1/12. Considere os eventos

A : O cliente compra um terno;


B : O cliente compra uma gravata;
C : O cliente compra uma camisa.

(a) Os eventos A, B e C são independentes?


(b) Qual a probabilidade de que o cliente não compre nenhum dos itens?
(c) Dado que o cliente não vai comprar uma gravata, qual a probabilidade de que
compre um terno?
(d) Dado que o cliente vai comprar uma camisa, qual a probabilidade de que também
compre uma gravata e um terno?

25. Em um curso secundário, 1/3 dos estudantes são do sexo masculino e 2/3 dos es-
tudantes são do sexo feminino. A proporção de rapazes que estudam ciências é 20% e
apenas 10% das moças dedicam-se às ciências. Obtenha as probabilidades de que
(a) um estudante escolhido ao acaso estude ciências;
(b) um estudante de ciências selecionado ao acaso seja do sexo feminino.

Solução. Sejam os eventos

A : O estudante é do sexo feminino.


B : O estudante estuda ciências.

(a) Pela fórmula da probabilidade total,


1 2 1 1 2
P (B) = P (B| A) P (A) + P (B| Ac ) P (Ac ) = . + . = .
10 3 5 3 15
(b) Pela fórmula de Bayes,
P (B| A) P (A) (1/10)(2/3) 1
P (A| B) = = = .
P (B) 2/15 2

26. Uma fábrica de sorvete recebe o leite que utiliza de três fazendas: 20% da fazenda 1,
30% da fazenda 2 e 50% da fazenda 3. Um órgão de fiscalização inspecionou as fazendas e
constatou que 20% do leite produzido na fazenda 1 estava adulterado por adição de água,
enquanto que para as fazendas 2 e 3 essa proporção era de 5% e 2%, respectivamente. A
fábrica de sorvete recebe o leite em galões, que são armazenados em um refrigerador, sem
identificação da fazenda de proveniência. Um galão é escolhido ao acaso e seu conteúdo é
testado para verificar adulteração.
(a) Qual a probabilidade de que o galão contenha leite adulterado?
Exercícios 27

(b) Sabendo que o teste constatou que o leite do galão está adulterado, obtenha a
probabilidade de que o galão seja proveniente da fazenda 1.

27. Considere duas moedas, uma honesta e a outra que resulta cara em cada lançamento
com probabilidade 0,6. Uma moeda é escolhida ao acaso e, após lançada quatro vezes,
observa-se cara três vezes. Qual a probabilidade de que a moeda escolhida tenha sido a
moeda honesta?
28. Jogamos um dado honesto e em seguida lançamos tantas moedas honestas como os
pontos indicados no dado.
(a) Qual a probabilidade de obter quatro caras?
(b) Dado que foram obtidas quatro caras, qual a probabilidade de que o dado tenha
mostrado seis pontos?

29. A caixa I contém 4 bolas brancas e 2 pretas, a caixa II contém 3 bolas brancas e
1 preta e a caixa III contém 1 bola branca e 2 pretas.
(a) Extrai-se uma bola de cada caixa. Determine a probabilidade de que todas as bolas
sejam brancas.
(b) Seleciona-se uma caixa e dela extrai-se uma bola. Determine a probabilidade de
que a bola extraída seja branca.
(c) Calcule em (b) a probabilidade de que a primeira caixa tenha sido escolhida, dado
que a bola extraída é branca.

30. Em um restaurante, três cozinheiros A, B e C preparam um tipo especial de bolo, e


com probabilidades respectivas 0,02, 0,03 e 0,05 a massa do bolo não cresce. Sabe-se que
A prepara 50 por cento desses bolos, B 30 por cento e C 20 por cento. Se uma massa de
bolo não cresceu, qual a probabilidade de que tenha sido preparada pelo cozinheiro A?

31. Uma senhora da alta sociedade dá uma festa em sua mansão. Ao término da festa, ela
descobre que sua coleção de jóias foi roubada. Após as investigações, a polícia tem certeza
de que o ladrão foi precisamente uma das 76 pessoas presentes à festa (entre convidados
e garçons). Ademais, os investigadores encontram na cena do crime o perfil de DNA do
ladrão, e sabe-se que este perfil de DNA ocorre em 2% de toda população. Dado que o
DNA do Sr. João, o primeiro suspeito cujo DNA é analisado, combina com o perfil achado
na cena do crime, qual é a probabilidade de que ele tenha roubado as jóias?

32. Em uma cidade, os motoristas são parados pela polícia para fazer um teste sobre
o teor de álcool no sangue. Suponha que a probabilidade de que um motorista detido
esteja embriagado é 5% e que o teste realizado acerta o estado de embriaguez em 80% das
ocasiões.
(a) Qual a probabilidade de que o teste de um motorista detido resulte positivo?
Os motoristas cujos testes dão positivo são submetidos a um segundo exame, que nunca
28 Probabilidade

falha em um motorista sóbrio, porém tem probabilidade 10% de erro nos embriagados.
(b) Dado que o segundo teste de um motorista resultou negativo, qual a probabilidade
de que estava dirigindo com um índice alcoólico acima do permitido?

33. Um experimento consiste em lançar duas vezes uma moeda honesta. Considere os
eventos

A: O primeiro lançamento resulta em cara.


B: O segundo lançamento resulta em cara.
C: O resultado do primeiro lançamento coincide com o resultado do segundo lançamento.

Prove que A, B e C são independentes dois a dois, porém não são independentes.

34. Um par de dados honestos é lançado repetidamente. Supondo que os ensaios são
independentes, qual a probabilidade de que um total 8 apareça antes de um total 7?
Sugestão: Defina An o evento de que os totais 7 e 8 não ocorrem nos primeiros n − 1
ensaios e ocorre um total 8 no n-ésimo ensaio.
35. Existem duas estradas de A a B e duas estradas de B a C. Cada uma das quatro
estradas é bloqueada por queda de barreira com probabilidade p = 1/10, independente-
mente das demais. Determine a probabilidade de que exista uma estrada aberta de A a B
dado que não existe um caminho aberto de A a C.
Se, além disso, existe uma estrada direta de A a C, esta estrada sendo bloqueada com pro-
babilidade p = 1/10 independentemente das demais, encontre a probabilidade condicional
pedida.

36. Duas pessoas lançam uma moeda honesta n vezes, de forma independente. Mostre
que a probabilidade delas obterem igual número de caras é a mesma que a de obterem ao
todo n caras.
37. (a) Sejam A e B dois eventos com probabilidade positiva. Se a ocorrência de B faz de
A um evento mais provável, então a ocorrência de A faz de B um evento mais provável?
(b) Mostre que se A é um evento tal que P (A) é igual a 0 ou 1, então A é independente
de todo evento B.
38. Suponha que Ω = {1, . . . , p}, onde p é um número primo. Seja F = P (Ω) e, para
A ∈ F, defina P (A) = |A|/p. Mostre que se A e B são independentes, então ao menos
um dos dois eventos é ∅ ou Ω.
Sugestão: Prove que p é um divisor de |A| |B|.

39. Seja P uma probabilidade sobre um espaço amostral Ω e suponha que A é um evento
com 0 < P (A) < 1. Mostre que A e B são independentes se e somente se P (B |A) =
P (B |Ac ).
Sugestão: Use que P (Ac ∩ B) + P (A ∩ B) = P (B).
Exercícios 29

40. Seja P uma probabilidade sobre um espaço amostral Ω.


(a) Mostre que se A e B são eventos tais que P (A) < 1, P (B) > 0 e P (A |B) = 1,
então P (B c |Ac ) = 1.
(b) Prove que se E, F e G são eventos tais que P (F ∩ G) > 0 e P (F ∩ Gc ) > 0, então

P (E |F ) = P (E |F ∩ G)P (G |F ) + P (E |F ∩ Gc )P (Gc |F ).

41∗. Continuidade por baixo e por cima da probabilidade: Sejam A, A1 , A2 , . . .


eventos em um espaço de probabilidade.
(a) Suponha que An ↑ A e defina B1 = A1 e Bk = Ak ∩ Ack−1 , k ≥ 2.
Sn S∞
(a1) Mostre que B1 , B2 , . . . são dois a dois disjuntos, An = k=1 Bk e A = k=1 Bk .
(a2) Use a aditividade finita e enumerável para provar que P (A) = lim P (An ).
n→∞
(b) Suponha que An ↓ A. Mostre que Acn ↑ A e conclua que P (A) = lim P (An ).
c
n→∞

42∗. Uma moeda com probabilidade p de cara em cada lançamento é lançada infinitas
vezes, de maneira independente. Definimos os eventos

An : Ocorre pelo menos uma cara nos n primeiros lançamentos.


A : Ocorre pelo menos uma cara.

Mostre que
(a) An ↑ A.

 1 se 0 < p ≤ 1,
(b) P (A) =
 0 se p = 0.

43∗. Sejam A, B, A1 , A2 , . . . eventos em um espaço de probabilidade. Suponha que An ↑


A e que B é independente de An para todo n ≥ 1. Prove que A e B são independentes.

44∗. Subaditividade finita e enumerável: Sejam A1 , A2 , . . . eventos em um espaço


de probabilidade. Demonstre que
[
n  n
X
P Ak ≤ P (Ak ) para todo n ≥ 2 (Subaditividade finita) e
k=1 k=1
[
∞  ∞
X
P Ak ≤ P (Ak ) (Subaditividade enumerável).
k=1 k=1

Sugestão: Prove a subaditividade finita por indução em n. Para mostrar a subaditividade


enumerável, comece com
[
n  ∞
X
P Ak ≤ P (Ak )
k=1 k=1
Sn S∞
e use que Bn = k=1 Ak ↑ k=1 Ak quando n → ∞.
30 Probabilidade

45. Sejam A1 , A2 , . . . eventos em um espaço de probabilidade. Prove que


S∞
(a) Se P (An ) = 0 para todo n ≥ 1, então P ( n=1 An ) = 0.
T∞
(b) Se P (An ) = 1 para todo n ≥ 1, então P ( n=1 An ) = 1.

46∗. Sejam A1 , A2 , . . . eventos independentes em um espaço de probabilidade. Mostre que


 [
n  n n
X o
P Ak ≥ 1 − exp − P (Ak ) .
k=1 k=1

X  [
∞ 
P (Ak ) = ∞ =⇒ P Ak = 1.
k=1 k=1

Sugestão: Para mostrar a desigualdade, use que 1 − x ≤ e−x para todo x ∈ R.

47∗. Sejam A1 , A2 , . . . eventos independentes em um espaço de probabilidade. Prove que


\
∞  ∞
Y
P Ak = P (Ak ).
k=1 k=1

48∗. Demonstre que


 c
lim inf An
n→∞
= lim sup Acn ,
n→∞
 c
lim sup An = lim inf Acn ,
n→∞
n→∞

lim sup (An ∩ Bn ) ⊂ lim sup An ∩ lim sup Bn ,


n→∞ n→∞ n→∞

lim sup (A ∩ Bn ) = A ∩ lim sup Bn ,


n→∞ n→∞

lim sup (An ∪ Bn ) = lim sup An ∪ lim sup Bn ,


n→∞ n→∞ n→∞

lim inf (An ∪ Bn ) ⊃ lim inf An ∪ lim inf Bn ,


n→∞ n→∞ n→∞

lim inf (A ∪ Bn ) = A ∪ lim


n→∞
inf Bn ,
n→∞

lim inf (An ∩ Bn ) = lim


n→∞
inf An ∩ lim
n→∞
inf Bn ,
n→∞
 c
lim sup An ∩ lim inf An = lim sup (An ∩ Acn+1 ) = lim sup (Acn ∩ An+1 ),
n→∞ n→∞ n→∞ n→∞

lim An = A e n→∞
n→∞
lim Bn = B =⇒ n→∞
lim (An ∩ Bn ) = A ∩ B e n→∞
lim (An ∪ Bn ) = A ∪ B.

49∗. Continuidade da probabilidade: Sejam A1 , A2 , . . . eventos em um espaço de


T S∞
probabilidade. Para n ≥ 1, defina Bn = ∞k=n Ak e Cn = k=n Ak .

(a) Prove que


Bn ↑ lim inf An e Cn ↓ lim sup An .
n→∞ n→∞
Respostas 31

(b) Usando que Bn ⊂ An ⊂ Cn para todo n, mostre que


   
P lim inf An ≤ lim
n→∞
inf P (An ) ≤ lim sup P (An ) ≤ P lim sup An .
n→∞ n→∞ n→∞

(c) Conclua que se existe A = lim An , então existe lim P (An ) e P (A) = lim P (An ).
n→∞ n→∞ n→∞

50∗. Sejam B1 , B2 , . . . eventos independentes tais que P (Bn ) < 1 para todo n ≥ 1.
Demonstre que
[
∞ 
P (Bn infinitas vezes) = 1 ⇐⇒ P Bn = 1.
n=1

Dê um exemplo para mostrar que a condição P (Bn ) < 1 para todo n ≥ 1 não pode ser
dispensada.
Sugestão: Para provar a implicação ⇐, defina Ak = Bkc , k = 1, 2, . . . , e, usando o exercí-
T
cio 47, mostre que P ( ∞k=n Ak ) = 0 para todo n ≥ 1.

Respostas

1. (a) A ∩ B c ∩ C c (b) A ∩ B ∩ C c (c) A ∩ B ∩ C (d) A ∪ B ∪ C


(e) Ac ∩ B c ∩ C c = (A ∪ B ∪ C)c
(f) (A ∩ B c ∩ C c ) ∪ (Ac ∩ B ∩ C c ) ∪ (Ac ∩ B c ∩ C)
(g) (Ac ∩ B c ∩ C c ) ∪ (A ∩ B c ∩ C c ) ∪ (Ac ∩ B ∩ C c ) ∪ (Ac ∩ B c ∩ C)
(h) (A ∩ B ∩ C c ) ∪ (A ∩ B c ∩ C) ∪ (Ac ∩ B ∩ C) ∪ (A ∩ B ∩ C) = Complementar de (g)

3. 4/9, muda o raciocínio mas não o resultado.

4. 325/833

5. ≈ 5,4 . 10−5 e ≈ 0,044

6. (a) 1/420 (b) 41/42 (c) 7/15

7. (a) 0,310 (b) 0,952 (c) 0,999

8. (a) 0,236 (b) 0,121

9. (a) 1/18 (b) 1/6 (c) 1/2

10. 2(n − r − 1)/ (n(n − 1))


 
2n
11. (a) 2n n!/(2n)! (b) 2n / n
32 Probabilidade

            
n 2n n−1 2n n n−2 2n
12. (a) 2r
22r / 2r
(b) n 2r−2
22r−2 / 2r
(c) 2 2r−4
22r−4 / 2r
99/323 (Complementar do evento em (a) e Princípio da Inclusão-Exclusão).

13. A probabilidade é igual a a/(a + b) em ambos os casos. O espaço amostral no item (a)
consiste das (a + b)! ordenações entre as bolas; em (b) é formado pelas (a + b)!/(a! b!)
permutações com elementos repetidos.

16. 12/35

17. 6055/8568

18. 903/1012

19. ≈ 0,051

20. ≈ 2,5 . 10−11

22. Defina Vi o evento de selecionar a bola vermelha na i-ésima extração e mostre que
P (Vi ) = 1/3 para i = 1, 2, 3.

23. 31/210

24. (a) Não (b) 4/15 (c) 16/35 (d) 1/6

26. (a) 13/200 (b) 8/13

27. 0,42

28. (a) 29/384 (b) 15/29

29. (a) 1/6 (b) 7/12 (c) 8/21

30. 0,345

31. 2/5

32. (a) 23/100 (b) 2/97

34. 5/11

35. 99/199 em ambos os casos.

37. (a) Sim. Quando afirmamos que a ocorrência de B faz de A um evento mais provável,
queremos dizer que P (A | B) > P (A).
(b) Considere separadamente os casos P (A) = 0 e P (A) = 1. No segundo, use que
P (A ∩ B) = P (B) − P (Ac ∩ B).
Capítulo 3

Variáveis aleatórias

1. Definições

1.1. Uma variável aleatória X em um espaço de probabilidade (Ω, F, P ) é uma função a


valores reais definida em Ω, tal que

{X ≤ x} = {ω ∈ Ω : X(ω) ≤ x} ∈ F

para todo x ∈ R.
As variáveis aleatórias que assumem valores em um conjunto finito ou infinito enumerável
são chamadas discretas e aquelas que assumem valores em um intervalo da reta real são
chamadas contínuas.

1.2. A função de distribuição acumulada de uma variável aleatória X é a função F = FX


definida por
F (x) = P (X ≤ x) = P ({ω ∈ Ω : X(ω) ≤ x}), x ∈ R.

Propriedades fundamentais de uma função de distribuição:

(F1) F é uma função não-decrescente: se x < y, então F (x) ≤ F (y).

(F2) F é contínua à direita: se xn ↓ x, então F (xn ) ↓ F (x).

(F3) Se xn ↓ −∞, então F (xn ) ↓ 0; se xn ↑ +∞, então F (xn ) ↑ 1.

Outras propriedades:

(i) Para x, y ∈ R com x < y, P (x < X ≤ y) = F (y) − F (x).

(ii) Para qualquer x ∈ R,

P (X = x) = F (x) − F (x− ) = Salto de F no ponto x,

onde F (x− ) = lim F (xn ) é o limite lateral à esquerda de F em x.


xn ↑x,
xn 6=x

Assim, F é contínua em x se e somente se P (X = x) = 0.


34 Variáveis aleatórias

(iii) Para qualquer x ∈ R, P (X < x) = F (x− ).

(iv) O conjunto de pontos de descontinuidade de F é finito ou enumerável.

Observação. Uma função F : R → R que satisfaz (F1), (F2) e (F3) é a função de distri-
buição de alguma variável aleatória X.

1.3. (a) A variável aleatória X é discreta se assume um número finito ou enumerável de


valores, isto é, se existe um conjunto finito ou enumerável {x1 , x2 , . . .} ⊂ R tal que X(ω) ∈
{x1 , x2 , . . .}, ∀ ω ∈ Ω. A função p(x) = P (X = x) é chamada função de probabilidade
de X.
(b) A variável aleatória X é (absolutamente) contínua se existe uma função f (x) ≥ 0 tal
que
Z x
FX (x) = f (t) dt, ∀ x ∈ R.
−∞

Neste caso, dizemos que f é uma função densidade de probabilidade de X.

Observação. Uma variável aleatória discreta é definida quando definimos os seus valores
possíveis {xi }i≥1 e as respectivas probabilidades {pi }i≥1 satisfazendo

X
pi > 0, ∀ i e pi = 1.
i=1

Uma variável aleatória contínua é definida quando definimos uma função f : R → R tal que
Z ∞
f (x) ≥ 0, ∀ x e f (x) dx = 1.
−∞

1.4. A função indicadora de um evento A é a variável aleatória discreta que assume os


valores 1 ou 0 conforme A ocorra ou não, ou seja,

 1 se ω ∈ A,
IA (ω) =
 0 se ω 6∈ A.

1.5. Para qualquer B ⊂ R (boreliano),


 X


 p(xi ) se X é discreta,
 i: x ∈B
P (X ∈ B) =
i

 Z


 f (x) dx se X é contínua com densidade f.
B
Variáveis aleatórias conjuntamente distribuídas 35

F (x)

1
P (X = x3 )
P (X = x2 )
P (X = x1 )
x1 x2 x3 x

Figura 3.1: Função de distribuição de uma variável aleatória discreta.

fX (x)
P (a ≤ X ≤ b)

a b x

Figura 3.2: Densidade de uma variável aleatória contínua.

2. Variáveis aleatórias conjuntamente distribuídas

2.1. Sejam X e Y variáveis aleatórias definidas no mesmo espaço de probabilidade. A


função de distribuição acumulada conjunta do par (X, Y ) é definida por

F (x, y) = P (X ≤ x, Y ≤ y), x, y ∈ R.

As funções de distribuição marginais de X e Y são respectivamente dadas por

FX (x) = lim F (x, y), x ∈ R e FY (y) = lim F (x, y), y ∈ R.


y→∞ x→∞

2.2. Sejam X e Y variáveis aleatórias discretas definidas no mesmo espaço de probabili-


dade. A função de probabilidade conjunta de X e Y é

p(x, y) = P (X = x, Y = y), x, y ∈ R.

Note que p(x, y) > 0 apenas para (x, y) em um subconjunto finito ou enumerável de R2 .
As funções de probabilidade marginais de X e Y são
X X
pX (x) = p(x, y), x ∈ R e pY (y) = p(x, y), y ∈ R.
y x
36 Variáveis aleatórias

2.3. Sejam X e Y variáveis aleatórias definidas no mesmo espaço de probabilidade. Dize-


mos que X e Y são conjuntamente contínuas se existe uma função f (x, y) ≥ 0, chamada
uma função densidade de probabilidade conjunta, tal que para quaisquer x, y ∈ R,
Z x Z y
F (x, y) = f (u, v) du dv.
−∞ −∞

Se X e Y são conjuntamente contínuas com função densidade conjunta f (x, y), então são
individualmente contínuas com funções densidade marginais respectivas
Z ∞ Z ∞
fX (x) = f (x, y) dy, x ∈ R e fY (y) = f (x, y) dx, y ∈ R.
−∞ −∞

Observação. É natural a extensão das definições e resultados anteriores para o caso de


mais de duas variáveis aleatórias definidas no mesmo espaço de probabilidade.

3. Independência de variáveis aleatórias

3.1. As variáveis aleatórias X1 , . . . , Xn são independentes se para quaisquer conjuntos


Ai ⊂ R (borelianos), i = 1, . . . , n,
n
Y
P (X1 ∈ A1 , . . . , Xn ∈ An ) = P (Xi ∈ Ai ).
i=1

3.2. Sejam X1 , . . . , Xn variáveis aleatórias com função de distribuição conjunta F (x1 , . . . , xn )


e funções de distribuição marginais FX1 , . . . , FXn , respectivamente. Então, X1 , . . . , Xn são
independentes se e somente se

F (x1 , . . . , xn ) = FX1 (x1 ) . . . FXn (xn )

para qualquer escolha de x1 , . . . , xn . (Em palavras, a função de distribuição conjunta se


fatora como o produto das funções de distribuição individuais).

3.3. Critério para independência no caso discreto:


As variáveis aleatórias discretas X1 , . . . , Xn são independentes se e somente se

P (X1 = x1 , . . . , Xn = xn ) = P (X1 = x1 ) . . . P (Xn = xn )

para qualquer escolha de x1 , . . . , xn .


Modelos de distribuições discretas 37

3.4. Critério para independência no caso contínuo:


Sejam X1 , . . . , Xn variáveis aleatórias conjuntamente contínuas com função densi-
dade conjunta f (x1 , . . . , xn ) e funções densidade marginais fX1 , . . . , fXn , respectivamente.
Então, X1 , . . . , Xn são independentes se e somente se

f (x1 , . . . , xn ) = fX1 (x1 ) . . . fXn (xn )

para qualquer escolha de x1 , . . . , xn .

3.5. Uma coleção infinita de variáveis aleatórias é independente se toda subcoleção finita
dessas variáveis aleatórias é independente.

3.6. Se X1 , . . . , Xn são variáveis aleatórias independentes, então funções contínuas de


famílias disjuntas das Xi ’s são independentes.

3.7. Quando falamos de variáveis aleatórias, a abreviatura i.i.d. significa independentes e


identicamente distribuídas.

4. Modelos de distribuições discretas

Como é usual quando se trata de variáveis aleatórias, lê-se o símbolo ∼ como “tem dis-
tribuição”.

1. X ∼ Uniforme discreta sobre o conjunto {x1 , . . . , xn } ⊂ R se tem função de proba-


bilidade dada por
1
P (X = xi ) = , i = 1, . . . , n.
n
X representa a escolha ao acaso de um elemento do conjunto {x1 , . . . , xn }. O caso
particular em que x1 = 1, . . . , xn = n é denotado por X ∼ Uniforme Discreta(n).

2. X ∼ Bernoulli(p), 0 ≤ p ≤ 1, se tem função de probabilidade dada por

P (X = x) = px (1 − p)1−x , x = 0, 1.

X é a função indicadora da ocorrência de sucesso em um ensaio de Bernoulli (expe-


rimento que tem somente dois resultados possíveis: sucesso e fracasso, com proba-
bilidades respectivas p e (1 − p)).
38 Variáveis aleatórias

3. X ∼ Binomial(n, p), n ≥ 1 inteiro e 0 ≤ p ≤ 1, se tem função de probabilidade dada


por !
n x
P (X = x) = p (1 − p)n−x , x = 0, 1, . . . , n.
x
X é o número de sucessos obtidos em n ensaios de Bernoulli independentes com
probabilidade de sucesso p em cada ensaio.

É importante observar que uma variável aleatória com distribuição Binomial(n, p)


pode ser escrita como a soma de n variáveis aleatórias independentes com distribui-
ção Bernoulli(p).

Propriedade: Se X ∼ Binomial(n, p), onde 0 < p < 1, então, à medida que k vai
de 0 a n, P (X = k) primeiro cresce e depois decresce, atingindo seu valor máximo
quando k é o maior inteiro menor ou igual a (n + 1) p.

4. X ∼ Poisson(λ), λ > 0, se tem função de probabilidade dada por


e−λ λx
P (X = x) = , x = 0, 1, . . .
x!

5. X ∼ Geométrica(p), 0 < p ≤ 1, se tem função de probabilidade dada por

P (X = x) = p (1 − p)x−1 , x = 1, 2, . . .

X é o número de ensaios necessários para obter o primeiro sucesso quando se realiza


uma seqüência de ensaios de Bernoulli independentes com probabilidade de sucesso p
em cada ensaio.

Propriedade fundamental: Falta de memória.

P (X ≥ m + n | X ≥ m) = P (X ≥ n) para m, n = 1, 2, . . .

6. X ∼ Binomial Negativa(r, p), r ≥ 1 inteiro e 0 < p ≤ 1, se tem função de probabi-


lidade dada por
!
x−1 r
P (X = x) = p (1 − p)x−r , x = r, r + 1, . . .
r−1
X é o número de ensaios necessários para obter o r-ésimo sucesso quando se realiza
uma seqüência de ensaios de Bernoulli independentes com probabilidade de sucesso p
em cada ensaio.
Modelos de distribuições contínuas 39

Cumpre enfatizar que uma variável aleatória com distribuição Binomial Negativa(r, p)
pode ser escrita como a soma de r variáveis aleatórias independentes com distribui-
ção Geométrica(p).

7. X ∼ Hipergeométrica(n, R, N ), n, R, N inteiros, n ≤ N , R ≤ N , se tem função de


probabilidade dada por
! ! !−1
N −R R N
P (X = x) = ,
n−x x n

para x inteiro tal que máx(0, n − N + R) ≤ x ≤ mín(n, R). X é o número de bolas


vermelhas em uma amostra de tamanho n, extraída sem reposição de uma urna com
N bolas, das quais R são vermelhas e N − R azuis.

5. Modelos de distribuições contínuas

1. X ∼ Uniforme(a, b), a, b ∈ R, a < b, se tem densidade dada por

1
fX (x) = , a < x < b.
b−a

X representa um ponto escolhido ao acaso no intervalo (a, b).

2. X ∼ Normal(µ, σ 2 ), µ ∈ R, σ > 0, se tem densidade dada por

1 2 2
fX (x) = √ e−(x−µ) /(2σ ) , x ∈ R.
σ 2π

Essa distribuição também é chamada distribuição de Laplace-Gauss.

A distribuição normal de parâmetros µ = 0 e σ = 1 é conhecida como normal


padrão. Sua importância deriva do fato de que se pode obter uma variável aleatória
normal padrão a partir de uma normal qualquer. De fato, se X ∼ N (µ, σ 2 ), então

X −µ
Z= ∼ N (0, 1).
σ

A função distribuição da normal padrão, denotada por Φ(·), é tabelada e satisfaz


Φ(z) + Φ(−z) = 1 para todo z. A partir dela, podem-se obter probabilidades para
uma variável aleatória normal qualquer.
40 Variáveis aleatórias

3. X ∼ Exponencial(λ), λ > 0, se tem densidade dada por

fX (x) = λ e−λx , x ≥ 0.

Propriedade fundamental: Falta de memória.

P (X ≥ s + t | X ≥ s) = P (X ≥ t) para s, t ∈ R com s ≥ 0 e t ≥ 0.

4. X ∼ Gama(α, λ), α > 0, λ > 0, se tem densidade dada por


λα α−1 −λ x
fX (x) = x e , x ≥ 0.
Γ(α)
Observação. A função gama de Euler Γ : (0, ∞) → R é definida por
Z ∞
Γ(α) = xα−1 e−x dx, α > 0,
0

e possui as seguintes propriedades:

(i) Γ(α + 1) = α Γ(α), α > 0.

(ii) Γ(n + 1) = n! para n ≥ 0 inteiro.

Freqüentemente, é útil saber que


Z ∞
Γ(α)
xα−1 e−λ x dx = se α > 0 e λ > 0.
0 λα

5. X ∼ Beta(a, b), a > 0, b > 0, se tem densidade dada por


1
fX (x) = xa−1 (1 − x)b−1 , 0 ≤ x ≤ 1.
B(a, b)
Observação. A função beta de Euler B : (0, ∞) × (0, ∞) → R é definida por
Z 1
B(a, b) = xa−1 (1 − x)b−1 dx, a > 0, b > 0,
0

e satisfaz B(a, b) = Γ(a) Γ(b)/Γ(a + b).

6. X ∼ Cauchy(a, b), a ∈ R, b > 0, se tem densidade dada por


1
fX (x) = n o, x ∈ R.
π b 1 + [(x − a)/b]2

A distribuição de Cauchy com parâmetros a = 0 e b = 1 é denominada Cauchy


padrão.
Aproximação de Poisson à Binomial 41

6. Aproximação de Poisson à Binomial

Seja X ∼ Binomial(n, p), e consideremos Y ∼ Poisson(λ), com λ = n p. Se n é grande


e p é pequeno de modo que o valor de λ é moderado, podemos aproximar a função de
probabilidade de X pela função de probabilidade de Y , isto é, para qualquer inteiro k
entre 0 e n,
e−λ λk
P (X = k) ≈ P (Y = k) = .
k!
Essa aproximação é justificada pelo Teorema de Poisson (veja-se 3.8 do Capítulo 5, p. 99).
Em palavras, se são realizados n ensaios de Bernoulli independentes, cada um resultando
em sucesso com probabilidade p, então, quando n é grande e p pequeno o suficiente a
fazer n p moderado, o número de sucessos que ocorrem tem aproximadamente distribuição
de Poisson com parâmetro n p. De acordo com duas regras práticas, a aproximação é
considerada boa se n ≥ 20 e p ≤ 0,05 ou se n ≥ 100 e n p ≤ 10.

7. Aproximação Normal à Binomial

Se n é grande, então uma variável aleatória X com distribuição Binomial(n, p) tem apro-
ximadamente a mesma distribuição de uma variável aleatória normal com parâmetros
µ = n p e σ 2 = n p (1 − p). Essa afirmação é justificada pelo Teorema Central do Limite
de De Moivre e Laplace (3.7 do Capítulo 5, p. 99), o qual estabelece que, quando n → ∞,
a função de distribuição da variável

X − np

n p (1 − p)

converge em todo ponto para a função de distribuição Φ da normal padrão.


Assim, para qualquer inteiro i entre 0 e n,
! !
X − np i − np i − np
P (X ≤ i) = P √ ≤√ ≈Φ √ .
n p (1 − p) n p (1 − p) n p (1 − p)

Visto que estamos aproximando uma variável aleatória discreta por uma variável contínua,
podemos fazer o seguinte ajuste:
!
i + 0,5 − n p
P (X ≤ i) = P (X ≤ i + 0,5) ≈ Φ √ ,
n p (1 − p)
42 Variáveis aleatórias

e, para i ≤ j inteiros entre 0 e n,


! !
j + 0,5 − n p i − 0,5 − n p
P (i ≤ X ≤ j) ≈ Φ √ −Φ √ .
n p (1 − p) n p (1 − p)

Esse procedimento de subtrair e somar 0,5 é conhecido como correção de continuidade


de Fisher e fornece uma aproximação ligeiramente mais precisa, sendo especialmente
recomendável quando n não for muito grande.
Dois critérios freqüentemente usados são que n p ≥ 5 e n (1 − p) ≥ 5 ou n p (1 − p) ≥ 10
implicam uma boa aproximação.

8. Funções de variáveis aleatórias

8.1. Seja X uma variável aleatória contínua com função densidade de probabilidade f tal
que f (x) > 0 para x ∈ (a, b), com −∞ ≤ a < b ≤ ∞. Suponhamos que φ : (a, b) → R
é uma função estritamente monótona, diferenciável em (a, b), e seja φ−1 a inversa de φ.
Então, a variável aleatória definida por Y = φ(X) tem densidade dada por


 d φ−1 (y)

 f (φ−1 (y)) se y ∈ φ((a, b)),
g(y) = dy



 0 caso contrário.

φ◦X

R R

X φ

Figura 3.3: Função de uma variável aleatória.

Observação. Ao aplicar o resultado anterior, atente para os seguintes tópicos:

1. Obtenção da função inversa: y = y(x) ⇐⇒ x = x(y).


dx
2. Cálculo da derivada da inversa .
dy
3. Estudo dos valores possíveis de Y .
Funções de variáveis aleatórias 43

dx
4. Densidade de Y : g(y) = f (x(y)) .
dy

No caso da função não ser monótona, a regra geral é expressar FY em termos de FX .

8.2. Método do Jacobiano: Sejam X1 e X2 variáveis aleatórias conjuntamente contí-


nuas com função densidade conjunta f e suponhamos que f (x1 , x2 ) > 0 para (x1 , x2 ) ∈ A,
com A um conjunto aberto de R2 .
Definimos novas variáveis aleatórias Y1 e Y2 , obtidas a partir das primeiras pela transfor-
mação
y1 = φ1 (x1 , x2 ), y2 = φ2 (x1 , x2 ). (∗)

Suponhamos que:

1. As funções (∗) são contínuas e têm derivadas parciais ∂yi /∂xj , i, j = 1, 2, contínuas
em todos os pontos (x1 , x2 ) ∈ A.

2. As funções (∗) definem uma bijeção de A em A⋆ , onde A⋆ é a imagem da transfor-


mação.

3. A transformação inversa

x1 = ψ1 (y1 , y2 ), x2 = ψ2 (y1 , y2 ), (∗∗)

que existe e é única, tem Jacobiano não-nulo em A⋆


 
∂(x1 , x2 ) ∂x1 /∂y1 ∂x1 /∂y2
J(y1 , y2 ) = = det   6= 0.
∂(y1 , y2 ) ∂x2 /∂y1 ∂x2 /∂y2

Então, Y1 e Y2 são conjuntamente contínuas com função densidade conjunta dada por


 f (x1 , x2 ) |J(y1 , y2 )| se (y1 , y2 ) ∈ A⋆ ,
g(y1 , y2 ) = 
 0 caso contrário

onde x1 e x2 são dados por (∗∗).

Como freqüentemente é mais fácil obter J(x1 , x2 ) = ∂(y1 , y2 )/∂(x1 , x2 ), é importante


recordar a seguinte relação:
J(y1 , y2 ) = J(x1 , x2 )−1 ,

onde x1 e x2 são dados por (∗∗).


44 Variáveis aleatórias

Observação. O Método do Jacobiano é naturalmente estendido ao caso n-dimensional.


Seja X = (X1 , . . . , Xn ) um vetor aleatório com densidade f (x1 , . . . , xn ) e suponhamos
f
que Y = (Y1 , . . . , Yn ) = φ(X ), com φ bijetora. A aplicação do método consiste, em
e f
resumo, dos seguintes itens:

1. Obtenção da transformação inversa: y = y (x) ⇐⇒ x = x(y ).


e e e e e e
∂x
2. Cálculo do determinante Jacobiano da inversa J(y ) = e .
e ∂y
e
3. Estudo dos valores possíveis de Y .
e
4. Densidade de Y : g(y ) = f (x(y )) J(y ) .
e e e e e

O Método do Jacobiano possui uma generalização no caso de a função φ ser bijetora


quando restrita a cada uma de k regiões abertas disjuntas cuja união contém o valor de X
f
com probabilidade 1. O leitor interessado pode olhar o Teorema 2.1′ da Seção 2.7 de
James [8] e o exercício 42.

8.3. (a) Sejam X e Y duas variáveis aleatórias independentes, a valores inteiros, com
funções de probabilidade pX e pY , respectivamente. A convolução de pX e pY é a função
p = pX ∗ pY definida por
X
p(z) = pX (x) pY (z − x), z ∈ Z.
x

A função p(z) é a função de probabilidade da variável aleatória Z = X + Y .

(b) Sejam X e Y duas variáveis aleatórias contínuas e independentes, com funções den-
sidade respectivas fX e fY . A convolução de fX e fY é a função f = fX ∗ fY definida
por
Z +∞
f (z) = fX (x) fY (z − x) dx, z ∈ R.
−∞

Então, Z = X + Y tem função densidade f .

8.4. Sejam X e Y duas variáveis aleatórias contínuas e independentes, com funções den-
sidade respectivas fX e fY . Então,

(i) X − Y tem função densidade dada por


Z +∞
fX−Y (z) = fX (x) fY (x − z) dx, z ∈ R.
−∞
Estatísticas de ordem 45

(ii) XY tem função densidade dada por


Z +∞  
1 z
fXY (z) = fX (x) fY dx, z ∈ R.
−∞ |x| x

(iii) Y /X tem função densidade dada por


Z +∞
fY /X (z) = |x| fX (x) fY (xz) dx, z ∈ R.
−∞

Observação. O exercício 43 ilustra como o Método do Jacobiano é útil na determinação


das densidades da soma, diferença, produto e quociente de variáveis aleatórias contínuas.

9. Estatísticas de ordem

Sejam X1 , X2 , . . . , Xn variáveis aleatórias i.i.d., contínuas com função densidade comum f


e função de distribuição F . Defina Yi a i-ésima menor de X1 , X2 , . . . , Xn . As variáveis
aleatórias Y1 ≤ Y2 ≤ · · · ≤ Yn são denominadas as estatísticas de ordem associadas a
X1 , X2 , . . . , Xn .
A densidade conjunta de Y1 , . . . , Yn é dada por

fY1 ,...,Yn (y1 , . . . , yn ) = n! f (y1 ) . . . f (yn ), y1 < y2 < · · · < yn .

Para i < j, a densidade conjunta de Yi e Yj é dada por

n!
fYi ,Yj (x, y) = [F (x)]i−1 [F (y) − F (x)]j−i−1 [1 − F (y)]n−j f (x) f (y)
(i − 1)! (j − i − 1)! (n − j)!

para x < y.
A densidade de Yi é dada por

n!
fYi (x) = [F (x)]i−1 [1 − F (x)]n−i f (x), x ∈ R.
(i − 1)! (n − i)!

Em particular, as densidades de Y1 = mín{X1 , . . . , Xn } e Yn = máx{X1 , . . . , Xn } são,


respectivamente,

fY1 (x) = n f (x) [1 − F (x)]n−1 , x ∈ R e

fYn (x) = n f (x) [F (x)]n−1 , x ∈ R.


46 Variáveis aleatórias

10. Modelos multidimensionais

1. Distribuição multinomial: Seja Ω o espaço amostral associado a um experimento


aleatório, e suponhamos que {A1 , . . . , An } é uma partição de Ω em n eventos. Ob-
Pn
viamente, se pi = P (Ai ), então i=1 pi = 1.

Realizam-se m repetições independentes desse experimento. Seja Xi o número de ve-


zes que ocorre o evento Ai nas m repetições. A variável n-dimensional (X1 , . . . , Xn )
tem distribuição multinomial de parâmetros m, p1 , . . . , pn . A função de probabili-
dade conjunta é dada por

m!
P (X1 = x1 , . . . , Xn = xn ) = px1 . . . pxnn ,
x 1 ! . . . xn ! 1

para xi ∈ {0, 1, . . . , m} com x1 + · · · + xn = m.

Note que Xi ∼ Binomial(m, pi ) para i = 1, . . . , n.

2. Distribuição hipergeométrica multivariada: Uma urna contém N bolas, das


quais N1 são da cor 1, N2 da cor 2, . . . , Nr da cor r (N = N1 + · · · + Nr ). Retiram-se
n bolas sem reposição (n ≤ N ), e seja Xi o número de bolas da cor i extraídas. A
variável r-dimensional (X1 , . . . , Xr ) tem distribuição hipergeométrica multivariada
de parâmetros n, N1 , . . . , Nr , N . A função de probabilidade conjunta é dada por
! ! !−1
N1 Nr N
P (X1 = x1 , . . . , Xr = xr ) = ... ,
x1 xr n

para xi ∈ {0, 1, . . . , n} com x1 + · · · + xr = n.

Observe que Xi ∼ Hipergeométrica(n, Ni , N ) para i = 1, . . . , r.

3. Distribuição uniforme: Seja G ⊂ Rn um conjunto tal que Vol (G) > 0, onde
Vol (G) é o volume n-dimensional de G, definido por
Z Z
Vol (G) = ··· dx1 . . . dxn .
G

A variável n-dimensional X = (X1 , . . . , Xn ) tem distribuição uniforme em G se tem


f
densidade 
 1 / Vol (G) se (x1 , . . . , xn ) ∈ G,
f (x1 , . . . , xn ) =
 0 caso contrário.
Distribuições relacionadas com a normal 47

Então, para B ⊂ Rn ,
Vol (B ∩ G)
P (X ∈ B) = .
f Vol (G)
Esse modelo corresponde à escolha ao acaso de um ponto em G.

11. Distribuições relacionadas com a normal

11.1. As distribuições definidas a seguir são fundamentais no estudo de procedimentos


de estimação estatística.

1. Se Z1 , . . . , Zn são variáveis aleatórias independentes e identicamente distribuídas,


com distribuição N (0, 1), então a variável X = Z12 + · · · + Zn2 tem distribuição
qui-quadrado com n graus de liberdade, denotada χ2n .

A distribuição χ2n é a Gama(n/2, 1/2).

2. Se X e Y são variáveis aleatórias independentes, X ∼ N (0, 1) e Y ∼ χ2n , então a


variável
X
T =√
Y /n
tem distribuição t de Student com n graus de liberdade, denotada tn . A densidade
dessa variável é dada por

Γ( n+1 ) 1
fT (t) = √ 2 n , t ∈ R.
nπ Γ( 2 ) (1 + t2 /n)(n+1)/2

A distribuição t1 é a Cauchy padrão.

3. Se X e Y são variáveis aleatórias independentes, X ∼ χ2m e Y ∼ χ2n , então a variável

X/m
U=
Y /n

tem distribuição F de Snedecor com m e n graus de liberdade, denotada F (m, n). A


densidade dessa variável é dada por

Γ( m+n )
fU (u) = 2
n m
m/2 n/2 m/2−1
n u (n + m u)−(m+n)/2 , u > 0.
Γ( 2 ) Γ( 2 )
m

Se X ∼ F (m, n), então 1/X ∼ F (n, m).


48 Variáveis aleatórias

11.2. Sejam X1 , . . . , Xn variáveis aleatórias independentes e identicamente distribuídas,


com distribuição N (µ, σ 2 ). Definimos
Pn
i=1 Xi
X̄ = = Média amostral e
n
Pn Pn 2
2 i=1 (Xi − X̄)2 i=1 Xi2 − n X̄
S = = = Variância amostral.
n−1 n−1
Então, X̄ e S 2 são variáveis aleatórias independentes, com X̄ ∼ N (µ, σ 2 /n) e (n −
1) S 2 /σ 2 ∼ χ2n−1 . Daí, segue que
√ (X̄ − µ)
n ∼ tn−1 .
S

Exercícios

1. Quinze pessoas portadoras de determinada doença são selecionadas para se submeter


a um tratamento. Sabe-se que este tratamento é eficaz na cura da doença em 80% dos
casos. Suponha que os indivíduos submetidos ao tratamento curam-se (ou não) indepen-
dentemente uns dos outros e considere X o número de curados dentre os 15 pacientes
submetidos ao tratamento.
(a) Qual a distribuição de X?
(b) Qual a probabilidade de que os 15 pacientes sejam curados?
(c) Qual a probabilidade de que pelo menos dois não sejam curados?

2. Um estudante preenche por adivinhação um exame de múltipla escolha com 5 respostas


possíveis (das quais uma correta) para cada uma de 10 questões.
(a) Qual a distribuição do número de respostas certas?
(b) Qual a probabilidade de que o estudante obtenha 9 ou mais respostas certas?
(c) Qual a probabilidade de que acerte pelo menos duas questões?

3. Um aquário tem 3 peixes exóticos gordinhos e 7 desnutridos. O gato Félix pega ao


acaso 3 peixes do aquário; os 3 são gordinhos e Félix se prepara para comê-los. Nesse
momento, aparece o seu dono, um probabilista famoso, que diz: “Félix, você vai tentar
repetir 3 vezes isso que acaba de fazer. Se você conseguir o feito de pegar os 3 gordinhos
em pelo menos duas das três vezes, eu deixarei que você os coma. Se não conseguir, vai
comer a sua ração de costume.” Qual é a probabilidade de que Félix coma os peixes?

4. O número de erros tipográficos numa página de determinado livro é uma variável


aleatória com distribuição de Poisson de parâmetro 1/2. Encontre a probabilidade de que
haja três ou mais erros tipográficos nesta página. Calcule esta probabilidade dado que há
pelo menos um erro nesta página.
Exercícios 49

5. A liga de futebol de um país tem quatro times: time 1, time 2, time 3 e time 4. Um
time estrangeiro em excursão pelo país vai jogar um amistoso contra cada um dos times
1, 2 e 3. Suponha que contra o time 1 este time tem probabilidade 1/4 de conquistar a
vitória, enquanto que essa probabilidade vale 1/2 quando o adversário é o time 2 e vale
2/5 quando o adversário é o time 3. Assuma também que os resultados dos três amistosos
são independentes. Seja X o número de vitórias conquistadas pelo time estrangeiro nos
três amistosos.
(a) Obtenha a função de probabilidade de X.
(b) Qual a probabilidade de que o time estrangeiro obtenha pelo menos uma vitória?
Suponha agora que, dependendo do seu desempenho nos três amistosos, o time estran-
geiro decidirá fazer um quarto jogo, contra o time 4. Caso conquiste três vitórias nos três
amistosos, jogará contra o time 4; caso obtenha exatamente duas vitórias, fará o quarto
jogo com probabilidade 4/5 e não realizará o quarto jogo caso obtenha apenas uma vitória
ou não vença nenhum dos três amistosos.
(c) Determine a probabilidade de que o quarto jogo seja realizado.
(d) Dado que o quarto jogo se realizou, qual a probabilidade de que o time estrangeiro
tenha vencido os três amistosos iniciais?

Solução. (a) Notamos que X assume os valores 0, 1, 2, 3 e consideramos os eventos

Vi : O time estrangeiro conquista a vitória contra o time i, i = 1, 2, 3.

Sabemos que V1 , V2 e V3 são independentes, com P (V1 ) = 1/4, P (V2 ) = 1/2 e P (V3 ) = 2/5.
Então,
3 1 3 9
P (X = 0) = P (V1 c ∩ V2 c ∩ V3 c ) = P (V1 c ) P (V2 c ) P (V3 c ) = = ,
4 2 5 40
P (X = 1) = P (V1 ∩ V2 c ∩ V3 c ) + P (V1 c ∩ V2 ∩ V3 c ) + P (V1 c ∩ V2 c ∩ V3 )
1 1 3 3 1 3 3 1 2 9
= + + = ,
4 2 5 4 2 5 4 2 5 20
P (X = 2) = P (V1 ∩ V2 ∩ V3 c ) + P (V1 ∩ V2 c ∩ V3 ) + P (V1 c ∩ V2 ∩ V3 )
1 1 3 1 1 2 3 1 2 11
= + + = ,
4 2 5 4 2 5 4 2 5 40
1 1 2 1
P (X = 3) = P (V1 ∩ V2 ∩ V3 ) = = .
4 2 5 20
(b) A probabilidade de que o time estrangeiro obtenha pelo menos uma vitória é
31
P (X ≥ 1) = 1 − P (X = 0) = .
40
(c) Denotando por F o evento de que o time estrangeiro faz o quarto jogo, temos

P (F | X = 3) = 1, P (F | X = 2) = 4/5, P (F | X = 1) = P (F | X = 0) = 0,
50 Variáveis aleatórias

portanto, pela fórmula da probabilidade total,

P (F ) = P (F | X = 3) P (X = 3) + P (F | X = 2) P (X = 2) +
+ P (F | X = 1) P (X = 1) + P (F | X = 0) P (X = 0)
1 4 11
=1 + = 0,27.
20 5 40
(d) Pela fórmula de Bayes,

P (F | X = 3) P (X = 3) 1/20 5
P (X = 3 | F ) = = = ≈ 0,185.
P (F ) 27/100 27

6. Um revendedor de componentes elétricos os compra em lotes de 10 peças. Seu controle


de qualidade consiste em inspecionar 3 componentes selecionados aleatoriamente de um
lote e aceitar o lote somente se os 3 componentes não são defeituosos. Sabe-se que 30%
dos lotes têm 4 componentes defeituosos e 70% têm apenas 1 componente defeituoso. Dos
3 componentes selecionados de um lote, seja X o número de componentes defeituosos.
(a) Obtenha a função de probabilidade de X.
(b) Qual a probabilidade de que um lote seja aceito?

7. Um número aleatório N de dados são lançados. Suponha que


1
P (N = i) = , i = 1, 2, . . .
2i
A soma dos resultados é S. Encontre as probabilidades de que
(a) N = 2 dado que S = 3;
(b) S = 3 dado que N é par.

8. Seja X uma variável aleatória com densidade dada por






a (1 + x) se 0 < x ≤ 1,
f (x) =  2/3 se 1 < x ≤ 2,


0 caso contrário.

Obtenha:
(a) o valor de a. (b) P (0,5 < X ≤ 1,5).

9. Se Y tem distribuição uniforme em (0, 5), qual é a probabilidade de que as raízes da


equação 4 x2 + 4 x Y + Y + 2 = 0 sejam ambas reais?

10. Defina uma coleção de eventos Ea , 0 < a < 1, satisfazendo a propriedade de que
T
P (Ea ) = 1 para todo a, mas P ( a Ea ) = 0.
Sugestão: Seja X com distribuição uniforme em (0, 1) e defina cada Ea em termos de X.
Exercícios 51

11. Razão de Mill: Denote respectivamente por φ e Φ a densidade e a função de


distribuição de uma variável aleatória com distribuição N (0, 1).
(a) Prove que para todo x > 0,
!
1 1 φ(x)
− 3 φ(x) ≤ 1 − Φ(x) ≤ .
x x x

A importância desses limitantes decorre do fato de não haver uma fórmula fechada para Φ.
(b) Obtenha de (a) que
1 − Φ(x)
lim = 1.
x→∞ φ(x)/x

3 1
Sugestão: (a) Use que 1 − 4
≤ 1 ≤ 1 + 2 para y > 0 e que
y y
" # ! " ! # !
d φ(y) 1 d 1 1 3
= − 1 + 2 φ(y), − 3 φ(y) = − 1 − 4 φ(y).
dy y y dy y y y

12. O tempo de duração em horas de um componente eletrônico tem distribuição expo-


nencial de parâmetro 1/8. O departamento de controle de qualidade da fábrica que o
produz descarta todos os componentes que falham nas três primeiras horas, e os restantes
são comercializados.
(a) Determine a densidade da duração em horas de um componente comercializado.
(b) Qual a probabilidade de um componente comercializado durar mais que 12 horas?

13. Uma fábrica utiliza dois métodos para a produção de lâmpadas: 70% delas são pro-
duzidas pelo método A e o resto pelo método B. A duração em horas das lâmpadas tem
distribuição exponencial com parâmetro 1/80 ou 1/100, conforme se utilize o método A
ou o B. Em um grupo de 10 lâmpadas selecionadas ao acaso, qual a probabilidade de que
6 delas durem pelo menos 90 horas?

14. Sabe-se que 0,6% dos parafusos produzidos em uma fábrica são defeituosos. Estime
a probabilidade de que, em um pacote com 1000 parafusos,
(a) haja exatamente 4 parafusos defeituosos.
(b) não haja mais do que 4 parafusos defeituosos.
(c) encontrem-se pelo menos 3 parafusos defeituosos.

15. Aproximadamente 80000 casamentos foram celebrados no Rio de Janeiro durante o


ano passado. Estime a probabilidade de que para pelo menos um desses casais ambos os
cônjuges tenham nascido no dia 30 de abril. Deixe claras as suas hipóteses.

16. Doze por cento da população é canhota. Aproxime a probabilidade de que haja pelo
menos 20 canhotos em uma escola com 200 alunos. Esclareça as suas hipóteses.
52 Variáveis aleatórias

17. Em um museu, vendem-se mil entradas diariamente, sendo de 35% a proporção diária
de visitantes estrangeiros. Estime a probabilidade de que em uma semana mais de 5000
brasileiros visitem o museu.
18. O tempo de vida em horas de chips de computador produzidos por uma indústria tem
distribuição normal com parâmetros µ = 1,4 . 106 e σ 2 = 9 . 1010 . Obtenha uma estimativa
para a probabilidade de que um lote de 100 chips contenha pelo menos 20 chips que durem
menos que 1,8 . 106 horas.

19. Uma urna contém três bolas brancas e duas bolas azuis. Realizam-se três extrações,
sem reposição. Sejam X o número de bolas brancas obtidas e Y o número de bolas azuis
extraídas antes de obter a primeira bola branca. Determine a função de probabilidade
conjunta de X e Y , bem como as marginais.

20. A diretoria de uma organização feminina é formada por quatro mulheres solteiras,
três divorciadas, duas viúvas e uma casada. Uma comissão de três pessoas é escolhida ao
acaso para elaborar folhetos de propaganda da organização. Sejam X e Y o número de
mulheres solteiras e viúvas na comissão, respectivamente.
(a) Determine a função de probabilidade conjunta de X e Y , bem como as marginais.
(b) Calcule a probabilidade de que pelo menos uma viúva integre a comissão.
(c) Qual a probabilidade de que haja na comissão mais solteiras que viúvas?

21. Modelo de Maxwell-Boltzmann. Distribuímos k bolas distinguíveis em n urnas,


de forma que todas as configurações são igualmente prováveis. Permitimos que mais de
uma bola seja colocada numa mesma urna. Seja Xj o número de bolas na urna j.
Demonstre que
k! P
(a) P (X1 = k1 , . . . , Xn = kn ) = n−k para kj ≥ 0 com nj=1 kj = k.
k1 ! . . . kn !
!   k−i
k i
1 1
(b) P (X1 = i) = 1− , i = 0, . . . , k.
i n n
e−λ λi
(c) lim P (X1 = i) = , i = 0, 1, . . .
n,k→∞, k/n→λ∈(0,∞) i!

22. Modelo de Bose-Einstein. Distribuímos k bolas indistinguíveis em n urnas, de


forma que todas as configurações são igualmente prováveis. Permitimos que mais de uma
bola seja colocada numa mesma urna. Seja Xj o número de bolas na urna j.
Mostre que
!−1
n+k−1 Pn
(a) P (X1 = k1 , . . . , Xn = kn ) = para kj ≥ 0 com j=1 kj = k.
n−1
! !−1
n+k−i−2 n+k−1
(b) P (X1 = i) = , i = 0, . . . , k.
n−2 n−1
Exercícios 53

!i
1 λ
(c) lim P (X1 = i) = , i = 0, 1, . . .
n,k→∞, k/n→λ∈(0,∞) λ+1 λ+1

23. Considere a distribuição aleatória de k bolas em n urnas como explicada nos exercí-
cios 21 e 22. Suponha que k ≥ n e seja A o evento de que nenhuma urna fique vazia.
Prove que, no caso do modelo de Maxwell-Boltzmann,
n
! k
X n i
i
P (A) = (−1) 1−
i=0 i n

e, para o modelo de Bose-Einstein,


! !−1
k−1 n+k−1
P (A) = .
n−1 n−1

24. Sejam X1 e X2 variáveis aleatórias independentes e identicamente distribuídas, com


P (X1 = 1) = P (X1 = −1) = 1/2. Considere X3 = X1 X2 . As variáveis aleatórias X1 , X2
e X3 são independentes? São independentes duas a duas?

25. Uma urna contém X bolas, onde X é uma variável aleatória com distribuição de Pois-
son de parâmetro λ. As bolas são pintadas, de maneira independente, de vermelho com
probabilidade p ou azul com probabilidade (1 − p). Sejam Y o número de bolas vermelhas
e Z o número de bolas azuis. Prove que Y e Z são variáveis aleatórias independentes,
com Y ∼ Poisson(λp) e Z ∼ Poisson(λ(1 − p)).
Sugestão: Para y, z ∈ N, seja x = y + z. Justifique e use que
!
x y e−λ λx
P (Y = y, Z = z) = P (Y = y, Z = z | X = x) P (X = x) = p (1 − p)z .
y x!

26. Sejam X0 , X1 , . . . variáveis aleatórias i.i.d., com P (X0 = 1) = P (X0 = −1) = 1/2.
Q
Considere Zn = nj=0 Xj , n ≥ 0. Mostre que Z0 , Z1 , . . . são independentes.
Sugestão: Por indução em n, prove que para todo n ≥ 0,

P (Zn = 1) = P (Zn = −1) = 1/2 e

P (Z0 = 1, Z1 = 1, . . . , Zn = 1) = 1/2n+1 .

Daí, use o tópico 2.10 para concluir que Z0 , Z1 , . . . são independentes.

27. Seja OA um segmento de R de comprimento a. Escolhem-se dois pontos P1 e P2


em OA de forma aleatória e independente. Denote por X1 e X2 os comprimentos dos
segmentos OP1 e OP2 , respectivamente.
Dentre P1 e P2 , sejam Y1 o ponto mais próximo a O e Y2 o ponto mais próximo a A.
Defina M1 e M2 os comprimentos dos segmentos OY1 e OY2 , respectivamente.
54 Variáveis aleatórias

(a) Calcule a função de distribuição da variável aleatória M = distância entre P1 e P2 .


(b) Encontre a densidade de M .
(c) Determine a probabilidade de que com os três segmentos OY1 , Y1 Y2 e Y2 A seja
possível construir um triângulo.

Solução. (a) Temos que X1 e X2 são variáveis aleatórias independentes, ambas com
distribuição uniforme em [0, a]. Então, o par (X1 , X2 ) tem distribuição uniforme em
B = [0, a] × [0, a]. Além disso,
M1 = mín{X1 , X2 },
M2 = máx{X1 , X2 } e
M = M2 − M1 = |X1 − X2 |.
Queremos calcular FM (y) = P (M ≤ y) = P (|X1 − X2 | ≤ y), y ∈ R.
Claramente, se y ≤ 0, então FM (y) = 0.
Para y > 0, definimos o conjunto Ay = {(u, v) ∈ R2 : |u − v| ≤ y}, portanto
área (Ay ∩ B)
FM (y) = P ((X1 , X2 ) ∈ Ay ) = .
área (B)
Se y > a, então Ay ∩ B = B, logo FM (y) = 1.
Por outro lado, se 0 < y ≤ a, então (veja-se a Figura 3.4)
a2 − (a − y)2 2ay − y 2
FM (y) = = .
a2 a2
Assim, a função de distribuição de M é dada por




0 se y ≤ 0,

FM (y) =  (2ay − y 2 )/a2 se 0 < y ≤ a,



1 se y > a.
(b) Como FM é contínua e derivável por partes, obtemos a densidade de M derivando FM :

 2(a − y)/a2 se 0 < y < a,
fM (y) =
 0 caso contrário.
Note que os valores de fM nos pontos 0 e a são arbitrários.
(c) Recordamos que M1 = mín{X1 , X2 }, M2 = máx{X1 , X2 } e M = M2 − M1 . Os
segmentos com os quais se deseja construir um triângulo têm comprimento M1 , M e
a − M2 , logo poder construí-lo é equivalente a pedir que
M1 < M + a − M2 , M < M1 + a − M2 e a − M2 < M1 + M.
Assim, precisamos calcular P (M1 < a/2, M < a/2, M2 > a/2). Definimos o conjunto
C = {(u, v) ∈ R2 : mín{u, v} < a/2, |u − v| < a/2, máx{u, v} > a/2}. Então,
área (C ∩ B) 1
P (M1 < a/2, M < a/2, M2 > a/2) = P ((X1 , X2 ) ∈ C) = = .
área (B) 4
Exercícios 55

v v
a a C ∩B

Ay ∩ B a/2
y

0 y a u 0 a/2 a u

Figura 3.4: Exercício 27 – Cálculos de FM e do item (c).

28. Um casal combina de se encontrar em certo local perto das 12:30 h. Suponha que
o homem chega em uma hora uniformemente distribuída entre 12:15 h e 12:45 h e a mu-
lher independentemente chega em uma hora uniformemente distribuída entre 12 h e 13 h.
Encontre as probabilidades de que
(a) o primeiro a chegar não espere mais que 5 minutos pelo segundo;
(b) a mulher chegue primeiro.

29. Sejam X e Y variáveis aleatórias com densidade conjunta dada por



 120 x (y − x) (1 − y) se 0 < x < y < 1,
f (x, y) = 
0 caso contrário.

(a) Determine as distribuições marginais de X e Y .


(b) Mostre que P (X ≤ zY ) = 3 z 2 − 2 z 3 para z ∈ (0, 1).
(c) Usando o item (b), obtenha a distribuição de X/Y .

30. Lançamos seis vezes uma moeda honesta de forma independente. Seja Y a diferença
entre o número de caras e coroas obtidas. Encontre a distribuição de Y .

31. Seja U uma variável aleatória com distribuição uniforme no intervalo aberto (0, 1).
Dado p ∈ (0, 1), obtenha a distribuição da variável aleatória
" #
h i
log U
X = log1−p U = ,
log(1 − p)

onde [a] denota a parte inteira de a.

32. Seja X uma variável aleatória com distribuição exponencial de parâmetro λ. Defini-
mos uma nova variável aleatória por Y = [X] + 1, onde [X] denota a parte inteira de X.
Obtenha a distribuição de Y .
56 Variáveis aleatórias

33. Seja X uma variável aleatória com distribuição uniforme no intervalo [0, 10]. Deter-
mine a função de distribuição das seguintes variáveis aleatórias:
(a) Y = X 2 + 2.
(b) W = máx{2, mín{4, X}}.
(c) Z = |X − 4|.
Observação. Cumpre observar que W dada no item (b) é uma variável aleatória, pois é
uma função contínua da variável aleatória X. Note entretanto que W não é discreta (já
que pode assumir qualquer valor no intervalo [2, 4]) e nem absolutamente contínua (pois
assume os valores 2 e 4 com probabilidades positivas). A variável W é uma mistura dos
dois tipos. Mais detalhes a respeito de tipos de variáveis aleatórias são encontrados na
Seção 2.2 de James [8].

34. Encontre a densidade de Y = e−2X , onde X tem distribuição exponencial de parâme-


tro 1.
Solução. A densidade de X é dada por

f (x) = e−x , x > 0.

Consideremos a função φ : (0, ∞) → (0, 1) dada por φ(x) = e−2x . Então, φ é decrescente,
diferenciável e
1
y = φ(x) = e−2x ⇐⇒ x = φ−1 (y) = − log y,
2
dx 1
=− .
dy 2y

A densidade de Y = e−2X é, portanto,

dx 1
g(y) = f (φ−1 (y)) = √ , 0 < y < 1.
dy 2 y

35. Distribuição Log-normal. Seja Y = eX , onde X tem distribuição N (0, 1). Encon-
tre a densidade de Y .
36. Seja X uma variável aleatória com distribuição uniforme em (0, π/2). Obtenha a
densidade de Y = sen X.
37. Determine a densidade de Y = arcsen X quando
(a) X tem distribuição uniforme em (0, 1);
(b) X tem distribuição uniforme em (−1, 1).

38. Encontre a densidade de Y = |X|, onde X tem distribuição N (0, 1).


Exercícios 57

39. Seja X uma variável aleatória com densidade dada por


λ −λ|x|
f (x) = e , x ∈ R,
2
onde λ > 0. Determine a distribuição da variável aleatória Y = |X|.

40. Seja X uma variável aleatória com densidade dada por






1/2 se − 1 < x < 0,

f (x) =  e−x /2 se x ≥ 0,



0 caso contrário.

Obtenha a densidade de Y = X 2 .
41. Sejam X e Y variáveis aleatórias i.i.d. com função densidade comum

 1/x2 se x > 1,
f (x) =
 0 caso contrário.

(a) Calcule a densidade conjunta de Z e W , onde Z = XY e W = X/Y .


(b) São Z e W independentes?

Solução. (a) Notamos que a densidade conjunta de X e Y é dada por



 1/(x2 y 2 ) se x > 1, y > 1,
fX,Y (x, y) =
 0 caso contrário.

Sejam B0 = {(x, y) ∈ R2 : x > 1, y > 1} e B = {(z, w) : z > w > 0, zw > 1}.


Consideremos a função φ : B0 → B √ definida por φ(x, y) = (xy, x/y). Então, φ é uma

função bijetora, φ (z, w) = ( zw, z/w) e o Jacobiano de φ−1 é igual a −1/(2w). Como
−1

(Z, W ) = φ(X, Y ), a densidade conjunta de Z e W é dada por




 √ √ 1
fX,Y ( zw, z/w) se z > w > 0, zw > 1,
fZ,W (z, w) = 2w

 0 caso contrário.

Assim, 
 1/(2z 2 w) se z > w > 0, zw > 1,
fZ,W (z, w) =
 0 caso contrário.
(b) Observamos que
 R
z
 1/z 1/(2z 2 w) dw se z > 1,
fZ (z) = 
0 caso contrário.

Logo, 
 log(z)/z 2 se z > 1,
fZ (z) =
 0 caso contrário.
58 Variáveis aleatórias

Ademais,  R∞
1/w 1/(2z w) dz se 0 < w ≤ 1,
 2


 R

fW (w) = w 1/(2z w) dz se w > 1,
2




0 caso contrário.
Portanto, 



1/2 se 0 < w ≤ 1,

fW (w) =  1/(2w2 ) se w > 1,



0 caso contrário.
Visto que a densidade conjunta não é o produto das marginais, concluímos que Z e W
não são independentes.

42. Sejam X e Y variáveis aleatórias independentes, ambas com distribuição exponencial


de parâmetro 1. Calcule a densidade conjunta de U = |X − Y | e V = X + Y , bem como
as marginais.
Solução. Sejam A = {(x, y) ∈ R2 : x > 0, y > 0}, A⋆ = {(u, v) ∈ R2 : 0 < u < v} e
definimos a função φ : A → A⋆ por φ(x, y) = (|x − y|, x + y). Observamos que φ não
é bijetora, mas podemos utilizar o método resumido no Teorema 2.1′ da Seção 2.7 de
James [8]. Definimos A(1) = {(x, y) ∈ A : y − x > 0} e A(2) = {(x, y) ∈ A : y − x < 0}.
Então, φ1 := φ|A(1) e φ2 := φ|A(2) são funções bijetoras com inversas
   
v−u u+v u+v v−u
φ−1
1 (u, v) = , e φ−1
2 (u, v) = , .
2 2 2 2
Aplicando o teorema, obtemos que, para 0 < u < v, a densidade conjunta de U e V é
   
v−u u+v 1 u+v v−u 1
fU,V (u, v) = fX,Y , + fX,Y , .
2 2 2 2 2 2
Portanto, 
 e−v se 0 < u < v,
fU,V (u, v) =
 0 caso contrário.
Com respeito às marginais, um cálculo simples mostra que U ∼ Exp(1) e V ∼ Gama(2, 1).

43. Sejam X e Y variáveis aleatórias com função densidade conjunta f . Usando o Método
do Jacobiano, determine a densidade de Z = XY . Escreva a densidade de Z no caso em
que X e Y são independentes, com densidades fX e fY , respectivamente.
Solução. Consideremos a transformação e sua inversa
 
w =x x =w

⇐⇒ y
z = xy = z/w

com Jacobiano J(w, z) = 1/w. (Recorde-se de que P (W = 0) = 0).


Exercícios 59

Então, a densidade conjunta de W e Z é


 
z 1
g(w, z) = f w, .
w |w|

Portanto, a densidade de Z = XY é dada por


Z ∞  
z 1
fZ (z) = f x, dx.
−∞ x |x|

Assim, se X e Y são independentes com densidades respectivas fX e fY ,


Z ∞  
z 1
fZ (z) = fX (x) fY dx.
−∞ x |x|

No cálculo de um caso particular, caso se prefira aplicar diretamente a fórmula obtida, é


preciso estar atento aos valores que Z assume e aos limites da integral.

44. Sejam X e Y variáveis aleatórias independentes, com distribuição comum N (0, 1).
√ √
Mostre que U = (X + Y )/ 2 e V = (X − Y )/ 2 também são independentes e N (0, 1).

45. Sejam X e Y variáveis aleatórias independentes, com distribuição comum N (0, 1).

Prove que R = X 2 + Y 2 e Φ = arctg(Y /X) também são independentes, Φ ∼ U (0, 2π) e
R tem distribuição de Rayleigh, ou seja, tem densidade
2 /2
fR (r) = r e−r , r > 0.

46. Sejam X e Y variáveis aleatórias independentes, X ∼ Gama(r, λ) e Y ∼ Gama(s, λ),


onde λ > 0, r > 0 e s > 0. Mostre que P = X + Y e Q = X/(X + Y ) também são
independentes, P ∼ Gama(r + s, λ) e Q ∼ Beta(r, s).

47. Sejam X e Y variáveis aleatórias com função densidade conjunta



 6y se 0 < y < x < 1,
f (x, y) =
 0 caso contrário.

(a) Determine as densidades marginais de X e Y . São X e Y independentes?


(b) Calcule a função densidade de Z = Y /X.

48. Sejam X e Y variáveis aleatórias com função densidade conjunta



 x e−y se 0 < x < y < ∞,
f (x, y) = 
0 caso contrário.

(a) Obtenha as densidades marginais de X e Y . São X e Y independentes?


(b) Determine a densidade de Z = Y − X.
60 Variáveis aleatórias

49. As variáveis aleatórias X e Y representam, respectivamente, a renda e o consumo por


mês, em milhões de reais, dos trabalhadores de uma empresa. Suponha que a densidade
conjunta de X e Y é dada por

 1 x1/2 y 1/2 se 0 < y < x < 3,

f (x, y) =  6

0 caso contrário.
(a) A renda e o consumo são independentes?
(b) Determine a função densidade do quociente entre o consumo e a renda desses
trabalhadores.

50. Seja X a variável aleatória que representa o peso em toneladas de uma certa merca-
doria que uma loja armazena no início de cada mês de forma a satisfazer a demanda dos
clientes. Seja Y o peso em toneladas da mercadoria vendida durante o mês. Suponha que
a função densidade conjunta de X e Y é dada por

 1

se 0 < y < x < 10,
f (x, y) = 10 x


0 caso contrário.
(a) Obtenha a densidade do peso da mercadoria que sobra armazenada ao final do
mês.
(b) Calcule a probabilidade de que o peso da mercadoria armazenada ao início do mês
seja superior a 8 toneladas e o peso da mercadoria vendida inferior a 4 toneladas.
(c) Dado que em um mês as vendas não superaram 5 toneladas, qual a probabilidade
de que ao final do mês restem armazenadas mais do que 3 toneladas?

51. Sejam X e Y variáveis aleatórias com função densidade conjunta dada por

 k xy se x ≥ 0, y ≥ 0 e x + y ≤ 1,
f (x, y) = 
0 caso contrário.
(a) Obtenha k.
(b) Calcule as densidades marginais de X e Y .
(c) São X e Y independentes?
(d) Calcule as seguintes probabilidades: P (X ≥ Y ), P (X ≥ 1/2 | X + Y ≤ 3/4) e
P (X 2 + Y 2 ≤ 1).
(e) Obtenha a densidade conjunta de U = X +Y e V = X −Y , bem como as marginais.

52. Três pessoas A, B e C chegam ao mesmo tempo a uma central telefônica que possui
dois aparelhos telefônicos. Os dois aparelhos são utilizados imediatamente por A e B. A
pessoa C substitui a primeira pessoa que finalize a sua ligação e cada pessoa se retira da
central uma vez terminado o seu telefonema. Sejam X1 , X2 e X3 os tempos das ligações
de A, B e C, respectivamente. Suponha que X1 , X2 e X3 são variáveis aleatórias i.i.d.
com distribuição exponencial de parâmetro λ.
Respostas 61

(a) Determine a densidade de Z = máx{X1 , X2 } − mín{X1 , X2 }.


(b) Calcule P (Z < X3 ).
(c) O que representa a probabilidade calculada no item (b)?

53. Escolhe-se ao acaso um ponto P = (X, Y ) do quadrado unitário (0, 1) × (0, 1). Seja Θ
o ângulo formado entre o eixo x e o segmento que une a origem e P . Encontre a densidade
de Θ.
54. Sejam Θ1 e Θ2 variáveis aleatórias independentes, ambas com distribuição uniforme
em (0, 2π). Então, P1 = (X1 , Y1 ) = (cos Θ1 , sen Θ1 ) e P2 = (X2 , Y2 ) = (cos Θ2 , sen Θ2 )
são dois pontos escolhidos de forma aleatória e independente na circunferência de raio
unitário. Considere Z = (X1 − X2 )2 + (Y1 − Y2 )2 o quadrado da distância entre P1 e P2 .
Calcule a densidade da variável aleatória Z.
Sugestão: Defina

 |Θ1 − Θ2 | se |Θ1 − Θ2 | < π,
Θ=
 2π − |Θ1 − Θ2 | se π ≤ |Θ1 − Θ2 | < 2π

e mostre que para 0 < y < π,


y
P (Θ ≤ y) = P (|Θ1 − Θ2 | ≤ y) + P (2π − y ≤ |Θ1 − Θ2 | < 2π) = .
π
(Ou seja, Θ tem distribuição uniforme em (0, π)). Então, use que Z = 2 − 2 cos Θ.

Respostas

1. (a) Binomial (n = 15, p = 0,8) (b) 0,035 (c) 0,83

2. (a) Binomial (n = 10, p = 1/5) (b) 4,2 . 10−6 (c) 0,62

3. 358/1203 ≈ 0,000207

4. 0,014; 0,036

6. (a) P (X = 0) = 0,54, P (X = 1) = 0,36, P (X = 2) = 0,09, P (X = 3) = 0,01


(b) 0,54

7. (a) 24/169 (b) 1/24

8. (a) 2/9 (b) 19/36

9. 3/5

12. (a) f (y) = (1/8) exp{−(y − 3)/8}, y > 3 (b) 0,325


62 Variáveis aleatórias

13. 0,068

14. (a) 0,1339 (b) 0,2851 (c) 0,9380

15. 0,45

16. 0,8363

17. 0

18. 1

X \Y 0 1 2 pX (x)
1 1/10 1/10 1/10 3/10
19. 2 2/5 1/5 0 3/5
3 1/10 0 0 1/10
pY (y) 3/5 3/10 1/10 1

X \Y 0 1 2 pX (x)
0 1/30 1/10 1/30 1/6
1 1/5 4/15 1/30 1/2
20. (a)
2 1/5 1/10 0 3/10
3 1/30 0 0 1/30
pY (y) 7/15 7/15 1/15 1
(b) P (Y ≥ 1) = 8/15 (c) P (X > Y ) = 8/15

24. X1 , X2 e X3 não são independentes, mas são independentes duas a duas.

28. (a) 1/6 (b) 1/2

29. (a) X ∼ Beta(2, 4) e Y ∼ Beta(4, 2) (c) X/Y ∼ Beta(2, 2)


! 
6 1 6
30. P (Y = k) = , k = −6, −4, −2, 0, 2, 4, 6
(k + 6)/2 2

31. P (X = k) = p (1 − p)k , k = 0, 1, . . .

32. Geométrica(1 − e−λ )






0 se y < 2,
 √
33. (a) FY (y) = y − 2/10 se 2 ≤ y < 102,




1 se y ≥ 102.




0 se w < 2,

(b) FW (w) =  w/10 se 2 ≤ w < 4,



1 se w ≥ 4.
Respostas 63



 0 se z < 0,




 z/5 se 0 ≤ z < 4,
(c) FZ (z) =

 z/10 + 2/5 se 4 ≤ z < 6,





1 se z ≥ 6.

35. fY (y) = y −1 (2π)−1/2 exp{−(log y)2 /2}, y > 0



36. fY (y) = 2/(π 1 − y 2 ), 0 < y < 1

37. (a) fY (y) = cos y, 0 < y < π/2 (b) fY (y) = (1/2) cos y, −π/2 < y < π/2

38. fY (y) = (2/π)1/2 exp{−y 2 /2}, y > 0

39. Y ∼ Exp(λ)


 1  √ 

 √ 1 + e− y se 0 ≤ y < 1,


 4 y
40. fY (y) = 1 √

 √ e− y se y ≥ 1,


 4 y

 0 caso contrário.

47. (a) fX (x) = 3 x2 , 0 < x < 1, fY (y) = 6 y (1 − y), 0 < y < 1;


X e Y não são independentes.
(b) fZ (z) = 2 z, 0 < z < 1

1 2 −y
48. (a) fX (x) = x e−x , x > 0, fY (y) = y e , y > 0;
2
X e Y não são independentes.
(b) fZ (z) = e−z , z > 0

1 2 1
49. (a) fX (x) = x , 0 < x < 3, fY (y) = y 1/2 (33/2 − y 3/2 ), 0 < y < 3;
9 9
X e Y não são independentes.
3
(b) fY /X (z) = z 1/2 , 0 < z < 1
2
50. (a) fZ (z) = (1/10) log(10/z), 0 < z < 10
(b) P (X > 8, Y < 4) = 0,0893
(c) P (X − Y > 3 | Y ≤ 5) = 0,375

51. (a) k = 24 (b) fX (x) = fY (x) = 12 x (1 − x)2 , 0 ≤ x ≤ 1 (c) Não


(d) P (X ≥ Y ) = 1/2, P (X ≥ 1/2 | X + Y ≤ 3/4) = 1/9 e P (X 2 + Y 2 ≤ 1) = 1
(e) g(u, v) = 3 (u2 − v 2 ), −u ≤ v ≤ u ≤ 1;
fU (u) = 4 u3 , 0 ≤ u ≤ 1; fV (v) = 1 − 3 v 2 + 2 |v 3 |, −1 ≤ v ≤ 1
64 Variáveis aleatórias

52. (a) Z ∼ Exp(λ) (Primeiro, obtenha a densidade conjunta de Y1 = mín{X1 , X2 } e


Y2 = máx{X1 , X2 } e depois use o Método do Jacobiano para mostrar que Y1 e Z são
independentes com Y1 ∼ Exp(2λ) e Z ∼ Exp(λ)).
(b) 1/2 (Note que X3 e Z são independentes, ambas com distribuição Exp(λ)).
(c) É a probabilidade de que, dentre as três pessoas, C seja a última a sair da central
telefônica.
 



1/2 se 0 < z ≤ 1, 


1/(2 cos2 θ) se 0 < θ ≤ π/4,
 
53. fY /X (z) = 1/(2 z 2 ) se z > 1, ⇒ fΘ (θ) = 1/(2 sen2 θ) se π/4 < θ < π/2,

 


 

0 caso contrário. 0 caso contrário.

1
54. fZ (z) = √ , z ∈ (0, 4)
2π z − z 2 /4
Capítulo 4

Esperança

1. Definições e propriedades

1.1. A esperança (média, valor esperado) de uma variável aleatória X é definida por
 X



x P (X = x) se X é discreta,
 x
µX = E(X) =  Z ∞


 x f (x) dx se X é contínua com densidade f.
−∞

Observação. A esperança está definida somente quando a soma (integral) é bem definida.
Assim,
 X X



x P (X = x) − (−x) P (X = x) se X é discreta,
 x≥0 x<0
E(X) = Z Z



 x f (x) dx − (−x) f (x) dx se X é contínua com densidade f
x≥0 x<0

e portanto E(X) está definida desde que ambas as somas (integrais) não sejam +∞. Em
caso contrário, dizemos que E(X) não existe (ou que X não tem valor esperado).
Observamos que, em particular, E(X) está bem definida se P (X ≥ 0) = 1.
Como um exemplo de uma variável aleatória cuja esperança não existe, seja X
assumindo valores em Z∗ = Z \ {0} com função de probabilidade dada por
1
P (X = x) = , x ∈ Z∗ .
2 |x| (1 + |x|)
Para ver por que esta é uma função de probabilidade, note que
∞ ∞  
X 1 X 1 1
= − = 1.
k=1 k (1 + k) k=1 k 1 + k
P P
Como x>0 x P (X = x) = x<0 (−x) P (X = x) = ∞, E(X) não existe.

1.2. Para qualquer função g a valores reais,


 X



g(x) P (X = x) se X é discreta,
 x
E[g(X)] =  Z ∞


 g(x) f (x) dx se X é contínua com densidade f.
−∞
66 Esperança

1.3. Dizemos que a variável aleatória X é integrável se E(X) é finita. Isto é equivalente
a que E|X| < ∞.

1.4. Para n ≥ 1, o n-ésimo momento de uma variável aleatória X é E(X n ) (se existe).

1.5. A variância de uma variável aleatória X integrável com esperança µ é dada por

Var(X) = E((X − µ)2 ) = E(X 2 ) − µ2 .

1.6. Se a e b são constantes, então

E(a X + b) = a E(X) + b e Var(a X + b) = a2 Var(X).

1.7. Se E|X|t é finita para algum t > 0, então E|X|s é finita para todo 0 ≤ s ≤ t.

1.8. (a) Se X é uma variável aleatória inteira e não-negativa, então



X
E(X) = P (X ≥ n).
n=1

(b) Se X é uma variável aleatória contínua que assume apenas valores não-negativos,
então
Z ∞
E(X) = P (X > t) dt.
0

1.9. Critério para integrabilidade: Seja X uma variável aleatória qualquer. Então,

X ∞
X
P (|X| ≥ n) ≤ E|X| ≤ 1 + P (|X| ≥ n).
n=1 n=1
P∞
Assim, X é integrável se e somente se n=1 P (|X| ≥ n) < ∞.

1.10. (a) Se X e Y têm uma função de probabilidade conjunta p(x, y), então
XX
E[ϕ(X, Y )] = ϕ(x, y) p(x, y).
x y

(b) Se X e Y têm uma função densidade conjunta f (x, y), então


Z ∞ Z ∞
E[ϕ(X, Y )] = ϕ(x, y) f (x, y) dx dy.
−∞ −∞

1.11. Se P (X ≥ Y ) = 1, então E(X) ≥ E(Y ).


X
n  n
X
1.12. E Xi = E(Xi ).
i=1 i=1
Distribuição e esperança condicionais 67

1.13. Se X1 , . . . , Xn são independentes, então


Y
n  n
Y
E Xi = E(Xi ).
i=1 i=1

1.14. A covariância entre duas variáveis aleatórias X e Y integráveis é dada por

Cov(X, Y ) = E((X − µX )(Y − µY )) = E(XY ) − E(X) E(Y ).

Assim, Cov(X, Y ) = 0 se X e Y são independentes. (Porém a recíproca não é sempre


verdadeira).
X
n m
X  X m
n X
1.15. Cov ai Xi , b j Yj = ai bj Cov(Xi , Yj ), onde os ai e bj são números
i=1 j=1 i=1 j=1
reais.
X
n  n
X X
1.16. Var Xi = Var(Xi ) + 2 Cov(Xi , Xj ).
i=1 i=1 1≤i<j≤n
X
n  n
X
1.17. Var Xi = Var(Xi ) se X1 , . . . , Xn são independentes.
i=1 i=1

Observação. Recorde-se de que 1.12 e 1.16 são úteis para determinar a esperança e a
variância de muitas variáveis aleatórias pelo uso de funções indicadoras.

1.18. Sejam X e Y variáveis aleatórias com variâncias finitas e positivas. O coeficiente


de correlação entre X e Y é definido por
  
Cov(X, Y ) X − µX Y − µY
ρ(X, Y ) = =E ,
σX σY σX σY
q q
onde σX = Var(X) e σY = Var(Y ).

Propriedades:

(i) |ρ(X, Y )| ≤ 1.

(ii) Se ρ(X, Y ) = ±1, então os valores de X e Y pertencem a uma reta.

2. Distribuição e esperança condicionais

2.1. Caso discreto: Se X e Y são variáveis aleatórias discretas, a função de probabilidade


condicional de X dado que Y = y é definida por

p(x, y)
pX|Y (x | y) = P (X = x | Y = y) = ,
pY (y)
68 Esperança

para todos os valores de y tais que pY (y) > 0. Neste caso, a esperança condicional de X
dado que Y = y é
X
E(X | Y = y) = x pX|Y (x | y).
x

2.2. Caso contínuo: Se X e Y são conjuntamente contínuas com função densidade


conjunta f (x, y), a função densidade condicional de X dado que Y = y é definida para
todos os valores de y tais que fY (y) > 0 por

f (x, y)
fX|Y (x | y) = .
fY (y)

A esperança condicional de X dado que Y = y é, neste caso,


Z ∞
E(X | Y = y) = x fX|Y (x | y) dx.
−∞

2.3. Para B ⊂ R,
 X

 P (X = x | Y = y) no caso discreto,

x∈B
P (X ∈ B | Y = y) = 
Z

 fX|Y (x | y) dx no caso contínuo.
B

2.4. A esperança condicional de X dado que Y = y é simplesmente a esperança de X com


respeito à distribuição condicional de X dado que Y = y. Assim, desfruta de propriedades
análogas às da esperança comum. Por exemplo,

E(a X1 + b X2 | Y = y) = a E(X1 | Y = y) + b E(X2 | Y = y);


 X


 g(x) P (X = x | Y = y) no caso discreto,
 x
E(g(X) | Y = y) = 
Z ∞


 g(x) fX|Y (x | y) dx no caso contínuo.
−∞

2.5. Princípio da substituição para a esperança condicional:

E (ϕ(X, Y ) | Y = y) = E (ϕ(X, y) | Y = y) .

Corolário: E (g(X) h(Y ) | Y = y) = h(y) E (g(X) | Y = y).

2.6. Propriedade fundamental: E (E(X | Y )) = E(X).

(a) E(X | Y ) é uma variável aleatória (uma função de Y ) cuja esperança é igual a E(X).
Funções geradoras 69

 X



E(X | Y = y) P (Y = y) se Y é discreta,
 y
(b) E(X) = Z ∞



 E(X | Y = y) fY (y) dy se Y é contínua com densidade fY .
−∞
 X



P (A | Y = y) P (Y = y) se Y é discreta,
 y
(c) P (A) = Z ∞



 P (A | Y = y) fY (y) dy se Y é contínua com densidade fY .
−∞

3. Funções geradoras

3.1. A função geradora de momentos da variável aleatória X é definida por


 X tx



e P (X = x) se X é discreta,
 x
MX (t) = E(etX ) = Z ∞



 etx f (x) dx se X é contínua com densidade f,
−∞

para todo t ∈ R tal que a esperança seja finita.

Observação. Suporemos que o domínio de MX contém um intervalo em torno de t = 0.

3.2. Propriedades:
(n) dn MX (t)
1. MX (0) = = E(X n ), n ≥ 1.
dtn t=0

2. Para a, b ∈ R, MaX+b (t) = etb MX (at).

3. A função geradora de momentos determina unicamente a distribuição. Isso significa


que se X e Y são variáveis aleatórias tais que MX (t) = MY (t) para |t| < c, onde
c > 0 é uma constante, então FX (x) = FY (x) para todo x ∈ R.

4. Se X1 , . . . , Xk são variáveis aleatórias independentes com funções geradoras de mo-


mentos respectivas MX1 (t), . . . , MXk (t), então a função geradora de momentos de
X1 + · · · + Xk é dada por

MX1 + ··· +Xk (t) = MX1 (t) . . . MXk (t).

3.3. Sejam X1 , . . . , Xk variáveis aleatórias independentes.


Pk Pk
• Se Xi ∼ Binomial(ni , p), i = 1, . . . , k, então i=1 Xi ∼ Binomial( i=1 ni , p).
Pk
• Se Xi ∼ Binomial Negativa(ri , p), i = 1, . . . , k, então i=1 Xi ∼ Binomial Negativa
P
( ki=1 ri , p).
70 Esperança

Pk Pk
• Se Xi ∼ Poisson(λi ), i = 1, . . . , k, então i=1 Xi ∼ Poisson( i=1 λi ).
Pk Pk
• Se Xi ∼ Gama(αi , λ), i = 1, . . . , k, então i=1 Xi ∼ Gama( i=1 αi , λ).
Pk Pk Pk
• Se Xi ∼ Normal(µi , σi2 ), i = 1, . . . , k, então i=1 Xi ∼ Normal( i=1 µi , i=1 σi2 ).

Observação. Se X é uma variável aleatória inteira e não-negativa, é preferível trabalhar


com a função geradora de probabilidade de X, que é definida por

X
X
GX (s) = E(s ) = sn P (X = n), s ∈ [−1, 1].
n=0

Note que GX é uma série de potências com raio de convergência maior ou igual a 1, já
que GX (1) = P (X < ∞) = 1. A função geradora de probabilidade também determina
unicamente a distribuição. Ademais, a função geradora de probabilidade da soma de va-
riáveis aleatórias independentes é igual ao produto das funções geradoras de probabilidade
individuais.

Outras propriedades:
(n)
GX (0)
(i) P (X = n) = , n ≥ 0.
n!
(n) (n) (n)
(ii) GX (1) = E [X(X − 1) . . . (X − n + 1)] , n ≥ 1, onde GX (1) = lim GX (s) quando
s↑1
o raio de convergência de GX é igual a 1.

A função característica de uma variável aleatória X é a função ϕX : R → C definida por

ϕX (t) = E(eitX ) = E (cos (tX)) + i E (sen (tX)) , t ∈ R,


onde o símbolo i representa a unidade imaginária −1. A principal vantagem de trabalhar
com a função característica reside no fato de ser definida para todo t ∈ R.
Funções geradoras
pX (x) MX (t) µX 2
σX

1 et (en t − 1) n+1 n2 − 1
Uniforme Discreta(n) , x = 1, . . . , n
n n (et − 1) 2 12
!
n x n−x
Binomial(n, p) p q , x = 0, 1, . . . , n (p et + q)n np npq
x

e−λ λx t
Poisson(λ) , x = 0, 1, . . . eλ(e −1) λ λ
x!

p et 1 q
Geométrica(p) pq x−1
, x = 1, 2, . . .
1 − q et p p2
! !r
x − 1 r x−r p et r rq
Binomial Negativa(r, p) p q , x = r, r + 1, . . .
r−1 1 − q et p p2
! ! !−1    
N −R R N nR R R N −n
Hipergeométrica(n, R, N ) ∗ n 1−
n−x x n N N N N −1

Tabela 4.1: Distribuições discretas. Como de costume, q = 1 − p. Para a distribuição uniforme discreta, a fórmula indicada para
MX (t) é válida para t 6= 0. Para as distribuições geométrica e binomial negativa, o domínio de MX é (−∞, − log(1 − p)). Para
a distribuição hipergeométrica, os valores possíveis são máx(0, n − N + R) ≤ x ≤ mín(n, R) e a função geradora de momentos foi
substituída por um asterisco pois não é útil.

71
72
fX (x) MX (t) µX 2
σX

1 eb t − ea t a+b (b − a)2
Uniforme(a, b) ,a≤x≤b
b−a t (b − a) 2 12

1 2 2 2 t2 /2
Normal(µ, σ 2 ) √ e−(x−µ) /(2σ ) , x ∈ R eµ t+σ µ σ2
σ 2π

λ 1 1
Exponencial(λ) λ e−λx , x ≥ 0 para t < λ
λ−t λ λ2

λα α−1 −λ x λ α α
Gama(α, λ) x e ,x≥0 para t < λ
Γ(α) λ−t λ λ2

1 a ab
Beta(a, b) xa−1 (1 − x)b−1 , 0 ≤ x ≤ 1 ∗
B(a, b) a+b (a + b + 1)(a + b)2

1
Cauchy(a, b) n o, x∈R ϕX (t) = ei a t−b |t| – –
π b 1 + [(x − a)/b]2

Tabela 4.2: Distribuições contínuas. Para a distribuição uniforme, a fórmula indicada para MX (t) é válida para t 6= 0. A função
geradora de momentos da distribuição Beta foi substituída por um asterisco pois não é útil. Para a distribuição de Cauchy, é indicada
a função característica.

Esperança
Desigualdades 73

4. Desigualdades

4.1. Desigualdade de Markov: Se X ≥ 0, então, para qualquer λ > 0,

E(X)
P (X ≥ λ) ≤ .
λ

4.2. Desigualdade de Markov Generalizada: Seja X uma variável aleatória qualquer.


Para todo t > 0,
E|X|t
P (|X| ≥ λ) ≤ , ∀ λ > 0.
λt
4.3. Desigualdade de Chebyshev: Seja X uma variável aleatória com E(X) < ∞.
Então, para qualquer λ > 0,

Var(X)
P (|X − E(X)| ≥ λ) ≤ .
λ2

4.4. Limitantes de Chernoff: Para quaisquer variável aleatória X e a ∈ R,

P (X ≥ a) ≤ e−ta MX (t) para todo t > 0;

P (X ≤ a) ≤ e−ta MX (t) para todo t < 0.

4.5. Desigualdade de Jensen: Seja ϕ : R → R uma função convexa. Se a variável


aleatória X é integrável, então

E(ϕ(X)) ≥ ϕ(E(X)).

Observação. A desigualdade de Jensen é válida se ϕ é convexa em um intervalo (a, b) tal


que P (a < X < b) = 1, em que se admite a possibilidade de a = −∞ ou b = +∞.

4.6. Desigualdade de Cauchy-Schwarz: Se as variáveis aleatórias X e Y têm variân-


cias finitas, então
|E(XY )| ≤ (E(X 2 ) E(Y 2 ))1/2 .

Exercícios

1. Duas bolas são escolhidas aleatoriamente de uma urna contendo 4 bolas azuis, 3 ver-
melhas e 2 laranjas. Suponha que ganhamos 10 reais para cada bola azul selecionada,
ganhamos 1 real para cada bola laranja, porém perdemos 8 reais para cada bola vermelha.
Seja X o nosso lucro.
74 Esperança

(a) Determine a função de probabilidade de X.


(b) Obtenha o valor esperado e a variância de X.

2. Considere o seguinte jogo. Um indivíduo aposta em um dos números de 1 a 6. Três


dados honestos são então lançados, de maneira independente, e, se o número apostado
aparecer i vezes, i = 1, 2, 3, o apostador ganha i reais; caso o número apostado não apareça
em nenhum dos dados, o apostador perde 1 real. Seja X o ganho do apostador no jogo.
Determine a função de probabilidade de X e, com base na esperança de X, julgue se o
jogo é honesto ou não para o apostador.

3. Exatamente uma de seis chaves de aspecto semelhante abre uma determinada porta.
Testa-se uma chave após a outra. Qual o número médio de tentativas necessárias para se
conseguir abrir a porta?

4. Seja X uma variável aleatória com distribuição de Poisson com parâmetro λ, λ > 0.
Obtenha
h i
(a) E (1 + X)−1 .
(b) E(2X ).
(c) E(X!).
Para quais valores de λ a variável aleatória X! é integrável?

5. Seja X uma variável aleatória com distribuição geométrica de parâmetro p. Mostre


que  
1 p log p
E =− .
X 1−p
Z
(1 − p)x
Sugestão: Use que (1 − p)x−1 dp = − .
x
6. Seja Z uma variável aleatória com distribuição normal padrão. Para x ∈ R fixado,
defina 
 Z se Z > x,
X=
0 caso contrário.
1 2
Mostre que E(X) = √ e−x /2 .

7. Demonstre o critério para integrabilidade enunciado em 1.9 (p. 66).


Sugestão: Considere a variável aleatória Y = [|X|] (parte inteira de |X|) e observe que Y
assume valores inteiros e não-negativos e satisfaz 0 ≤ Y ≤ |X| ≤ Y + 1.

8. Uma urna contém três bolas brancas e duas bolas vermelhas. Retiram-se duas bolas
da urna, uma após a outra, sem reposição. Seja X igual a 0 ou 1, conforme a primeira
bola retirada seja vermelha ou branca, e seja Y igual a 0 ou 1, conforme a segunda bola
retirada seja vermelha ou branca. Determine:
Exercícios 75

(a) a função de probabilidade conjunta de X e Y , bem como as marginais;


(b) se X e Y são independentes;
(c) E(2X + 8Y );
(d) a covariância entre X e Y .

Solução. (a) Utilizando uma árvore, podemos obter o espaço amostral, probabilidades e
valores de X e Y correspondentes:


1/2✦ B X=1 Y =1 Prob. = 3/10
✦ ✦
B ❛❛
3/5 1/2❛
❛ V X=1 Y =0 Prob. = 3/10


2/5 ✦
3/4✦ B X=0 Y =1 Prob. = 3/10
❅ ✦ ✦
V ❛❛
1/4❛
❛ V X=0 Y =0 Prob. = 1/10

onde B e V denotam respectivamente ‘bola branca’ e ‘bola vermelha’.


Dessa forma, a função de probabilidade conjunta de X e Y e as marginais ficam:
X \Y 0 1 pX (x)
0 1/10 3/10 2/5
1 3/10 3/10 3/5
pY (y) 2/5 3/5 1
(b) X e Y não são independentes:
1 2 2 4
P (X = 0, Y = 0) = 6= P (X = 0) P (Y = 0) = . = .
10 5 5 25
(c) Temos
2 3 3
E(X) = E(Y ) = 0 . + 1. = ,
5 5 5
portanto, pela linearidade da esperança,
E(2X + 8Y ) = 2 E(X) + 8 E(Y ) = 6.
(d) Visto que E(XY ) = 1 . 1 . 3/10 = 3/10, obtemos
3
Cov(X, Y ) = E(XY ) − E(X) E(Y ) = − .
50

9. Cada lançamento de um dado não honesto resulta em cada um dos números ímpares 1,
3, 5 com probabilidade C e em cada um dos números pares 2, 4, 6 com probabilidade 2C.
(a) Determine C.
Suponha que o dado é lançado e considere as seguintes variáveis aleatórias:
(
1 se o resultado é um número par,
X=
0 caso contrário;
(
1 se o resultado é um número maior que 3,
Y =
0 caso contrário.
76 Esperança

(b) Determine a função de probabilidade conjunta de X e Y , bem como as marginais.


X e Y são independentes?
(c) Obtenha P (X = 0 | Y = 1).
(d) Calcule E(2X − 12 Y + 6).
(e) Calcule Var(X + Y ).

10. Seja X uma variável aleatória contínua com função densidade de probabilidade

 1 − |x| se |x| < 1,
f (x) =
 0 caso contrário.

(a) Prove que f é uma função densidade de probabilidade.


(b) Determine E(X) e Var(X).
(c) Calcule P (|X| ≥ k), onde k é um número 0 < k < 1.
(d) Utilizando a desigualdade de Chebyshev, obtenha uma cota superior para a pro-
babilidade anterior.
(e) Para k = 0,2 e k = 0,8, obtenha os valores numéricos da probabilidade calculada
em (c) e da cota obtida em (d). Comente.

11. Em um problema envolvendo variáveis aleatórias independentes X e Y , um estudante


calcula, corretamente, que

E(Y ) = 2, E(X 2 Y ) = 6, E(XY 2 ) = 8, E((XY )2 ) = 24.

Você pode ajudá-lo, determinando o valor de E(X)?

12. Sejam X e Y variáveis aleatórias com função densidade conjunta



 2 e−2x /x se 0 ≤ y ≤ x < ∞,
f (x, y) =
 0 caso contrário.

Calcule Cov(X, Y ).

13. Sejam X e Y variáveis aleatórias com função densidade conjunta


1
f (x, y) = (x + y)e−(x+y) , x ≥ 0, y ≥ 0.
2
(a) X e Y são independentes?
(b) Calcule a função densidade de Z = X + Y .
h i
(c) Obtenha E (X + Y )−1 .

14. Sejam X, Y e Z variáveis aleatórias independentes, com variâncias iguais e positivas.


Determine o coeficiente de correlação entre X + Y e X + Z.
Exercícios 77

15. Sejam X e Y variáveis aleatórias com variâncias iguais a σ 2 > 0 e coeficiente de


correlação ρ. Calcule a variância da média aritmética de X e Y . Conclua que a média
aritmética de X e Y tem variância menor ou igual a σ 2 .

16. Sejam X e Y variáveis aleatórias independentes, com distribuição uniforme em [0, 1],
e considere U = mín{X, Y } e V = máx{X, Y }. Calcule Cov(U, V ).
Sugestão: Não é necessário obter a densidade conjunta de U e V para determinar E(U V ).

17. Seja X1 , X2 , . . . uma seqüência de variáveis aleatórias independentes, tal que, para
cada n ≥ 1, Xn ∼ Exp(n), ou seja, Xn tem densidade de probabilidade dada por

 n e−nx se x > 0,
fXn (x) =
 0 caso contrário.
(a) Obtenha a distribuição de Y = mín{X1 , X2 , X3 }.
 P100 
(b) Determine E e− n=1
Xn
.

18. Um vaso contém 20 cartões, dois deles marcados 1, dois marcados 2, . . ., dois marca-
dos 10. Cinco cartões são retirados ao acaso do vaso. Qual é o número esperado de pares
que permanecem ainda no vaso?
(Este problema foi colocado e resolvido no século XVIII por Daniel Bernoulli, como um
modelo probabilístico para determinar o número de casamentos que permanecem intactos
quando ocorre um total de m mortes entre N casais; em nosso caso, m = 5 e N = 10).
Solução. Seja X o número de pares que permanecem no vaso após a retirada dos cinco
cartões. Então,
X = X1 + X2 + · · · + X10 ,
onde, para i = 1, 2, . . . , 10,
(
1 se o i-ésimo par permanece no vaso,
Xi =
0 caso contrário.
Porém, para i = 1, 2, . . . , 10,
 
18
5 21
E(Xi ) = P (Xi = 1) =   = .
20 38
5

Assim, obtemos
21 105
E(X) = E(X1 ) + E(X2 ) + · · · + E(X10 ) = 10 .= ≈ 5,53.
38 19
Observação. Embora mais trabalhoso, pode-se obter a distribuição de X e calcular o valor
esperado pela definição. De fato,
 
10
5
25 168
P (X = 5) =   = ,
20 323
5
78 Esperança

  
10 9
1 3
23 140
P (X = 6) =   = ,
20 323
5
  
10 16
2 1 15
P (X = 7) =   = ,
20 323
5

portanto
X 105
E(X) = x P (X = x) = ≈ 5,53.
x 19

19. Um ônibus parte com 20 pessoas e tem em seu trajeto 10 pontos diferentes, parando
em um ponto somente se uma ou mais pessoas solicitarem. Suponha que cada passageiro
escolhe com igual probabilidade o ponto em que vai parar e que as escolhas são indepen-
dentes de passageiro para passageiro. Determine o número esperado de paradas feitas
pelo ônibus.
Solução. Se X é o número de de paradas feitas pelo ônibus, escrevemos

X = X1 + X2 + · · · + X10 ,

onde (
1 se pelo menos uma pessoa solicita a parada no ponto i,
Xi =
0 caso contrário.
Então, para i = 1, . . . , 10,

E(Xi ) = P (Xi = 1)
= P (Pelo menos uma pessoa solicita a parada no ponto i)
= 1 − P (Nenhuma pessoa solicita a parada no ponto i)
 20
9
=1− .
10
Portanto, pela linearidade da esperança,
 
E(X) = 10 . E(X1 ) = 10 . 1 − (0,9)20 ≈ 8,78.

Observação. É possível, porém mais trabalhoso, obter a distribuição de X e calcular o


valor esperado pela definição. Para x = 1, . . . , 10,
! ! 
 20
10 x−1
X x 1
P (X = x) = (−1)j (x − j)20  ,
x j=0 j 10

onde o termo entre colchetes é o número de maneiras com que podemos distribuir n = 20
bolas distintas em x urnas distintas de modo que nenhuma urna fique vazia (o qual pode
ser obtido pelo Princípio da Inclusão-Exclusão). Assim,
10
X
E(X) = x P (X = x) ≈ 8,78.
x=1
Exercícios 79

20. Uma sorveteria oferece 36 sabores diferentes de sorvete. Uma pessoa é encarregada
de escolher ao acaso 10 sorvetes dessa sorveteria, podendo repetir o sabor. Por ao acaso,
queremos dizer que todas as escolhas possíveis têm a mesma probabilidade. Qual o número
esperado de sabores diferentes que serão escolhidos?

21. Seis pares diferentes de meias são colocados em uma lavadora (doze meias ao todo,
e cada meia tem um único par), porém apenas sete meias retornam. Qual o número
esperado de pares de meias que retornam?

22. Um círculo de raio 1 é lançado em uma folha de tamanho infinito dividida em qua-
drados iguais de lado com comprimento 1. Suponha que o centro do círculo está unifor-
memente distribuído no quadrado em que cai. Calcule o número esperado de vértices do
quadrado que estão dentro do círculo.

23. Escolhem-se ao acaso e sem reposição 10 números do conjunto {1, 2, . . . , 30}. Calcule
o valor esperado da soma dos números escolhidos.

24. Uma marca de biscoitos lança uma promoção que consiste em oferecer um adesivo em
cada pacote de biscoito. Existem n adesivos diferentes e a probabilidade de um pacote
conter qualquer um dos adesivos é a mesma. Qual o número esperado de pacotes que
devem ser comprados para juntar os n adesivos diferentes?

25. Suponha que 8 casais sentam-se ao acaso em um banco de 16 lugares. Determine a


esperança e a variância do número de mulheres que estão sentadas ao lado dos maridos.

26. Um grupo de nove amigos que se reúnem para jogar futebol é composto por 2 goleiros,
3 zagueiros e 4 atacantes. Se os jogadores são agrupados ao acaso em três trios (grupos
de tamanho 3), encontre a esperança e a variância do números de trios formados por um
jogador de cada tipo.

27. São realizados n lançamentos independentes de uma moeda, com probabilidade p de


cara em cada lançamento (0 < p < 1). Uma seguida é uma seqüência de lançamentos de
mesmo resultado; por exemplo, a seqüência CCKCKKC contém 5 seguidas. Obtenha a
esperança e a variância do número de seguidas nos n lançamentos.

28. Esperança e variância da distribuição hipergeométrica.


Suponha que temos uma população de N objetos, dos quais R são do tipo 1 e N − R
são do tipo 2. Escolhem-se desta população n objetos ao acaso, sem reposição (n ≤ N ).
Determine a esperança e a variância do número de objetos do tipo 1 escolhidos.

29. Suponha que temos r bolas distintas que são aleatoriamente distribuídas em n urnas
(r > 0, n > 0). Calcule a esperança e a variância do número de urnas vazias após a
distribuição.

30. Seja (X1 , . . . , Xn ) com distribuição multinomial de parâmetros m, p1 , . . . , pn . Obtenha


a covariância entre Xi e Xj para i 6= j.
80 Esperança

31. Em uma festa, estão presentes 8 meninos, 10 meninas e 12 adultos. Doze dessas
pessoas são sorteadas para participarem de uma brincadeira. Sejam X e Y o número de
meninos e meninas que participam da brincadeira, respectivamente. Calcule a covariância
entre X e Y .
32. Considere
 um grafo com n vértices numerados 1, 2, . . . , n, e suponha que cada um
n
dos 2 pares de vértices distintos é ligado por um elo, independentemente, com proba-
bilidade p. Seja Di o grau do vértice i, isto é, o número de elos que têm o vértice i como
uma de suas extremidades.
(a) Qual é a distribuição de Di ?
(b) Determine a correlação entre Di e Dj para i 6= j.

Sugestão: Defina Ii,j a função indicadora do evento de que há um elo entre os vértices i
e j.

33. Seja (X, Y ) um ponto escolhido aleatoriamente no quadrado (0, 1) × (0, 1). Calcule
E(X|XY ).
Solução. A densidade conjunta de X e Y é dada por

 1 se 0 < x < 1 e 0 < y < 1,
fX,Y (x, y) =
 0 caso contrário.

Seja Z = XY . Usando o Método do Jacobiano, obtemos a densidade conjunta de X e Z:



 1/x se 0 < z < x < 1,
fX,Z (x, z) =
 0 caso contrário.

Então, calculamos a densidade marginal de Z. Para 0 < z < 1,


Z 1
fZ (z) = 1/x dx = − log z.
z

Portanto, para 0 < z < 1,

1
fX|Z (x|z) = − , z < x < 1.
x log z

Assim,
Z ∞ Z 1 !
1 z−1
E(X|Z = z) = x fX|Z (x|z) dx = − dx = .
−∞ z log z log z
Finalmente,
XY − 1
E(X|XY ) = .
log(XY )
Exercícios 81

34. Sejam X e Y variáveis aleatórias com função densidade conjunta



 8 x y se 0 < y < x < 1,
f (x, y) = 
0 caso contrário.

Calcule E(X | Y ) e E(Y | X).

35. Sejam X e Y variáveis aleatórias com função densidade conjunta



 2 exp{−y 2 } se 0 < x < y,
f (x, y) =
 0 caso contrário.

(a) Obtenha a densidade condicional de X dado que Y = y.


(b) Calcule E(X 3 | Y = y).

36. Uma rede de supermercados encomendou um estudo sobre a relação entre a pro-
porção X de clientes que compram apenas uma vez ao mês nos seus estabelecimentos
e o lucro mensal Y em milhões de reais. Os estatísticos contratados obtiveram que a
densidade conjunta de X e Y é dada por

 k (x + y) e−y se 0 < x < 1, y > 0,
f (x, y) =
 0 caso contrário,

onde k é uma constante.


(a) Obtenha o valor de k.
(b) Determine a esperança condicional de X dado que Y = y.

37. O tempo em minutos que um professor gasta para corrigir uma prova é uma variável
aleatória com função densidade de probabilidade

1 −x/5

e se x > 0,
f (x) =  5

0 caso contrário.
Suponha que provas de alunos diferentes têm tempos de correção independentes.
(a) Obtenha a densidade do tempo utilizado pelo professor para corrigir duas provas.
(b) Dado que o professor gastou 15 minutos para corrigir duas provas, qual é a proba-
bilidade de que tenha usado mais que 10 minutos na correção da primeira?

38. Uma farmácia possui uma quantidade X de centenas de unidades de um certo remédio
no início de cada mês. Durante o mês, vendem-se Y centenas de unidades desse remédio.
Suponha que 
 2/9 se 0 < y < x < 3,
f (x, y) =
 0 caso contrário
é a função densidade conjunta das variáveis aleatórias X e Y .
82 Esperança

(a) Mostre que de fato f é uma densidade.


(b) Calcule a probabilidade de que ao final do mês a farmácia tenha vendido pelo
menos a metade das unidades que havia inicialmente.
(c) Dado que foram vendidas cem unidades, qual a probabilidade de que havia pelo
menos duzentas unidades no começo do mês?

39. Uma companhia telefônica deseja realizar uma análise sobre a repercussão que as
novas tarifas tiveram no número de chamadas. Levando em conta que as chamadas se
classificam em locais, interurbanas e internacionais, um estudo realizado em um grupo de
famílias revelou que as proporções de chamadas locais X e interurbanas Y durante um
mês têm a seguinte densidade conjunta

 6 x se x ≥ 0, y ≥ 0 e x + y ≤ 1,
f (x, y) =
 0 caso contrário.
(a) Calcule a probabilidade de que a proporção de chamadas locais realizadas por uma
família em um mês seja superior a 70%.
(b) Obtenha a probabilidade de que em uma família a proporção de chamadas locais
em um mês seja inferior à de interurbanas.
(c) Determine a densidade correspondente à proporção total de chamadas locais e
interurbanas.
(d) Calcule a probabilidade de que a proporção de chamadas internacionais realizadas
por uma família em um mês seja superior a 20%.
(e) Dado que em um mês uma família não fez chamadas internacionais, qual a proba-
bilidade de que pelo menos 60% das chamadas tenham sido locais?

40. Sejam X e Y variáveis aleatórias independentes, com distribuição de Poisson com


parâmetros respectivos λ e µ, e considere Z = X +Y . Determine a distribuição condicional
de X dado que Z = z.

41. Sejam X e Y variáveis aleatórias independentes, com distribuições Binomial(m, p) e


Binomial(n, p), respectivamente, e considere Z = X + Y . Obtenha a distribuição condi-
cional de X dado que Z = z.

42. Sejam X e Y variáveis aleatórias independentes, com distribuição comum geométrica


com parâmetro p (0 < p < 1), e considere Z = X + Y . Determine a distribuição
condicional de X dado que Z = z.

43. Sejam X e Y variáveis aleatórias independentes, com distribuição comum exponencial


de parâmetro λ, e considere Z = X + Y . Obtenha a densidade condicional de X dado
que Z = z.

44. Duas pessoas chegam simultaneamente a um ponto de ônibus. Suponha que o tempo
que a pessoa i espera pela sua condução é uma variável aleatória Ti ∼ Exp(λ), com T1 e T2
Exercícios 83

independentes. Sejam X = mín{T1 , T2 } o tempo transcorrido até o primeiro passageiro


tomar seu ônibus e Y = máx{T1 , T2 } o tempo transcorrido até que ambas as pessoas
tenham tomado a condução. Determine a distribuição de
(a) X | Y = y;
(b) Y | X = x;
(c) (Y − X) | X = x.

45. Sejam X1 , X2 e X3 variáveis aleatórias i.i.d. com distribuição Exp(1) e sejam Y1 , Y2


e Y3 as estatísticas de ordem associadas. Defina Z1 = Y1 , Z2 = Y2 − Y1 e Z3 = Y3 − Y2 .
(a) Encontre a densidade conjunta de Z1 , Z2 e Z3 , bem como as marginais. São Z1 ,
Z2 e Z3 independentes?
(b) Determine a densidade condicional de Z2 dado Y1 .
(c) Calcule a densidade e a esperança condicionais de Y3 dado Y1 .

46. O número de clientes Y que chegam a um caixa eletrônico tem distribuição de Poisson
com parâmetro X, sendo X a intensidade com que os clientes chegam ao caixa eletrônico.
Supondo que X tem distribuição Gama(α, 1), encontre a função de probabilidade da
variável aleatória Y .
Solução. Sabemos que X é uma variável aleatória com densidade
1
fX (x) = xα−1 e−x , x ≥ 0.
Γ(α)
Por outro lado,
e−x xk
P (Y = k | X = x) = , k = 0, 1, . . .
k!
Logo, para k = 0, 1, . . . ,
Z ∞
P (Y = k) = P (Y = k | X = x) fX (x) dx
−∞
Z ∞
1 Γ(k + α)
= xk+α−1 e−2x dx = .
k! Γ(α) 0 k! Γ(α) 2k+α
Note que, em particular, se X ∼ Exp(1), então
1
P (Y = k) = , k = 0, 1, . . .
2k+1

47. Usando o resultado do exercício anterior, prove que para n ≥ 1,



!
X k+n−1 1
= 2n .
k=1 n 2k

P∞
Sugestão: Tome α = n e use que k=1 k P (Y = k) = E(Y ) = E(E(Y |X)).
84 Esperança

48. O número de e-mails que chegam a um servidor no intervalo de tempo [0, t] é, para
cada t > 0, uma variável aleatória Nt com distribuição de Poisson com parâmetro λ t.
Somente um computador é conectado ao servidor para ler os e-mails recebidos. O tempo
de vida T desse computador tem distribuição exponencial de parâmetro θ. Além disso,
Nt e T são independentes para todo t. Obtenha a distribuição do número de e-mails lidos
até o computador falhar.
Solução. Para j = 0, 1, . . . ,
Z ∞ Z ∞
P (NT = j) = P (NT = j | T = t) fT (t) dt = P (NT = j | T = t) θ e−θt dt
−∞ 0
Z ∞ Z ∞
(∗) −θt (∗∗)
= P (Nt = j | T = t) θ e dt = P (Nt = j) θ e−θt dt
0 0
Z ∞
e−λt (λt)j −θt θ λj Z ∞ j −(λ+θ)t
= θ e dt = t e dt
0 j! j! 0
! !j
θ λj Γ(j + 1) θ λ
= = .
j! (λ + θ)j+1 λ+θ λ+θ
A passagem (∗) é justificada pelo Princípio da substituição; (∗∗) decorre da independência
de Nt e T para todo t.

49. Numa fábrica empacotam-se palitos de fósforo em caixas mediante uma máquina que
não pode ser totalmente controlada. Para não perder clientes, a máquina se ajusta de
forma que todas as caixas contenham pelo menos 50 palitos. O número de palitos em
cada caixa é uma variável aleatória X com função de probabilidade dada por
P (X = x) = (0,8) (0,2)x−50 , x = 50, 51, . . .
Ademais, o número de palitos defeituosos em uma caixa que contém x fósforos tem dis-
tribuição Binomial(x, 1/10). Obtenha o número médio de palitos defeituosos em uma
caixa.
Solução. Seja D o número de palitos defeituosos em uma caixa. Sabemos que D dado
que X = x tem distribuição Binomial(x, 1/10), logo
E(D | X = x) = x/10.
Então, utilizando a propriedade fundamental da esperança condicional,
E(D) = E(E(D | X)) = E(X/10) = E(X)/10.
Para obter E(X), observamos que a variável aleatória Y = X − 49 tem distribuição
geométrica com parâmetro 0,8, pois
P (Y = k) = P (X = k + 49) = (0,8) (0,2)k−1 , k = 1, 2, . . .
Assim,
1
E(X) = E(Y ) + 49 = + 49 = 50,25
0,8
e portanto E(D) = 5,025.
Exercícios 85

50. Um inseto põe N ovos, onde N tem distribuição de Poisson com parâmetro λ. Cada
ovo dá origem a um novo inseto com probabilidade p (0 < p < 1), independentemente dos
demais. Seja X o número de novos insetos produzidos.
(a) Qual a distribuição de X dado que N = n?
(b) Obtenha a distribuição de X.
(c) Qual o valor esperado de X?

51. O número de partidas de futebol jogadas em uma semana em uma vila é uma variável
aleatória com média µ e variância σ 2 . Os números de gols marcados em cada jogo são
variáveis aleatórias i.i.d. com média ν e variância θ2 e independentes do total de partidas
jogadas. Seja X o número total de gols marcados em uma semana. Calcule E(X) e
Var(X).
P
Sugestão: Escreva X = Yj=1 Xj , onde Xj é o número de gols marcados no j-ésimo jogo e
Y é o número de partidas jogadas numa semana. Use condicionamento em Y para obter
E(X) e E(X 2 ).

52. Seja N uma variável aleatória com distribuição geométrica de parâmetro p ∈ (0, 1),
ou seja, N tem função de probabilidade dada por

P (N = n) = p q n−1 , n = 1, 2, . . . ,

onde q = 1 − p.
(a) Mostre que a função geradora de momentos de N é dada por

p et p
M (t) = = −t , t < − log q.
1−qe t e −q

(b) Usando o item (a), prove que E(N ) = 1/p.

Uma urna contém N bolas numeradas de 1 a N , onde N tem a distribuição dada


anteriormente. Bolas são escolhidas ao acaso dessa urna, uma por vez, até que a bola
com o número 1 seja selecionada. Suponha que as retiradas são feitas com reposição, isto
é, cada bola escolhida é reposta na urna antes da próxima retirada. Seja X o número de
retiradas feitas.
(c) Obtenha P (X = x | N = n).
(d) Determine E(X).

53. O número X de erros que uma digitadora comete por página é uma variável aleatória
com distribuição de Poisson com parâmetro 2. Se uma página tem x erros, o número Y
de minutos necessários para revisar e corrigir a página é uma variável aleatória com
86 Esperança

distribuição condicional

1/5 se y = x + 1,



P (Y = y | X = x) = 3/5 se y = x + 2,



1/5 se y = x + 3.

(a) Encontre a probabilidade de que sejam necessários 3 minutos para revisar e corrigir
uma página.
(b) Dado que foram usados 3 minutos na revisão e correção de uma página, qual a
probabilidade de que seja uma página sem erros?
(c) Usando a função geradora de momentos, encontre a esperança de X.
(d) Determine E(Y | X = x).
(e) Obtenha E(Y ).

54. Seja Y uma variável aleatória com distribuição de Poisson de parâmetro λ. Supo-
nha que, dado que Y = y, X é uma variável aleatória com distribuição exponencial de
parâmetro y + 1. Obtenha E(X).

55. Escolhe-se ao acaso um ponto (X, Y ) no triângulo {(x, y) ∈ R2 : 0 < y < x < 1}.
(a) Calcule E(X|Y ).
(b) Obtenha E(Y |X) e E(Y 2 |X).
(c) Usando o item (b), determine E((X − Y )2 |X).

56. Sejam X e Y variáveis aleatórias tais que E(X|Y ) = Y e E(Y |X) = X. Prove que
P (X = Y ) = 1.
Sugestão: Mostre que E((X − Y )2 ) = 0.

57. Sejam X e Y variáveis aleatórias com função densidade conjunta


1 −(y+x/y)
f (x, y) = e , x > 0, y > 0.
y

(a) Determine a distribuição de Y .


(b) Obtenha a distribuição condicional de X dado que Y = y.
(c) Usando (a) e (b), calcule Cov(X, Y ).

58. Um dado honesto é lançado repetidamente, de modo independente. Sejam X e Y o


número de lançamentos necessários para obter um 6 e um 5, respectivamente. Obtenha
(a) E(X).
(b) E(X | Y = 1).
(c) E(X | Y = 5).
Exercícios 87

59. No labirinto mostrado na Figura 4.1, existem três quartos, numerados 1, 2 e 3, e mais
dois quartos, um com um saboroso queijo e outro no qual está dormindo o gato Tom. O
rato Jerry está inicialmente no quarto 1. Suponha que, quando Jerry entra no quarto i, lá
permanece por um tempo em minutos com distribuição Gama(4, 3i) e então sai do quarto
escolhendo aleatoriamente uma das portas.
(a) Calcule a probabilidade de que Jerry encontre Tom antes do queijo.
(b) Obtenha o tempo esperado em minutos que Jerry demora até encontrar Tom ou o
queijo.

Sugestão: No item (a), para i = 1, 2, 3, defina pi a probabilidade de que Jerry encontre


Tom antes do queijo, partindo do quarto i. Condicionando na primeira escolha de Jerry,
escreva um sistema de equações para p1 , p2 e p3 . O item (b) é análogo.

2
1 Tom
3

Queijo

Figura 4.1: Exercício 59 – Tom e Jerry.

60. Passeio aleatório simétrico: Um homem caminha em um trecho com 5 quarteirões


de uma avenida (Figura 4.2). Ele começa na esquina i e, com probabilidade uniforme,
decide ir um quarteirão à direita ou um quarteirão à esquerda. Quando chega à próxima
esquina, novamente escolhe ao acaso a sua direção ao longo da avenida. Ele prossegue até
chegar à esquina 5, que é sua casa, ou à esquina 0, que é um bar. Quando chega à casa
ou ao bar, permanece lá. Para i = 1, 2, 3, 4, defina pi a probabilidade de que o homem,
começando na esquina i, chegue à casa antes do bar, e qi a probabilidade de que partindo
da esquina i chegue ao bar antes da casa.
(a) Obtenha p1 , p2 , p3 e p4 .
(b) Explique por que qi = p5−i para i = 1, 2, 3, 4.
(c) Conclua que não há possibilidade de um passeio interminável, qualquer que seja a
esquina da qual o homem parta.

1 1
1/2 1/2

0 1 2 3 4 5
Bar Casa

Figura 4.2: Exercício 60 – Passeio aleatório simétrico.


88 Esperança

61. Uma urna contém a bolas brancas e b bolas pretas. Após uma bola ser retirada ao
acaso, ela é devolvida à urna se é branca, mas se é preta então é substituída por uma bola
branca de outra urna. Seja Mn o número esperado de bolas brancas na urna depois que
a operação anterior foi repetida n vezes.
(a) Obtenha a equação recursiva
 
1
Mn+1 = 1− Mn + 1, n ≥ 0.
a+b

(b) Use o item (a) para provar que


 n
1
Mn = a + b − b 1 − , n ≥ 0.
a+b

(c) Qual é a probabilidade de que a (n + 1)-ésima bola retirada seja branca?

62. Um dado honesto é lançado repetidamente, de modo independente. Calcule o número


esperado de lançamentos feitos até conseguir duas faces 6 consecutivas.
Sugestão: Condicione no tempo da primeira ocorrência de uma face diferente de 6.

63. Uma moeda com probabilidade p de cara em cada lançamento é lançada repetida-
mente, de modo independente. Seja Tr o número de lançamentos necessários para obter
uma seqüência de r caras consecutivas.
(a) Determine E(Tr | Tr−1 ).
(b) Escreva E(Tr ) em termos de E(Tr−1 ).
(c) Quanto vale E(T1 )?
(d) Obtenha E(Tr ).

64. Uma caixa contém duas moedas: a moeda 1, com probabilidade de cara igual a 0,4,
e a moeda 2, com probabilidade de cara igual a 0,7. Uma moeda é escolhida ao acaso da
caixa e lançada dez vezes. Dado que dois dos três primeiros lançamentos resultaram em
cara, qual a esperança condicional do número de caras nos dez lançamentos?
Sugestão: Defina A o evento de que dois dos três primeiros lançamentos resultam em cara
e Nj o número de caras nos j lançamentos finais. Então, E(N10 | A) = 2 + E(N7 | A). Para
obter E(N7 | A), condicione na moeda que foi usada.

65. Demonstre o tópico 3.3 (p. 69).

66. Obtenha a função geradora de momentos de Y = X 2 , onde X tem distribuição


N (0, 1). Conclua que a distribuição χ21 é idêntica à Gama(1/2, 1/2).

67. Sejam X e Y variáveis aleatórias independentes tais que P (X = −1) = P (X = 1) =


1/2 e Y ∼ U (−1, 1). Determine a distribuição de Z = X + Y de duas maneiras:
Exercícios 89

(a) Obtendo a função de distribuição de Z por condicionamento em X.


(b) Calculando a função geradora de momentos de Z.

68. Sejam X1 , . . . , Xn variáveis aleatórias independentes com distribuição exponencial de


parâmetro 1. Considere
X2 X3 Xn
Vn = máx{X1 , . . . , Xn } e Wn = X1 + + + ··· + .
2 3 n
Prove que Vn e Wn têm a mesma distribuição.

69. Sejam X e Y variáveis aleatórias independentes tais que X ∼ N (0, 1) e Y ∼ N (0, 2).
Definimos Z = X + Y e W = X − Y . Calcule as funções geradoras de momentos de Z e
W e mostre que Z e W são identicamente distribuídas mas não independentes.

70. Sejam X1 , . . . , Xn variáveis aleatórias i.i.d. com densidade comum definida por

 2(1 − x) se 0 < x < 1,
f (x) =
 0 caso contrário.
1 Pn
Calcule a função geradora de momentos da variável aleatória Y = − log (1 − Xj )
n j=1
e daí conclua qual a sua distribuição.

71. Um aparelho de som é formado por n componentes, sendo que o i-ésimo componente
tem probabilidade pi de falhar. Suponha que os componentes falham de maneira inde-
pendente e seja X o número de componentes que falham. Sabe-se que se X = 0 então
o aparelho funciona, se X = 1 a probabilidade de funcionar é 0,7 e se X ≥ 2 o aparelho
não funciona.
(a) Obtenha a função geradora de probabilidade de X em função das pi ’s.
(b) Sendo n = 4, p1 = 0,1, p2 = 0,05, p3 = 0,15 e p4 = 0,1, calcule a probabilidade do
aparelho funcionar.

72. (a) Seja X uma variável aleatória com distribuição geométrica de parâmetro p ∈ (0, 1).
Prove que para n ≥ 1,
n! (1 − p)n−1
E (X (X − 1) . . . (X − n + 1)) = .
pn
(b) Seja X uma variável aleatória com distribuição de Poisson com parâmetro λ > 0.
Mostre que para n ≥ 1,

E (X (X − 1) . . . (X − n + 1)) = λn .

Sugestão: Use a propriedade (ii) da função geradora de probabilidade. Por exemplo, para
o item (a), prove que para n ≥ 1,
dn GX (s) n! p (1 − p)n−1
= , s < (1 − p)−1
dsn (1 − (1 − p)s)n+1
90 Esperança

e faça s = 1 para chegar ao resultado.

73. Seja X uma variável aleatória inteira e não-negativa, tal que


λ
P (X = k) = P (X = k − 1),
k
para todo k ≥ 1, onde λ > 0 é uma constante. Determine a distribuição de X.
Solução. Sejam pk = P (X = k), k ≥ 0 e

X
GX (s) = E(sX ) = pk sk , s ∈ [−1, 1]
k=0

a função geradora de probabilidade de X. Podemos diferenciar a série de potências em


todo ponto s ∈ (−1, 1). Usando a igualdade dada no enunciado do exercício, obtemos
∞ ∞
d GX (s) X X
= k pk sk−1 = λ pk−1 sk−1 = λ GX (s).
ds k=1 k=1

Portanto,
d
(log GX (s)) = λ,
ds
logo podemos escrever
GX (s) = exp{λ s + K},
P∞
onde K é uma constante. Visto que lim GX (s) = k=0 pk = 1, temos que K = −λ e
s↑1
então
GX (s) = exp{λ (s − 1)}.
Como a função geradora de probabilidade determina unicamente a distribuição, concluí-
mos que X ∼ Poisson(λ).

74. Seja X uma variável aleatória não-negativa. Demonstre que

E(X) ≤ (E(X 2 ))1/2 ≤ (E(X 3 ))1/3 ≤ · · ·

Sugestão: Use a desigualdade de Jensen para uma variável aleatória Y não-negativa e a


função ϕ(y) = y n/(n−1) e depois faça Y = X n−1 .

75. (a) Seja Y uma variável aleatória não-negativa tal que 0 < E(Y 2 ) < ∞. Prove que
para a < E(Y ),
(E(Y ) − a)2
P (Y > a) ≥ .
E(Y 2 )
(b) Seja X uma variável aleatória com esperança µ, variância σ 2 e tal que 0 < M =
E(|X − µ|4 ) < ∞. Mostre que para 0 < x < σ,

(σ 2 − x2 )2
P (|X − µ| > x) ≥ .
M
Respostas 91

Sugestão: (a) Utilize a desigualdade de Cauchy-Schwarz com as variáveis aleatórias Y e


I{Y >a} .

76. Sejam X e Y variáveis aleatórias definidas no mesmo espaço de probabilidade. Mostre


que para todo (x, y) ∈ R2 ,
q
FX,Y (x, y) ≤ FX (x) FY (y).

Sugestão: Use a desigualdade de Cauchy-Schwarz.

Respostas

x -16 -7 2 11 20
1. (a)
pX (x) 1/12 1/6 13/36 2/9 1/6
(b) E(X) = 4, Var(X) = 108,5

x -1 1 2 3
2.
pX (x) 125/216 75/216 15/216 1/216
E(X) = −17/216, Não

3. 7/2 (O número de tentativas tem distribuição uniforme discreta em {1, 2, . . . , 6}).

4. (a) (1 − e−λ )/λ (b) eλ (c) e−λ /(1 − λ) se 0 < λ < 1, ∞ se λ ≥ 1


X! é integrável para 0 < λ < 1.

9. (a) C = 1/9
X \Y 0 1 pX (x)
0 2/9 1/9 1/3
(b)
1 2/9 4/9 2/3
pY (y) 4/9 5/9 1
X e Y não são independentes.

(c) P (X = 0 | Y = 1) = 1/5
(d) E(2X − 12 Y + 6) = 1
(e) Var(X + Y ) = 50/81

10. (b) 0, 1/6 (c) (1 − k)2 (d) 1/(6 k 2 )

11. 1
12. 1/8

13. (a) Não (b) fZ (z) = (1/2) e−z z 2 , z ≥ 0 (c) 1/2


92 Esperança

14. 1/2

15. (1 + ρ) σ 2 /2

16. 1/36

17. (a) Exp(6) (b) 1/101

20. 8
21. 21/11

22. π
23. 155
 
1 1
24. n 1 + + · · · +
2 n

25. 1, 14/15

26. 6/7, 156/245

27. 1 + 2(n − 1)pq, 2pq(2n − 3 − 2pq(3n − 5)) onde q = 1 − p.


   
nR R R N −n
28. ,n 1−
N N N N −1

29. n(1 − 1/n)r , n(1 − 1/n)r [1 − (1 − 1/n)r ] + n(n − 1)[(1 − 2/n)r − (1 − 1/n)2r ]

30. −m pi pj

31. −96/145

32. (a) Binomial(n − 1, p) (b) 1/(n − 1)

34. E(X | Y ) = (2/3)(1 − Y 3 )/(1 − Y 2 ), E(Y | X) = (2/3) X

35. (a) Para y > 0: fX|Y (x|y) = 1/y, 0 < x < y (b) E(X 3 |Y = y) = y 3 /4

2 2 + 3y
36. (a) k = (b) E(X|Y = y) =
3 3(1 + 2y)

1
37. (a) X, Y ∼ Exp(1/5), independentes, Z = X + Y ⇒ fZ (z) = z e−z/5 , z > 0
25
1 1
(b) fX|Z (x|15) = , 0 < x < 15 ⇒ P (X > 10 | Z = 15) =
15 3
38. (b) P (Y ≥ X/2) = 1/2 (c) fX|Y (x|1) = 1/2, 1 < x < 3 ⇒ P (X ≥ 2 | Y = 1) = 1/2

39. (a) P (X > 0,7) = 0,216 (b) P (X < Y ) = 0,25


Respostas 93

(c) Z = X + Y , fZ (z) = 3 z 2 , 0 ≤ z ≤ 1 (d) P (Z ≤ 0,8) = 0,512


(e) fX|Z (x|1) = 2 x, 0 ≤ x ≤ 1 ⇒ P (X ≥ 0,6 | Z = 1) = 0,64

40. Binomial(z, λ/(λ + µ))

41. Hipergeométrica(m + n, m, z)

42. Uniforme Discreta(z − 1)

43. Uniforme(0, z)

44. fX,Y (x, y) = 2 λ2 e−λ(x+y) , 0 < x < y


λ e−λx
(a) Para y > 0, fX|Y (x|y) = ,0<x<y
1 − e−λy
(b) Para x > 0, fY |X (y|x) = λ e−λ(y−x) , y > x
(c) (Y − X) | X = x ∼ Exp(λ)

45. (a) Z1 ∼ Exp(3), Z2 ∼ Exp(2) e Z3 ∼ Exp(1), independentes


(b) Z2 | Y1 ∼ Exp(2) (decorre imediatamente de (a))
(c) Para y1 > 0, fY3 |Y1 (y3 |y1 ) = 2 e2y1 −y3 (e−y1 − e−y3 ), y3 > y1 e E(Y3 |Y1 ) = 3/2 + Y1

50. (a) X|N = n ∼ Binomial(n, p) (b) Poisson(λp) (c) λp

51. E(X) = νµ e Var(X) = µ θ2 + ν 2 σ 2

52. (c) Para n ≥ 1: P (X = x | N = n) = (1/n)(1 − 1/n)x−1 , x = 1, 2, . . . (d) 1/p

53. (a) (9/5) e−2 (b) 1/9 (c) 2 (d) E(Y | X = x) = x + 2 (e) 4

54. E(X) = (1 − e−λ )/λ

Y +1 X X2
55. (a) E(X|Y ) = (b) E(Y |X) = ; E(Y 2 |X) =
2 2 3
2
X
(c) E((X − Y )2 |X) =
3
57. (a) Y ∼ Exp(1) (b) X | Y = y ∼ Exp(1/y) (c) 1

58. (a) 6 (b) 7 (c) 5,8192

59. (a) p1 = 1/2 p2 , p2 = 1/4 p1 + 2/4 p3 + 1/4, p3 = 2/4 p2 + 1/4


⇒ p1 = 0,3 (p2 = 0,6 e p3 = 0,55).
(b) µ1 = 4/3 + 1/2 µ2 , µ2 = 4/6 + 1/4 µ1 + 2/4 µ3 , µ3 = 4/9 + 2/4 µ2
⇒ µ1 = 104/45 (µ2 = 88/45 e µ3 = 64/45).
94 Esperança

60. (a) p1 = 1/2 p2 , p2 = 1/2 p1 + 1/2 p3 , p3 = 1/2 p2 + 1/2 p4 , p4 = 1/2 p3 + 1/2


⇒ pi = i/5, i = 1, 2, 3, 4.
(c) pi + qi = 1 para todo i = 1, 2, 3, 4.

61. (c) Mn /(a + b)

62. 42
63. (a) 1 + Tr−1 + (1 − p) E(Tr ) (b) E(Tr ) = 1/p + (1/p) E(Tr−1 )
r
1 X 1 1 − pr
(c) (d) =
p i=1 p
i pr (1 − p)

64. 6,0705
Z ∞
2 1
66. MY (t) = etx fX (x) dx = √ , t < 1/2
−∞ 1 − 2t

67. Z ∼ U (−2, 2)

n! Γ(1 − t) n!
68. MVn (t) = MWn (t) = = Qn ,t<1
Γ(n + 1 − t) i=1 (i − t)

2
69. MZ (t) = MW (t) = e3t /2 , t ∈ R, portanto Z e W têm distribuição N (0, 3). Se fossem
independentes, teríamos que MZ+W (t) = MZ (t) MW (t) para todo t.
 n
2n
70. MY (t) = para t < 2n, Y ∼ Gama(n, 2n)
2n − t
Qn
71. (a) GX (s) = i=1 (1 − pi + pi s) , s ∈ R (b) 0,860715
Capítulo 5

Modos de Convergência e Teoremas Limites

A tabela seguinte resume os três tipos de convergência abordados nesse livro, as ferra-
mentas úteis no estudo de cada um deles e os principais teoremas limites relacionados.

Convergência Ferramenta Teorema limite


Em distribuição Função geradora / Teorema Central do Limite
característica
Em probabilidade Desigualdades de Lei Fraca dos Grandes
Markov / Chebyshev Números
Quase certa Lema de Borel-Cantelli Lei Forte dos Grandes
Números

1. Lema de Borel-Cantelli*

1.1. Lema de Borel-Cantelli (1909): Seja A1 , A2 , . . . uma seqüência de eventos em


um espaço de probabilidade (Ω, F, P ).
P∞
(a) Se n=1 P (An ) < ∞, então P (An infinitas vezes) = 0.
P∞
(b) Se n=1 P (An ) = ∞ e A1 , A2 , . . . são independentes, então P (An infinitas vezes) = 1.

Observação. Em vez da independência, basta em (b) que A1 , A2 , . . . sejam independentes


aos pares. Outras generalizações desse resultado podem ser encontradas na Seção 18 do
Capítulo 2 de Gut [6].

2. Modos de Convergência

2.1. Sejam X1 , X2 , . . . , X variáveis aleatórias em um espaço de probabilidade (Ω, F, P ).


Dizemos que
q.c.
(a) Xn converge para X quase certamente, denotado por Xn −→ X, se o evento

{ω ∈ Ω : Xn (ω) → X(ω) quando n → ∞}

tem probabilidade 1.
96 Modos de Convergência e Teoremas Limites

P
(b) Xn converge para X em probabilidade, denotado por Xn −→ X, se para qualquer
ε > 0,
P (|Xn − X| > ε) → 0 quando n → ∞.

D
(c) Xn converge para X em distribuição, denotado por Xn −→ X, se

P (Xn ≤ x) → P (X ≤ x) quando n → ∞,

para todo ponto x em que FX (x) = P (X ≤ x) é contínua.

Observação. Note que a convergência em distribuição é definida em termos das funções de


distribuição; a condição de que as variáveis aleatórias sejam definidas no mesmo espaço de
D
probabilidade é supérflua. Outra terminologia para Xn −→ X é dizer que FXn converge
fracamente para FX .

2.2. Unicidade do limite:


q.c. q.c.
(i) Se Xn −→ X e Xn −→ Y , então P (X = Y ) = 1.
P P
(ii) Se Xn −→ X e Xn −→ Y , então P (X = Y ) = 1.
D D
(iii) Se Xn −→ X e Xn −→ Y , então FX (x) = FY (x) para todo x ∈ R.

2.3. Relações entre os tipos de convergência:


q.c. P D
1. Xn −→ X =⇒ Xn −→ X =⇒ Xn −→ X.
Nenhuma outra implicação vale em geral.
D P
2. Se Xn −→ c, onde c é uma constante, então Xn −→ c.

2.4. Condição necessária e suficiente para convergência quase certa* :


Sejam X1 , X2 , . . . , X variáveis aleatórias em um espaço de probabilidade (Ω, F, P ).
Então,

q.c.
Xn −→ X ⇐⇒ P (|Xn − X| > ε infinitas vezes) = 0 para todo ε > 0

!
[
⇐⇒ lim P {|Xk − X| > ε} = 0 para todo ε > 0.
n→∞
k=n

P∞
Em particular, se pn (ε) = P (|Xn − X| > ε) satisfaz n=1 pn (ε) < ∞ para todo ε > 0,
q.c.
então Xn −→ X.
Modos de Convergência 97

2.5. Teorema da continuidade* :


Seja {Xn }n≥1 uma seqüência de variáveis aleatórias com funções geradoras de momentos
correspondentes {Mn (t)}n≥1 , que existem para |t| < b. Suponhamos que lim Mn (t) =
n→∞
M (t) para |t| ≤ a < b, onde M (t) é a função geradora de momentos da variável aleató-
D
ria X. Então, Xn −→ X.

Observação. O seguinte resultado é útil em muitas aplicações do Teorema da continuidade:


 
cn n
se c1 , c2 , . . . e c são números reais tais que n→∞
lim cn = c, então n→∞
lim 1 + = ec .
n
2.6. Outras condições para convergência em distribuição:
(a) Sejam X1 , X2 , . . . e X variáveis aleatórias inteiras e não-negativas. Então,

D
Xn −→ X ⇐⇒ lim P (Xn = k) = P (X = k) para todo k ∈ N.
n→∞

No caso geral de variáveis aleatórias discretas assumindo valores em {x0 , x1 , . . . }, vale a


implicação ⇐= com xk no lugar de k.

(b) Teorema de Scheffé: Sejam X1 , X2 , . . . e X variáveis aleatórias contínuas, com


densidades respectivas f1 , f2 , . . . e f . Se fn (x) → f (x) quando n → ∞ para quase todo x,
D
então Xn −→ X.
A condição de que fn (x) → f (x) para quase todo x significa que o conjunto {x : fn (x) 9
f (x)} tem medida de Lebesgue nula, o que ocorre, por exemplo, se esse conjunto é finito
ou enumerável. A recíproca do Teorema de Scheffé é falsa.

2.7. Preservação da convergência por uma função contínua:


q.c. q.c.
Se Xn −→ X e g : R → R é contínua, então g(Xn ) −→ g(X).
P D
Asserções análogas são válidas para −→ e −→.

2.8. Convergência de somas de seqüências:


q.c. q.c. q.c.
(i) Se Xn −→ X e Yn −→ Y , então Xn + Yn −→ X + Y .
P P P
(ii) Se Xn −→ X e Yn −→ Y , então Xn + Yn −→ X + Y .

Essa afirmação em geral não é válida no caso de convergência em distribuição. Para valer,
alguma hipótese adicional é requerida, por exemplo,
D D
(iii) Suponha que Xn −→ X e Yn −→ Y , com Xn e Yn independentes para todo n e X
D
e Y independentes. Então, Xn + Yn −→ X + Y .
98 Modos de Convergência e Teoremas Limites

Observação. Nos itens (i) e (ii) de 2.8, a soma pode ser substituída por diferença, produto
ou quociente.
D D
2.9. Teorema de Slutsky (1925): Se Xn −→ X e Yn −→ c, onde c é uma constante,
então
D
(a) Xn ± Yn −→ X ± c,
D
(b) Xn Yn −→ cX,
D
(c) Xn /Yn −→ X/c se c 6= 0.

n (Yn − µ) −→
D
2.10. Método Delta: Sejam Y1 , Y2 , . . . variáveis aleatórias tais que
N (0, σ 2 ), onde µ e σ 2 > 0 são constantes. Se g é uma função derivável no ponto µ, então

n (g(Yn ) − g(µ)) −→ N (0, (g ′ (µ))2 σ 2 ),
D

onde, no caso de g ′ (µ) = 0, interpretamos a distribuição N (0, 0) como a massa pontual


em 0.

3. Teoremas Limites

3.1. Lei Fraca dos Grandes Números de Khintchine (1929):


Seja X1 , X2 , . . . uma seqüência de variáveis aleatórias i.i.d. com média finita µ. As somas
parciais Sn = X1 + X2 + · · · + Xn satisfazem
Sn P
−→ µ.
n
3.2. Lei Fraca dos Grandes Números de Bernoulli (1713):
Consideremos uma seqüência de ensaios de Bernoulli independentes, tendo a mesma pro-
babilidade p de sucesso em cada ensaio. Se Sn é o número de sucessos nos n primeiros
ensaios, então
Sn P
−→ p.
n
3.3. Lei Fraca dos Grandes Números de Chebyshev (1867):
Seja X1 , X2 , . . . uma seqüência de variáveis aleatórias e consideremos Sn = X1 + X2 +
lim Var(Sn )/n2 = 0, então
· · · + Xn . Se n→∞

Sn − E(Sn ) P
−→ 0. (⋆)
n
Teoremas Limites 99

Em particular, (⋆) é válida se X1 , X2 , . . . são variáveis aleatórias não-correlacionadas que


tenham variâncias finitas e uniformemente limitadas.

3.4. Lei Forte dos Grandes Números de Kolmogorov (1933):


Seja X1 , X2 , . . . uma seqüência de variáveis aleatórias i.i.d. com média finita µ. As somas
parciais Sn = X1 + X2 + · · · + Xn satisfazem

Sn q.c.
−→ µ.
n

3.5. Lei Forte dos Grandes Números de Borel (1909):


Seja X1 , X2 , . . . uma seqüência de variáveis aleatórias i.i.d. tal que P (Xn = 1) = p,
P (Xn = 0) = 1 − p. Então,
Sn q.c.
−→ p,
n
onde Sn = X1 + X2 + · · · + Xn .

3.6. Teorema Central do Limite (Liapunov (1901), Lindeberg (1922)):


Seja X1 , X2 , . . . uma seqüência de variáveis aleatórias i.i.d. com média µ e variância σ 2
finita e positiva, e seja Sn = X1 + X2 + · · · + Xn . Então,

Sn − nµ D
√ −→ N (0, 1).
σ n

Isto é, para qualquer a ∈ R,


!
Sn − nµ 1 Z a −x2 /2
lim P √ ≤a = √ e dx.
n→∞ σ n 2π −∞

3.7. Teorema Central do Limite de De Moivre (1733) e Laplace (1812):


Seja Sn o número de sucessos em n ensaios de Bernoulli independentes, tendo a mesma
probabilidade p de sucesso em cada ensaio, onde 0 < p < 1. Então,

Sn − n p D
√ −→ N (0, 1).
n p (1 − p)

3.8. Limite de binomiais para Poisson:


Se Xn ∼ Binomial(n, pn ), n ≥ 1, e n→∞
lim n pn = λ > 0, então

D
Xn −→ Poisson(λ).
100 Modos de Convergência e Teoremas Limites

Observação. Tendo em vista o tópico 2.6 (a), no lugar da convergência em distribuição


podemos escrever
e−λ λk
lim P (Xn = k) = , ∀k ∈ N
n→∞ k!

(Teorema de Poisson (1832)).

4. Outros Teoremas Limites*

4.1. Uma Lei Forte sem supor distribuições idênticas (Kolmogorov (1933)):
Seja X1 , X2 , . . . uma seqüência de variáveis aleatórias independentes e integráveis, e con-
sideremos Sn = X1 + X2 + · · · + Xn .
P∞
Se n=1 Var(Xn )/n2 < ∞, então

Sn − E(Sn ) q.c.
−→ 0.
n

4.2. Um Teorema Central do Limite sem supor distribuições idênticas:


n
X
Seja X1 , X2 , . . . uma seqüência de variáveis aleatórias independentes, e seja Sn = Xi .
i=1
n
X n
X
Para cada i, sejam µi = E(Xi ) e σi2 = Var(Xi ), e denotemos por mn = µi e s2n = σi2
i=1 i=1
a média e a variância de Sn , respectivamente.

Suponhamos que: (a) s2n → ∞ quando n → ∞, e (b) existe uma constante M tal que
P (|Xi | ≤ M ) = 1 para todo i.

Então,
Sn − m n D
−→ N (0, 1).
sn

Isto é, para qualquer a ∈ R,


 
Sn − m n 1 Z a −x2 /2
lim P ≤a = √ e dx.
n→∞ sn 2π −∞

Observação. Esse resultado segue de um Teorema Central do Limite mais geral que foi
provado por J. W. Lindeberg (1922). Para mais detalhes, veja-se, por exemplo, o livro de
Feller [3] (p. 254).
Convergência de momentos 101

5. Convergência de momentos*

5.1. Teorema da convergência monótona: Sejam X1 , X2 , . . . variáveis aleatórias não-


negativas. Se Xn ↑ X quase certamente quando n → ∞, então

E(Xn ) ↑ E(X) quando n → ∞.

Observe que o limite pode ser infinito.

5.2. Lema de Fatou: Se X1 , X2 , . . . são variáveis aleatórias não-negativas, então


 
E lim inf Xn ≤ lim
n→∞
inf E(Xn ).
n→∞

5.3. Teorema da convergência dominada de Lebesgue: Suponha que |Xn | ≤ Y


q.c.
para todo n, onde Y é integrável, e que Xn −→ X. Então, X e Xn são integráveis e

lim E(Xn ) = E(X).


n→∞

q.c. D
Observação. Em 5.3, a hipótese de que Xn −→ X pode ser substituída por Xn −→ X.
No caso particular de Y ser uma constante, o resultado é conhecido como Teorema da
convergência limitada.

Exercícios

1∗. Uma moeda honesta é lançada repetidamente, sendo os lançamentos independentes.


Para n ≥ 1, considere os eventos

An : O n-ésimo lançamento resulta cara.


Bn : O n-ésimo e o (n + 1)-ésimo lançamentos ambos resultam cara.

Mostre que
(a) P (An infinitas vezes) = 1.
(b) P (Bn infinitas vezes) = 1.
Em palavras, o item (a) garante que com probabilidade 1 ocorrem infinitas caras e o
item (b) estabelece que o evento “duas caras em seguida” ocorre infinitas vezes, com
probabilidade 1.
Sugestão: (b) Para n ≥ 1, defina Cn o evento de que o (2n − 1)-ésimo e o (2n)-ésimo
lançamentos ambos resultam cara.
102 Modos de Convergência e Teoremas Limites

2∗. Uma moeda honesta é lançada repetidamente, sendo os lançamentos independentes.


Prove que qualquer seqüência finita de resultados ocorre infinitas vezes, com probabili-
dade 1.
3∗. Sejam X1 , X2 , . . . variáveis aleatórias independentes e identicamente distribuídas, com
distribuição Bernoulli(1/2). Para n ≥ 1, definimos Yn o comprimento da seqüência de 0’s
começando em Xn , isto é,

 0 se Xn = 1,
Yn =
 k se Xn = · · · = Xn+k−1 = 0 e Xn+k = 1.

(a) Mostre que P (Yn = k) = 1/2k+1 para todo k ≥ 0.


(b) Prove que P (Yn = k infinitas vezes) = 1 para todo k ≥ 0.
(c) Mostre que P (Yn = n infinitas vezes) = 0.

4∗. (Barndorff-Nielsen (1961)). Sejam A1 , A2 , . . . eventos em um espaço de probabilidade


P
tais que n→∞
lim P (An ) = 0 e ∞
n=1 P (An ∩ An+1 ) < ∞. Prove que P (An infinitas vezes) = 0.
c

5∗. Sejam A1 , A2 , . . . eventos em um espaço de probabilidade.


(a) Prove que P (An infinitas vezes) = 1 se para cada k
X
P (An | Ack ∩ · · · ∩ Acn−1 ) = ∞.
n>k

Deduza daí o item (b) do Lema de Borel-Cantelli.


(b) Mostre por meio de um exemplo que P (An infinitas vezes) = 1 não segue apenas
P
da divergência de n P (An | Ac1 ∩ · · · ∩ Acn−1 ).
P∞
(c) Demonstre que P (An infinitas vezes) = 1 se e somente se n=1 P (A ∩ An ) = ∞
para todo evento A com P (A) > 0.

6∗. Sejam X1 , X2 , . . . variáveis aleatórias independentes e identicamente distribuídas, com


distribuição exponencial de parâmetro λ. Os itens (a) e (c) deste exercício provam que,
com probabilidade 1,
Xn 1
lim sup = ,
n→∞ log n λ
o que fornece uma descrição bastante precisa dos valores grandes de Xn quando n → ∞.
(a) Mostre que !
Xn 1
P lim sup ≥ = 1.
n→∞ log n λ
(b) Prove que, para qualquer δ > 0,
!
Xn 1+δ
P lim sup ≤ = 1.
n→∞ log n λ
Exercícios 103

(c) Obtenha de (b) que !


Xn 1
P lim sup ≤ = 1.
n→∞ log n λ

Solução. (a) Para n ≥ 1, seja An = {Xn ≥ (log n)/λ}. Como A1 , A2 , . . . são inde-
P P∞
pendentes e ∞ n=1 P (An ) = n=1 1/n = ∞, temos, pelo Lema de Borel-Cantelli, que
P (An infinitas vezes) = 1. Então,
!
Xn 1
P lim sup ≥ = 1.
n→∞ log n λ
P
(b) Fixado δ > 0, seja Bn = {Xn > (1 + δ) (log n)/λ}, n ≥ 1. Visto que ∞n=1 P (Bn ) =
P∞
n=1 1/n < ∞, obtemos pelo Lema de Borel-Cantelli que P (Bn infinitas vezes) = 0.
1+δ

Daí, segue que !


Xn 1+δ
P lim sup ≤ = 1.
n→∞ log n λ
(c) Observamos que, quando k → ∞,
( ) ( )
Xn 1 + 1/k Xn 1
lim sup ≤ ↓ lim sup ≤ ,
n→∞ log n λ n→∞ log n λ

portanto, !
Xn 1
P lim sup ≤ = 1.
n→∞ log n λ

7∗. Sejam X1 , X2 , . . . variáveis aleatórias independentes e identicamente distribuídas, com


distribuição N (0, 1). Os itens (a) e (c) deste exercício mostram que, com probabilidade 1,

Xn
lim sup √ = 1,
n→∞ 2 log n

o que descreve acuradamente os valores grandes de Xn quando n → ∞.


(a) Prove que !
Xn
P lim sup √ ≥ 1 = 1.
n→∞ 2 log n
(b) Mostre que, para qualquer δ > 0,
!
Xn √
P lim sup √ ≤ 1 + δ = 1.
n→∞ 2 log n

(c) Conclua de (b) que !


Xn
P lim sup √ ≤ 1 = 1.
n→∞ 2 log n

Sugestão: Use a Razão de Mill (Exercício 11(b) do Capítulo 3).


104 Modos de Convergência e Teoremas Limites

8∗. Sejam X1 , X2 , . . . variáveis aleatórias independentes e identicamente distribuídas, com


P
distribuição N (0, 1), e considere Sn = ni=1 Xi . Mostre que
!
Sn
P lim sup √ ≤ 1 = 1.
n→∞ 2n log n

Sugestão: Observe que a independência das Xi ’s não é usada na obtenção do item (c) do
exercício 7.
Observação. Um resultado mais preciso é conhecido como Lei do Logaritmo Iterado, a
qual estabelece que, para X1 , X2 , . . . variáveis aleatórias independentes e identicamente
distribuídas com média 0 e variância 1,
!
Sn
P lim sup √ = 1 = 1.
n→∞ 2n log log n

Encontram-se mais detalhes na Seção 1 do Capítulo 8 de Gut [6].

9∗. Sejam X1 , X2 , . . . variáveis aleatórias positivas tais que E(Xn ) ≤ C para todo n ≥ 1,
onde C é uma constante. Mostre que, para qualquer δ > 0,
!
log Xn
P lim sup ≤δ =1
n→∞ n

e portanto !
log Xn
P lim sup ≤ 0 = 1.
n→∞ n

10. Seja {Xn }n≥1 uma seqüência de variáveis aleatórias tal que cada Xn assume valores
em {0, 1/n, . . . , (n − 1)/n, 1} com P (Xn = j/n) = 1/(n + 1) para j = 0, . . . , n. Mostre
D
que Xn −→ U (0, 1).
Solução. Seja X ∼ U (0, 1), logo

0 se x < 0,



FX (x) = x se 0 ≤ x < 1,



1 se x ≥ 1.

Para n ≥ 1,




0 se x < 0,
FXn (x) = k/(n + 1) se (k − 1)/n ≤ x < k/n, k = 1, . . . , n,



1 se x ≥ 1.

Para x < 0 ou x ≥ 1, temos que FXn (x) = FX (x), portanto

lim FXn (x) = FX (x). (∗)


n→∞
Exercícios 105

Se 0 ≤ x < 1, então FXn (x) = k/(n + 1) onde k ∈ {1, . . . , n} é tal que (k − 1)/n ≤ x <
k/n. Como FX (x) = x, temos
1 k k k k−1 1
− ≤ − ≤ FXn (x) − FX (x) ≤ − ≤
n+1 n+1 n n+1 n n+1
D
e então também vale (∗). Assim, Xn −→ X.

11. Seja {Xn }n≥1 uma seqüência de variáveis aleatórias, sendo a densidade de Xn dada
por
n xn−1
fXn (x) = , 0 < x < θ.
θn
D
Prove que Xn −→ θ.
D
12. Suponha que Xn ∼ N (0, 1/n), n ≥ 1. Prove que Xn −→ X ≡ 0.

13. Sejam X1 , X2 , . . . variáveis aleatórias i.i.d. com distribuição exponencial de parâme-


tro 1. Para n ≥ 1, definimos Yn = máx{X1 , . . . , Xn } − log n. Mostre que a seqüência
{Yn }n≥1 converge em distribuição, determinando a distribuição limite.

14. Sejam X1 , X2 , . . . variáveis aleatórias i.i.d. com distribuição uniforme em (0, 1), e seja
Nk ∼ Poisson(k) independente de X1 , X2 , . . . Considere

 0 se Nk = 0,
Yk =
 k mín{X1 , . . . , XNk } se Nk ≥ 1.
Prove que Yk converge em distribuição quando k → ∞, obtendo a distribuição limite.

15. Seja {Xn }n≥1 uma seqüência de variáveis aleatórias tal que Xn ∼ Binomial(n, 1/n2 ).
P
Demonstre que Xn − 1/n −→ 0.
Solução. Observamos que E(Xn ) = 1/n e Var(Xn ) = (1/n) (1 − 1/n2 ). Para qualquer
ε > 0, temos, pela desigualdade de Chebyshev,
!  
1 1 1 n→∞
P Xn − >ε ≤ 1− 2 −→ 0.
n n ε2 n
P
Assim, Xn − 1/n −→ 0.

16. Seja {Xn }n≥1 uma seqüência de variáveis aleatórias tais que
P (Xn = n) = 1 − P (Xn = 1/n) = 1/n2 .
P
Mostre que Xn −→ 0.

17. Seja {Xn }n≥1 uma seqüência de variáveis aleatórias i.i.d. com distribuição uniforme
em [0, 1]. Definimos
Yn = mín{X1 , . . . , Xn }, Zn = máx{X1 , . . . , Xn }, Un = n Yn e Vn = n (1 − Zn ), n ≥ 1.
Mostre que
106 Modos de Convergência e Teoremas Limites

P P
(a) Yn −→ 0 e Zn −→ 1.
D D
(b) Un −→ W e Vn −→ W , onde W ∼ Exp(1).

18. Seja X uma variável aleatória assumindo os valores 1 e −1 com probabilidade 1/2
e suponha que {Yn }n≥1 é uma seqüência de variáveis aleatórias independentes de X tais
que
1
P (Yn = 1) = 1 − P (Yn = 0) = 1 − .
n
Definimos a seqüência de variáveis aleatórias {Xn }n≥1 por

 X se Yn = 1,
Xn =
 en se Yn = 0.

Responda se as seguintes afirmações são verdadeiras ou falsas, justificando sua resposta.


P
(a) Xn −→ X.
(b) lim E(|Xn − X|) = 0.
n→∞

19. Seja {Xn }n≥1 uma seqüência de variáveis aleatórias com E(Xn2 ) < ∞ para todo n ≥ 1.
P
Prove que se lim E(Xn ) = α e lim Var(Xn ) = 0, então Xn −→ α.
n→∞ n→∞

20∗. Sejam X1 , X2 , . . . variáveis aleatórias independentes, com

P (Xn = 1) = pn e P (Xn = 0) = 1 − pn .

Prove que
P
(a) Xn −→ 0 se e somente se lim pn = 0.
n→∞
q.c. P∞
(b) Xn −→ 0 se e somente se n=1 pn < ∞.

Solução. Recordamos que, pela definição de convergência em probabilidade,


P n→∞
Xn −→ 0 ⇐⇒ P (|Xn | > ε) −→ 0 para todo ε > 0.

Além disso, o critério para convergência quase certa dado em 2.4 estabelece que

q.c.
Xn −→ 0 ⇐⇒ P (|Xn | > ε infinitas vezes) = 0 para todo ε > 0.

(a) Se n→∞
lim pn = 0, então para qualquer ε > 0,

n→∞
P (|Xn | > ε) ≤ P (Xn 6= 0) = pn −→ 0,
P P
e portanto Xn −→ 0. Reciprocamente, se Xn −→ 0, então
n→∞
pn = P (|Xn | > 1/2) −→ 0.
Exercícios 107

P∞
(b) Se n=1 pn < ∞, então para qualquer ε > 0,

X ∞
X
P (|Xn | > ε) ≤ pn < ∞.
n=1 n=1

Usando o Lema de Borel-Cantelli, concluímos que P (|Xn | > ε infinitas vezes) = 0 para
q.c.
todo ε > 0, logo Xn −→ 0.
P∞
Por outro lado, se n=1 pn = ∞, então

X ∞
X
P (|Xn | > 1/2) = pn = ∞.
n=1 n=1

Como os eventos {|Xn | > 1/2} são independentes (pois as Xn ’s o são), temos, pelo Lema
de Borel-Cantelli, que P (|Xn | > 1/2 infinitas vezes) = 1. Isso mostra que Xn não converge
para 0 quase certamente.

21∗. Sejam X2 , X3 , . . . variáveis aleatórias independentes e identicamente distribuídas,


com distribuição exponencial de parâmetro 1. Para n ≥ 2, considere
Xn
Yn = .
log n
P
(a) Mostre que Yn −→ 0.
(b) Prove que P (|Yn | > 1/2 infinitas vezes) = 1.
(c) Conclua do item (b) que Yn não converge para 0 quase certamente.

22∗. Seja {Xn }n≥1 uma seqüência de variáveis aleatórias tais que
1 1
P (Xn = n3 ) = , P (Xn = 0) = 1 − .
n2 n2
q.c.
Prove que Xn −→ 0, porém lim E(Xn ) 6= 0.
n→∞

23∗. Sejam X1 , X2 , . . . , X variáveis aleatórias em um mesmo espaço de probabilidade.


q.c.
Demonstre que Xn −→ X se

X
E(|Xn − X|r ) < ∞ para algum r > 0.
n=1

24∗. Suponha que Xn ∼ N (µn , σn2 ), n ≥ 1, e que µn → µ ∈ R e σn → σ > 0 quando


D
n → ∞. Prove que Xn −→ N (µ, σ 2 ).

25∗. Seja {Xn }n≥1 uma seqüência de variáveis aleatórias i.i.d. com distribuição N (0, σ 2 ).
Fixado um número real α, definimos a seqüência {Yn }n≥1 pela fórmula

Y1 = X1 , Yn = α Yn−1 + Xn , n ≥ 2.
108 Modos de Convergência e Teoremas Limites

Pn−1
(a) Mostre que Yn = i=0 αi Xn−i , n ≥ 1.
(b) Obtenha a função geradora de momentos de Yn e a sua distribuição.
(c) Calcule Cov(Ym , Yn ), 1 ≤ m ≤ n.
(d) Prove que se |α| < 1, então
!
D σ2
Yn −→ N 0, .
1 − α2

26∗. Suponha que Xn ∼ Geométrica(1/n), n ≥ 2, e seja Yn = Xn /n − 1. Prove que


D
Yn −→ Y onde Y ∼ Exp(1).

27∗. Sejam X1 , X2 , . . . variáveis aleatórias independentes e identicamente distribuídas,


P
com distribuição de Poisson de parâmetro λ. Considere Sn = ni=1 Xi . Usando o Teorema
da continuidade, demonstre que
Sn D
−→ λ.
n
ex − 1
Sugestão: Prove e use que lim = 1.
x→0 x
28. Seja {Xn }n≥1 uma seqüência de variáveis aleatórias tal que Xn tem função de distri-
buição
sen(2nπx)
Fn (x) = x − , 0 ≤ x ≤ 1.
2nπ
(a) Mostre que Xn tem densidade e então conclua que de fato Fn é uma função de
distribuição.
D
(b) Prove que Xn −→ X onde X ∼ U [0, 1], mas a densidade de Xn não converge para
a densidade de X no intervalo (0, 1).

29. (a) Prove os itens (i) e (ii) do tópico 2.8 (p. 97).
D D
(b) Forneça um exemplo no qual Xn −→ X, Yn −→ Y , porém a soma Xn + Yn não
converge em distribuição para X + Y .

30. Suponha que Zn ∼ N (0, 1) e Vn ∼ χ2n são variáveis aleatórias independentes. Mostre
que
Zn D
Tn = √ −→ N (0, 1).
Vn /n
Sugestão: Recorde-se de que a distribuição χ2n é idêntica à Gama(n/2, 1/2) e obtenha
E(Vn ) e Var(Vn ).

31. Uma moeda honesta é lançada infinitas vezes independentemente. Sejam X1 , X2 , . . .


as variáveis aleatórias definidas por

 1 se o i-ésimo e o (i + 1)-ésimo lançamentos resultam em cara,
Xi =
 0 caso contrário.
Exercícios 109

(a) Obtenha E(Xi ) e Var(Xi ).


(b) Mostre que 
 1/16 se j = i + 1,
Cov(Xi , Xj ) =
 0 se j > i + 1.
n
X
(c) Seja Sn = Xi , n ≥ 1. Determine E(Sn ) e Var(Sn ).
i=1
P
(d) Prove que Sn /n −→ 1/4.

32. Considere uma seqüência infinita de lançamentos independentes de uma moeda, com
probabilidade p de cara em cada lançamento (0 < p < 1). Uma seguida é uma seqüência
de lançamentos de mesmo resultado. Seja Rn o número de seguidas nos n primeiros
lançamentos. Demonstre que
Rn P
−→ 2 p (1 − p).
n
Sugestão: Vejam-se os exercícios 27 do Capítulo 4 e 19 do Capítulo 5.

33. Suponha que distribuímos r bolas distintas aleatoriamente em n urnas. Seja Nn o


número de urnas vazias após a distribuição. Prove que se r, n → ∞ de forma que r/n → c,
então
Nn P
−→ e−c .
n
Sugestão: Vejam-se os exercícios 29 do Capítulo 4 e 19 do Capítulo 5.

34. Sejam X1 , X2 , . . . variáveis aleatórias independentes e identicamente distribuídas,


com média comum µ e variância finita. Prove que
!−1
n X
Xi Xj −→ µ2 .
P

2 1≤i<j≤n

35. Seja {Xn }n≥1 uma seqüência de variáveis aleatórias i.i.d. com distribuição uniforme
em (0, 1). Definimos a média geométrica de X1 , . . . , Xn por
Y
n 1/n
Yn = Xi .
i=1

Mostre que a seqüência {Yn }n≥1 converge q.c. para uma constante e encontre o valor dessa
constante.
Solução. Seja Zi = log Xi , i ≥ 1. Então, Z1 , Z2 , . . . são variáveis aleatórias i.i.d. (já que
as Xi ’s o são), com
Z 1 Z 1 1
E(Z1 ) = log x dx = lim+ log x dx = lim+ (x log x − x) = −1.
0 ε→0 ε ε→0 ε
110 Modos de Convergência e Teoremas Limites

Pela Lei Forte dos Grandes Números de Kolmogorov,


Z1 + · · · + Zn q.c.
log Yn = −→ −1.
n
Portanto, como a função x 7→ ex é contínua,
q.c.
Yn −→ e−1 .

36. Integração numérica: Suponha que g é uma função contínua, não-negativa, defi-
nida em [0, 1], tal que supx g(x) ≤ 1. O seguinte procedimento visa a aproximar a integral
de g em [0, 1]. Escolhem-se n pontos uniformemente em [0, 1] × [0, 1], e se define Un como
o número de pontos que caem abaixo da curva y = g(x). Prove que
Un q.c. Z 1
−→ g(x) dx.
n 0

37. Uma vareta de comprimento 1 é quebrada de maneira aleatória, o que significa que a
parte restante tem distribuição uniforme em (0, 1). A parte restante é quebrada de modo
similar, e assim por diante.
(a) Seja Xn o comprimento da parte que sobra após a vareta ter sido quebrada n vezes.
Descreva Xn como um produto.
(b) Mostre que a seqüência {log(Xn )/n}n≥1 converge quase certamente, respondendo
qual é o limite.
(c) Obtenha uma aproximação para a probabilidade de que X36 ≤ e−24 .

38. Seja {Xn }n≥1 uma seqüência de variáveis aleatórias i.i.d. com distribuição uniforme
em [0, π]. Encontre constantes A e B tais que
" Pn # Pn
i=1 Xi q.c. i=1 sen Xi q.c.
sen −→ A e −→ B.
n n

39. Seja {Xn }n≥1 uma seqüência de variáveis aleatórias i.i.d. com distribuição N (0, 1).
Definimos a seqüência {Yn }n≥1 por
X12 + · · · + Xn2
Yn = .
(X1 − 1)2 + · · · + (Xn − 1)2
q.c.
Prove que Yn −→ 1/2.

40. Sejam X1 , . . . , Xn variáveis aleatórias independentes e identicamente distribuídas,


com média µ e variância σ 2 , 0 < σ 2 < ∞. Definimos
Pn
i=1 Xi
X̄n = = Média amostral e
n
Pn
i=1 (Xi − X̄n )2
Sn2 = = Variância amostral.
n−1
Exercícios 111

(a) Determine E(X̄n ) e Var(X̄n ).


(b) Mostre que
Pn 2
i=1 Xi2 − n (X̄n )
Sn2 = .
n−1

(c) Obtenha E(Sn2 ).


q.c.
(d) Prove que Sn2 −→ σ 2 .

41∗. Seja {Xn }n≥1 uma seqüência de variáveis aleatórias independentes tal que
1
P (Xn = nα ) = P (Xn = −nα ) =
2
Pn q.c.
para algum α ∈ (0,1/2). Mostre que n−1 i=1 Xi −→ 0.

42∗. Sejam X1 , X2 , . . . variáveis aleatórias independentes e identicamente distribuídas.


Mostre que as seguintes afirmações são equivalentes:
(i) E|X1 | < ∞;
P∞
(ii) n=1 P (|Xn | > n ε) < ∞ para todo ε > 0;
(iii) P (|Xn | > n ε infinitas vezes) = 0 para todo ε > 0;
q.c.
(iv) Xn /n −→ 0 quando n → ∞.

Sugestão: Use o critério para integrabilidade enunciado em 1.9 do Capítulo 4.

43∗. Recíproca para a Lei Forte de Kolmogorov: Sejam X1 , X2 , . . . variáveis alea-


P
tórias independentes e identicamente distribuídas, e considere Sn = ni=1 Xi .
q.c.
(a) Suponha que Sn /n −→ c, onde c é uma constante.
q.c.
(a1) Mostre que Xn /n −→ 0.
(a2) Conclua que E|X1 | < ∞ e c = E(X1 ).
(b) Suponha que E|X1 | = ∞.
(b1) Prove que P (|Xn | > n k infinitas vezes) = 1 para todo k = 1, 2, . . .
(b2) Mostre que !
|Xn |
P lim sup =∞ =1
n→∞ n
e portanto !
|Sn |
P lim sup = ∞ = 1.
n→∞ n

Sugestão: Veja o exercício 42 e use respectivamente em (a) e em (b) que


 
Xn Sn n − 1 Sn−1 |Xn | |Sn | |Sn−1 |
= − e ≤ + .
n n n n−1 n n n−1
112 Modos de Convergência e Teoremas Limites

44∗. Uma seqüência de variáveis aleatórias que satisfaz a Lei Fraca dos Grandes
Números, porém não a Lei Forte: Sejam X1 , X2 , . . . variáveis aleatórias independen-
tes tais que P (X1 = 0) = 1 e, para cada n ≥ 2,

1 1
P (Xn = n) = P (Xn = −n) = , P (Xn = 0) = 1 − .
2n log n n log n
Pn
Seja Sn = i=1 Xi .
P
(a) Usando a desigualdade de Chebyshev, prove que Sn /n −→ 0.
(b) Mostre que P (|Xn | > n/2 infinitas vezes) = 1.
(c) Conclua que Xn /n não converge para 0 quase certamente e portanto Sn /n não
converge para 0 quase certamente.

45∗. Sejam X1 , X2 , . . . variáveis aleatórias independentes tais que, para cada n ≥ 1,


pn
P (Xn = n) = P (Xn = −n) = , P (Xn = 0) = 1 − pn .
2
Pn
Seja Sn = i=1 Xi . Demonstre que

X Sn q.c.
pn < ∞ ⇐⇒ −→ 0.
n=1 n

46. Uma marca de chocolate faz uma promoção: alguns dos pacotes incluem vales que
podem ser trocados por uma camiseta. O número de pacotes premiados que se vendem
ao dia em uma loja é uma variável aleatória com distribuição de Poisson de parâmetro
0,3. Estime a probabilidade de que em 120 dias se vendam nessa loja mais de 30 pacotes
com prêmio.
Solução. Para 1 ≤ i ≤ 120, seja Xi o número de pacotes premiados vendidos na loja no
dia i. Sabemos que X1 , . . . , X120 têm distribuição de Poisson(0,3), logo

µ = E(X1 ) = 0,3 e σ 2 = Var(X1 ) = 0,3.


P120
Supomos que X1 , . . . , X120 são independentes, e seja S120 = i=1 Xi o total de pacotes
premiados vendidos na loja durante os 120 dias.
Pelo Teorema Central do Limite,
!
S120 − 120 . 0,3 30 − 120 . 0,3
P (S120 > 30) = P √ √ > √ √
0,3 . 120 0,3 . 120
≈ P (Z > −1) ≈ 0,8413,

onde Z ∼ N (0, 1).


Exercícios 113

47. O número médio de canetas que se vendem diariamente em uma papelaria é 30, sendo
a variância 10. Estes valores são 20 e 12 para o número de cadernos vendidos. Sabe-se,
ademais, que a covariância entre as vendas diárias de ambos produtos é 9. Estime a
probabilidade de que o número total de ambos produtos vendidos durante 90 dias esteja
compreendido entre 4400 e 4600.

48. Uma máquina empacota lotes de parafusos. O dono da máquina deseja que pelo menos
90% dos lotes tenham mais de 1000 parafusos sem defeito. Sabendo que a probabilidade
de que um parafuso seja defeituoso é 0,02, qual o menor número de parafusos que deve
colocar por lote?

49. Três emissoras de televisão têm uma árdua competição para obter altos níveis de
audiência. O número médio diário de prêmios milionários distribuídos por cada uma
dessas emissoras é de 5, 3 e 4, sendo 0,5, 0,4 e 0,3 os desvios padrões, respectivamente.
Estime a probabilidade de que o número total de prêmios milionários distribuídos em dois
meses seja superior a 730.

50. O salário em reais dos funcionários de uma empresa tem distribuição de Pareto, com
densidade
5 7005/2
f (x) = , x ≥ 700.
2 x7/2
Qual a probabilidade de que o salário médio de um grupo de 1000 funcionários seja maior
que 1200 reais?

51. Um dado honesto é lançado infinitas vezes independentemente. Seja Xi o resultado


do i-ésimo lançamento, e considere Sn = X1 + · · · + Xn . Obtenha
(a) n→∞
lim P (Sn > 3 n);
(b) n→∞
lim P (Sn > 3,5 n);
(c) um valor aproximado para P (S100 > 320).

52. Uma moeda honesta é lançada independentemente, até se obterem 450 caras. Estime
a probabilidade de que no máximo 960 lançamentos sejam feitos.
Sugestão: Seja N o número de lançamentos necessários para obter 450 caras. Há duas
abordagens:
(i) Escrever N como a soma de 450 variáveis aleatórias independentes com distribuição
geométrica de parâmetro 1/2.
(ii) Supor que a seqüência de lançamentos da moeda é infinita e usar que {N ≤ 960} =
P
i=1 Xi ≥ 450}, onde Xi é a função indicadora de que ocorre cara no i-ésimo
{ 960
lançamento.

53. Uma pessoa distribui jornais aos transeuntes na esquina de uma metrópole. Suponha
que cada pessoa que passa pelo entregador pega um exemplar do jornal com probabilidade
114 Modos de Convergência e Teoremas Limites

1/3, independentemente das demais. Seja N o número de pessoas que passam pelo entre-
gador até o tempo em que ele entrega suas primeiras 600 cópias. Estime a probabilidade
de que N seja maior que 1740.

54. Considere um experimento que consiste em lançamentos independentes e sucessivos


de um dado honesto. Se o resultado é 1, 2 ou 3, anotamos em uma folha de papel o
número 1, se a face do dado é igual a 4, anotamos o número 2, e se é igual a 5 ou 6,
anotamos o número 3. Seja N o número de lançamentos necessários para que o produto
dos números anotados ultrapasse 100000. Estime a probabilidade de que N ≥ 25.

55. Usando o Teorema Central do Limite para variáveis aleatórias com distribuição de
Poisson, mostre que
!
−n n n2 nn 1
lim e 1+ + + ··· + = .
n→∞ 1! 2! n! 2

56. Sejam X1 , X2 , . . . variáveis aleatórias independentes e identicamente distribuídas,


P
com distribuição Bernoulli(p), p ∈ (0, 1), e consideremos X̄n = Sn /n = ni=1 Xi /n. Prove
que
√ h i
n X̄n (1 − X̄n ) − p (1 − p) −→ N (0, p (1 − p) (1 − 2p)2 ).
D

Solução. Pelo Teorema Central do Limite de De Moivre e Laplace,


√  
n X̄n − p Sn − n p D
√ =√ −→ N (0, 1),
p (1 − p) n p (1 − p)
logo, pelo Teorema de Slutsky,
√  
D
n X̄n − p −→ N (0, p (1 − p)).

Tomando g(x) = x (1 − x), temos que g ′ (x) = 1 − 2x, portanto usando o Método Delta
concluímos que
√ h i
n X̄n (1 − X̄n ) − p (1 − p) −→ N (0, p (1 − p) (1 − 2p)2 ).
D

Se p = 1/2, interpretamos a distribuição N (0, 0) como a massa pontual em 0.

57. Seja Xn ∼ Gama(n, 1), n ≥ 1. Prove que


Xn − n D
√ −→ N (0, 1).
Xn

58. Sejam X1 , X2 , . . . variáveis aleatórias independentes e identicamente distribuídas,


com distribuição exponencial dupla de Laplace, ou seja, X1 tem densidade
1 −|x|
fX1 (x) = e , x ∈ R.
2
Exercícios 115

Mostre que Pn !
√ i=1 Xi D
n Pn 2
−→ N (0, 1/2).
i=1 Xi

59. Sejam X1 , X2 , . . . variáveis aleatórias independentes e identicamente distribuídas,


P
com distribuição uniforme em (−θ, θ), θ > 0. Para n ≥ 1, definimos Sn = ni=1 Xi e
Yn = máx{X1 , . . . , Xn }. Demonstre que
S
√ n −→ N (0, 1/3).
D

n Yn

60. Sejam {Xn }n≥1 uma seqüência de variáveis aleatórias i.i.d. e g : R → R uma função.
Suponha que E(g(X1 )) = ξ e Var(g(X1 )) = ν 2 , 0 < ν 2 < ∞. Além disso, suponha que Tn
é uma função Tn = Tn (X1 , . . . , Xn ) (uma estatística) que satisfaz
n
X
Tn = g(Xi ) + Rn ,
i=1
√ P
onde Rn / n −→ 0. Prove que
Tn − n ξ D
√ −→ N (0, 1).

61. Seja {Xn }n≥1 uma seqüência de variáveis aleatórias i.i.d. com distribuição uniforme
P
em [0, 2θ], onde θ > 0. Definimos X̄n = n−1 ni=1 Xi . Demonstre que
√  
D
n log X̄n − log θ −→ N (0, 1/3).

62. Seja {Xn }n≥1 uma seqüência de variáveis aleatórias i.i.d. com média µ e variância σ 2
P
finita e positiva. Definimos X̄n = n−1 ni=1 Xi .
(a) Mostre que
√  2 
n X̄n − µ2 −→ N (0, 4 µ2 σ 2 ).
D

(b) Prove que se µ > 0, então


√  
n log X̄n − log µ −→ N (0, σ 2 /µ2 ).
D

63∗. Seja {Xn }n≥1 uma seqüência de variáveis aleatórias independentes tal que
1 1
P (Xn = 1) = P (Xn = −1) = , P (Xn = 0) = 1 − , n ≥ 1.
2n n
Pn
Considere Sn = i=1 Xi e demonstre que
Sn q.c. Sn D
−→ 0 e √ −→ N (0, 1).
n log n
116 Modos de Convergência e Teoremas Limites

64∗. Sejam X1 , X2 , . . . variáveis aleatórias tais que X1 é integrável e Xn ↓ X quase


certamente quando n → ∞. Prove que

E(Xn ) ↓ E(X) quando n → ∞.

65∗. (Teorema de Beppo Levi). Suponha que X1 , X2 , . . . são variáveis aleatórias integrá-
veis tais que supn E(Xn ) < ∞. Mostre que se Xn ↑ X quase certamente quando n → ∞,
então X é integrável e
E(Xn ) ↑ E(X) quando n → ∞.

66∗. Sejam A1 , A2 , . . . eventos em um espaço de probabilidade.


(a) Usando o Lema de Fatou, demonstre que
 
P lim inf An ≤ lim inf P (An ).
n→∞ n→∞

(b) Usando o Teorema da convergência limitada, prove que se existe A = n→∞


lim An ,
então P (A) = lim P (An ).
n→∞

67∗. Mostre que se Y1 , Y2 , . . . são variáveis aleatórias não-negativas, então



! ∞
X X
E Yn = E(Yn ).
n=1 n=1

P
68∗. Suponha que Y1 , Y2 , . . . são variáveis aleatórias tais que | nk=1 Yk | ≤ X para todo n,
P P∞
onde X é integrável. Prove que se ∞ n=1 Yn converge quase certamente, então n=1 Yn e
as Yn ’s são integráveis, e !

X ∞
X
E Yn = E(Yn ).
n=1 n=1

P∞
69∗. Suponha que Y1 , Y2 , . . . são variáveis aleatórias tais que n=1 E|Yn | < ∞. Demonstre
P
que ∞ n=1 |Yn | converge quase certamente e é integrável, e


! ∞
X X
E Yn = E(Yn ).
n=1 n=1

70∗. Equação de Wald: Sejam X1 , X2 , . . . variáveis aleatórias, todas com a mesma


média µ. Seja N uma variável aleatória inteira e não-negativa tal que, para todo n,
o evento {N = n} é independente de Xn+1 , Xn+2 , . . . Suponha que é válida uma das
seguintes condições:
(i) Xn ≥ 0 para todo n ou
(ii) E(N ) < ∞ e supn E|Xn | < ∞.
Respostas 117

Mostre que
N
!
X
E Xn = µ E(N ).
n=1

Pn−1 PN P∞
Sugestão: Defina In = I{N ≥n} = 1 − i=0 I{N =i} e escreva n=1 Xn = n=1 Xn In .

Respostas


 (1 − e−y /n)n se y > − log n,
13. FYn (y) =
 0 caso contrário.
D
Yn −→ Y com FY (y) = exp{− exp{−y}}, y ∈ R.




0 se y < 0,

14. FYk (y) = 1 + e−k − e−y se 0 ≤ y < k,




1 se y ≥ k.
D
Yk −→ Y com Y ∼ Exp(1).

18. (a) Verdadeira (Para qualquer ε > 0, {|Xn − X| > ε} ⊂ {Yn = 0}).
(b) Falsa ( lim E(|Xn − X|) = lim en /n = ∞).
n→∞ n→∞

24. Use o Teorema da continuidade.


 Pn−1  Pm−1
25. (a) Prove por indução em n. (b) N 0, σ 2 i=0 α2i (c) σ 2 αn−m i=0 α2i
(d) Use o Teorema da continuidade.

26. Use o Teorema da continuidade.


30. Use o Teorema de Slutsky.

31. (a) 1/4, 3/16 (c) n/4, (5n − 2)/16 (d) Use a Desigualdade de Chebyshev.

37. (b) −1 (c) 0,977

38. A = 1 e B = 2/π

39. Use duas vezes a Lei Forte dos Grandes Números.

40. (a) E(X̄n ) = µ e Var(X̄n ) = σ 2 /n (c) E(Sn2 ) = σ 2


(d) Use duas vezes a Lei Forte dos Grandes Números.

41. Use a Lei Forte dos Grandes Números enunciada em 4.1.


47. 0,904
118 Modos de Convergência e Teoremas Limites

48. 1027
49. 0,0339

50. 0,1562

51. (a) 1 (b) 1/2 (c) 0,96

52. 0,97

53. 0,84

54. 0,494

60. Utilize o Teorema Central do Limite para a seqüência {g(Xi )}i≥1 e o Teorema de
Slutsky.

61. Método Delta.


62. Método Delta.
Pn
63. Use os tópicos 4.1, 4.2, o Teorema de Slutsky e o fato de que i=1 1/i ∼ log n quando
n → ∞.
Apêndice

Conjuntos

Denotamos por N = {0, 1, 2, . . . } o conjunto dos números naturais, Z = {. . . , −1, 0, 1, . . . }


o conjunto dos números inteiros, R o conjunto dos números reais e C o conjunto dos
números complexos.

Um conjunto A é finito se existe uma correspondência biunívoca entre A e o conjunto


{1, . . . , n} para algum n ≥ 1. (O conjunto vazio também é finito).
Um conjunto A é infinito enumerável se existe uma correspondência biunívoca entre A
e N.
Um conjunto A é infinito não-enumerável se não é finito nem enumerável.
A cardinalidade de um conjunto A, denotada por |A|, é o número de elementos de A.

Seqüências

Para uma seqüência {xn }n≥1 de números reais, escrevemos xn → x quando n→∞
lim xn = x;
xn ↑ x significa que x1 ≤ x2 ≤ · · · e xn → x; xn ↓ x significa que x1 ≥ x2 ≥ · · · e xn → x.

Seja {xn }n≥1 uma seqüência de números reais. O limite inferior e o limite superior dessa
seqüência são definidos respectivamente por

ℓ = lim inf xn = sup inf xk = lim inf xk e


¯ n→∞ n≥1 k≥n n→∞ k≥n

ℓ̄ = lim sup xn = inf sup xk = lim sup xk .


n→∞ n≥1 k≥n n→∞ k≥n

Pode-se mostrar que ℓ ≤ ℓ̄ são respectivamente o ínfimo e o supremo do conjunto dos


¯
pontos limites da seqüência. Observamos que ℓ̄ = ∞ se e somente se dados M ∈ R e
n ≥ 1, existe k ≥ n tal que xk > M . A seqüência tem limite ℓ ∈ R ∪ {−∞, ∞} quando
n → ∞ se e somente se ℓ = ℓ = ℓ̄.
¯
Cumpre ainda notar que, para uma seqüência A1 , A2 , . . . de eventos,

Ilim inf n An = lim inf IAn e Ilim supn An = lim sup IAn .
n→∞ n→∞
120 Apêndice

Séries
P∞
Dada uma seqüência {an }n≥1 de números reais, dizemos que a série n=1 an converge se
Pn
a seqüência das somas parciais sn = k=1 ak , n ≥ 1, tem limite finito quando n → ∞.
Caso contrário, a série diverge.
Se os termos são não-negativos (an ≥ 0 para todo n), é claro que as somas parciais formam
uma seqüência não-decrescente, e então a série converge se e somente se a seqüência das
P∞
somas parciais é limitada. Escrevemos n=1 an < ∞ ou = ∞ conforme a série convirja
ou não.

Algumas séries importantes:




X
n
 (1 − x)−1 se 0 ≤ x < 1,
x =
n=0 ∞ se x ≥ 1.

X xn
= ex para todo x ∈ R.
n=0 n!


X 1  < ∞ se p > 1,
p 
n=1 n = ∞ se p ≤ 1.


X 1 < ∞ se p > 1,

n=2 n (log n)
p 
= ∞ se p ≤ 1.

P P
Um critério bastante útil estabelece que as séries de termos positivos n an e n bn são
convergentes ou divergentes simultaneamente se o limite lim an /bn é um número diferente
n→∞

de zero.
P∞
Dada uma seqüência {an }n≥0 de números reais, a série n=0 an xn é chamada uma série
de potências. Definimos
1
R= q ,
lim sup n
|an |
n→∞
P∞
com 1/0 ≡ ∞ e 1/∞ ≡ 0. Então, n=0 an xn converge se |x| < R e diverge se |x| > R.
Denomina-se R o raio de convergência da série de potências.
P∞
Teorema de Abel: Se an ≥ 0 para todo n e n=0 an xn converge para x ∈ (−1, 1), então

! ∞
X X
lim an xn = an ,
x↑1
n=0 n=0

seja essa soma finita ou não.


121

Teorema: Uma série de potências pode ser derivada ou integrada termo a termo qualquer
número de vezes dentro do intervalo de convergência.

Funções

Uma função f : X → R (onde X ⊂ R) é chamada crescente se, quaisquer que sejam x, y ∈


X, x < y implica f (x) < f (y). Se x < y (com x, y ∈ X) implica apenas f (x) ≤ f (y), f é
não-decrescente. De modo análogo, define-se função decrescente e função não-crescente.
Uma função é denominada estritamente monótona se é crescente ou decrescente.

Um conjunto A ⊂ R é convexo se, sempre que contém os pontos x e y, também contém


λ x + (1 − λ) y para 0 ≤ λ ≤ 1. Uma função ϕ : A → R é convexa se para quaisquer
x, y ∈ A e 0 ≤ λ ≤ 1,

ϕ(λ x + (1 − λ) y) ≤ λ ϕ(x) + (1 − λ) ϕ(y).

Em palavras, ϕ é convexa se cada ponto na corda entre (x, ϕ(x)) e (y, ϕ(y)) está acima
do gráfico de ϕ. Para uma função ϕ : (a, b) → R duas vezes diferenciável, ϕ′′ (x) ≥ 0 para
todo x ∈ (a, b) é uma condição necessária e suficiente para convexidade.

Convergência uniforme no Teorema Central do Limite

Seja X1 , X2 , . . . uma seqüência de variáveis aleatórias i.i.d. com média µ e variância σ 2


finita e positiva. Em aplicações do Teorema Central do Limite, usa-se freqüentemente
Pn
que, para n grande, Sn = i=1 Xi tem aproximadamente distribuição normal com média
D
n µ e variância n σ 2 . Essa afirmação é justificada pelo seguinte resultado: Se Zn −→ Z e
FZ é contínua em R, então FZn converge para FZ uniformemente em R.
Distribuição Normal Padrão
1 Z z −x2 /2
Função tabelada: Φ(z) = √ e dx para z ≥ 0.
2π −∞

Segunda decimal de z
0 1 2 3 4 5 6 7 8 9
0,0 0,5 0,504 0,508 0,512 0,516 0,5199 0,5239 0,5279 0,5319 0,5359 0,0
0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753 0,1
0,2 0,5793 0,5832 0,5871 0,591 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141 0,2
0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,648 0,6517 0,3
0,4 0,6554 0,6591 0,6628 0,6664 0,67 0,6736 0,6772 0,6808 0,6844 0,6879 0,4
0,5 0,6915 0,695 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,719 0,7224 0,5
0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549 0,6
0,7 0,758 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852 0,7
0,8 0,7881 0,791 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133 0,8
0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,834 0,8365 0,8389 0,9
1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621 1,0
1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,877 0,879 0,881 0,883 1,1
1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,898 0,8997 0,9015 1,2
1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177 1,3
Parte inteira e primeira decimal de z

1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319 1,4
1,5 0,9332 0,9345 0,9357 0,937 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441 1,5
1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545 1,6
1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633 1,7
1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706 1,8
1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,975 0,9756 0,9761 0,9767 1,9
2,0 0,9772 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817 2,0
2,1 0,9821 0,9826 0,983 0,9834 0,9838 0,9842 0,9846 0,985 0,9854 0,9857 2,1
2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,989 2,2
2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916 2,3
2,4 0,9918 0,992 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936 2,4
2,5 0,9938 0,994 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952 2,5
2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,996 0,9961 0,9962 0,9963 0,9964 2,6
2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,997 0,9971 0,9972 0,9973 0,9974 2,7
2,8 0,9974 0,9975 0,9976 0,9977 0,9977 0,9978 0,9979 0,9979 0,998 0,9981 2,8
2,9 0,9981 0,9982 0,9982 0,9983 0,9984 0,9984 0,9985 0,9985 0,9986 0,9986 2,9
3,0 0,9987 0,9987 0,9987 0,9988 0,9988 0,9989 0,9989 0,9989 0,999 0,999 3,0
3,1 0,999 0,9991 0,9991 0,9991 0,9992 0,9992 0,9992 0,9992 0,9993 0,9993 3,1
3,2 0,9993 0,9993 0,9994 0,9994 0,9994 0,9994 0,9994 0,9995 0,9995 0,9995 3,2
3,3 0,9995 0,9995 0,9995 0,9996 0,9996 0,9996 0,9996 0,9996 0,9996 0,9997 3,3
3,4 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9997 0,9998 3,4
3,5 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 0,9998 3,5
3,6 0,9998 0,9998 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 3,6
3,7 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 3,7
3,8 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 0,9999 3,8
3,9 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 3,9
Referências Bibliográficas

[1] BACHX, A. C.; POPPE, L. M. B.; TAVARES, R. N. O. Prelúdio à análise combi-


natória. São Paulo: Companhia Editora Nacional, 1975.

[2] DANTAS, C. A. B. Probabilidade: um curso introdutório. 2. ed. São Paulo: Editora


da Universidade de São Paulo, 2004. (Coleção Acadêmica).

[3] FELLER, W. An introduction to probability theory and its applications, Volume I.


3rd. ed. New York: John Wiley & Sons, 1968.

[4] FERNÁNDEZ-ABASCAL, H.; GUIJARRO, M.; ROJO, J. L.; SANZ, J. A. Ejercicios


de cálculo de probabilidades. Resueltos y comentados. Barcelona: Editorial Ariel,
1995.

[5] GRIMMETT, G. R.; STIRZAKER, D. R. Probability and random processes. 3rd. ed.
New York: Oxford University Press, 2001.

[6] GUT, A. Probability: a graduate course. New York: Springer, 2005.

[7] HOEL, P. G.; PORT, S. C.; STONE, C. J. Introduction to probability theory. Boston:
Houghton Mifflin, 1971.

[8] JAMES, B. R. Probabilidade: um curso em nível intermediário. 3. ed. Rio de Janeiro:


Instituto Nacional de Matemática Pura e Aplicada, 2004. (Projeto Euclides).

[9] LIMA, E. L. Curso de análise, Volume 1. 12. ed. Rio de Janeiro: Instituto Nacional
de Matemática Pura e Aplicada, 2004. (Projeto Euclides).

[10] MORGADO, A. C. O.; CARVALHO, J. B. P.; CARVALHO, P. C. P.; FERNAN-


DEZ, P. Análise combinatória e probabilidade. 9. ed. Rio de Janeiro: Sociedade Bra-
sileira de Matemática, 2006. (Coleção do Professor de Matemática).

[11] ROSS, S. M. A first course in probability. 8th. ed. Upper Saddle River, N. J.: Prentice
Hall, 2008.

[12] SANTOS, J. P. O.; MELLO, M. P.; MURARI, I. T. C. Introdução à análise combi-


natória. Rio de Janeiro: Editora Ciência Moderna, 2008.
! " # $ $% &' (
) * ) $ + ,- $
( . / "
0 " ) '
( / ) 1
' )
( (
+ ,- $'

Você também pode gostar