Apontamentos Métodos Estatísticos

Fazer download em pdf ou txt
Fazer download em pdf ou txt
Você está na página 1de 49

FCUP

Apontamentos
de métodos
estatísticos
2017/2018

Giovanna Calvão
Capítulo 1 – Introdução à estatística
A estatística desenvolve métodos de obtenção, análise e interpretação de
dados experimentais ou observacionais, dependendo da natureza do estudo, para
deles extrair conclusões. É particularmente útil em situações de elevada incerteza,
sendo que os métodos desenvolvidos pela estatística auxiliam a tomada de decisões
na presença das incertezas e, ao mesmo tempo, quantifica o grau de confiança que
se pode atribuir à conclusão que esteve na origem da decisão tomada.

Raciocínio indutivo
Conclusão do particular para o geral, o que pode significar que conclusões
obtidas em estudos de natureza estatística, pela aplicação de um raciocínio indutivo,
não sejam garantidamente corretas (ex: ‘Todos os alunos que estão nesta aula
entraram na FCUP antes das 9h → conclusão: todos os alunos da fcup entraram na
mesma antes das 9h);

É importante que as conclusões estejam devidamente contextualizadas.

As origens da incerteza podem ser variadas:

→ desde informação insuficiente;


→ erros (não sistemáticos) na obtenção de dados;
→ variebilidade intra-individual (comparações feitas entre valores obtidos
na mesma pessoa – ex: febre medida sempre de manhã durante x dias) e
variebilidade inter-individual (que diz respeito a mais que um indivídio – ex: a febre
pode ser considerada uma variebilidade inter e intra-individual);
→ variebilidade intrínseca à própria situação;
→ informação incompleta devido a vários fatores.

Para se tentar corrigir essa incerteza pode-se aumentar o nº de dados,


melhorar as técnicas de medida e estabelecer protocolos rigorosos para a obtenção
de dados. A incerteza que decorre da complexidade da situação poderá reduzir-se
melhorando a forma de obtenção de dados, por exemplo, efetuar, se possível, um
estudo experimental em vez de um estudo observacional.

1
Estudos experimentais

Neste tipo de estudo temos certas caracterísiticas:

 o grupo de tratamento e o grupo de controlo, com a atribuição


aleatória – randomized controlled experiment;
 Administração de um placebo dado ao grupo de controlo;
 Ensaio duplamente-cego (‘double-blind’), o que significa que nem os
indivíduos que conduzem o estudo nem os que são alvo do mesmo
sabem a qual grupo pertencem.
Estas condições visam garantir que hajam características semelhantes
em ambos os grupos, para que assim as diferenças que sejam porventura
observadas não sejam devido às diferentes caracterísiticas entre os grupos e sim ao
alvo do estudo. Porém, nunca é possível garantir que o grupo de controlo seja
idêntico ao grupo de tratamento.

Parece contraditório o parágrafo acima já que nunca podemos garantir a


igualdade entre os grupos, contudo, fazendo uma atribuição aleatória das
unidades experimentais a ambos os grupos podemos garantir que:

→ são eliminados fatores subjetivos que poderiam levar a diferentes


características entre ambos os grupos – imparcialidade na atribuição das unidades
experimentais aos grupos;

→ reduzida possibilidade de haverem características que fossem diferentes


entre os grupos;

→ que os grupos tenham, em média, caracaterísticas semelhantes;

→ desenvolvimento de métodos quantificativos das diferenças (inevitáveis)


entre ambos os grupos;

Exemplos de estudos experimentais:

1 – Vacina Salk contra polio: qual a eficácia da vacina?

2 – Estudo experimental sobre o efeito da amoxilina vs efeito placebo em crianças


com menos de 2 anos para tratamento de otites agudas: depois de terem o
consentimento, as crianças foram atribuídas aleatoriamente, sendo que ninguém no
estudo sabia que crianças pertenciam a quais grupos; os autores tiveram o cuidado
de verificar se os grupos que foram obtidos eram semelhantes entre si no que diz
respeito a fatores que pudessem vir a influenciar os resultados do ensaio.

2
Blocking
Arranjo de unidades experimentais em grupos (‘blocks’) que possuam
semelhanças entre si, ou seja, o mais homogéneo quanto possível, tendo em conta
fatores que possam ser relevantes para o estudo;

↳ o emparelhamento é caso particular de blocking, onde a comparação é feita


em pares de unidades experimentais com características semelhantes entre
si.
Blocking and randomization: block what you can and randomize what
you cannot. Blocking para garantirmos comparações justas em fatores
que sejam importantes e randomizing para tentarmos obter
comparabilidade em fatores desconhecidos.

Reatividade
Fenómeno que acontece quando os indivíduos alteram o seu
comportamento devido ao conhecimento de estarem a ser observados,
podendo ser uma alteração negativa e positiva e depende da situação, sendo uma
ameça significativa para a validade do estudo e é tipicamente controlada através do
‘double blind’ experiment – efeito Hawthorne é uma forma de reativade que ocorre
quando os participantes sabem que estão a ser estudados e alteram o seu
comportamento como resposta à atenção que recebem dos ‘investigadores’.

Blinding
Método onde se previne que todas as pessoas envolvidas no tratamento
saibam quais os indivíduos que receberam qual tratamento.

Resumo das características de estudos experimentais:

→ método de comparação, querem saber o efeito do tratamento (ex: vacina Salk)


numa resposta (ex: ter polio); para chegar a uma conclusão, comparam as respostas
do grupo de controlo com o grupo experimental (usualmente é difícil julgar o efeito
do tratamento sem ser comparado a algo);

→ se as características entre os indivíduos que fazem parte de ambos os grupos


forem semelhantes, tirando o tratamento, então a diferença nas respostas deverá
ser efeito do tratamento;

→ se isso não acontecer e o grupo do experimental for diferente do grupo de


controlo quanto a outros fatores, os efeitos dessas diferenças podem ser
confundidos com os efeitos do tratamento;

3
→ para se ter a certeza que o grupo de controlo é parecido ao experimental, os
investigadores colocam os indivíduos aleatoriamente nos grupos – randomized
controlled experiments;

→ sempre que possível, o grupo de controlo recebo o placebo que é neutro mas
parecido com o do tratamento, a resposta deverá ser para o tratamento em si e não
para a ideia do tratamento;

→ Num estudo ‘double-blind’ nenhum dos participantes nem os investigadores


sabem quem está em que grupo.

Estudos observacionais

Neste caso, são os sujeitos em indivíduos que atribuem os diferentes grupos


a si próprios, os investigadores limitam-se a olhar para ver o que acontece sem
intervirem; seria incorreto pedirmos a alguém a fumar durante x anos para fins
estatísticos.

O termo ‘controlo’ tem dois sentidos: ‘controlo’ referido a um indivíduo que


pertence ao grupo controlo e que não se sujeita ao tratamento e ‘controlo’ referido
a experiência controlada, significando um estudo no qual os investigadores
decidem quem estará e quem não estará no grupo de tratamento.

Associação não é o mesmo que causalidade

Exemplos de estudos observacionais:

1 – Avaliação do tabaco na saúde: os investigadores comparam fumadores (grupo


de tratamento) com não fumadores (grupo de controlo) para concluir sobre o efeito
do tabaco (claro que quem fica a perder neste caso são os fumadores)

2 – Avaliação do efeito da hipertensão em transtornos cognitivos como, por


exemplo, perturbações de memória e períodos de confusão;

Variáveis de confundimento
Variáveis relacionadas com a variável dependente e/ou uma ou mais das
variáveis independentes e que não são incluídas no modelo de análise de dados –
quando não consideradas podem levar a conclusões erradas.

↳ podemos controlar estas variáveis de confundimento através de uma


reflexão aprofundada sobre a situação e identificando possíveis variáveis e
também com um planeamento cuidado do estudo e avaliação da eventual
influência das mesmas.

4
↳ exemplo: um estudo que foi feito sobre o amamentamento concluiu que
amamentar levava a um maior risco de morte, conclusão totalmente errada pois não
tiveram em conta as variáveis de confundimento como o acesso a água potável que
dependia de país para país.

Nunca tentar analisar dados sem antes se perceber o que está a ser medido
e porquê. Search the literature, ask questions.

Correlação
Relação matemática entre duas coisas que estão a ser medidas, variando
entre 0 e 1; por exemplo, se medirmos alturas e pesos de um grupo de pessoas há
uma correlação de quase 0,8 – podemos prever com uma grande certeza um se
soubermos o outro;

Causalidade
Em estudos observacionais é difícil estabelecer-se uma relação real e
convincente de causa-efeito pois existem variadas variáveis de confundimento
que se não forem detetadas podem levar a falsas conclusões; é uma relação entre
duas coisas não matematicamente mas sim fisicamente ou filosificamente,
envolvendo tempo (uma x coisa acontece e pouco depois disso acontece y como
resultado dessa);

Estratificação
Nos estudos observacionais, tais como nos experimentais, deve-se procurar
que os grupos de controlo e de tratamento/experimental tenham característivcas
semelhantes no que diz respeito a fatores que se suspeita terem uma influência nos
resultados.

Resumo das características de estudos observacionais:

→ neste tipo de estudo, os investigadores não atribuem indivíduos a grupos, assim,


os indivíduos que possuam condições cujos efeitos estejam a ser estudados – grupo
de tratamento, os outros formam o grupo de controlo;

→ podem estabelecer associação, o que não significa necessariamente uma


causalidade;

→ neste tipo de estudo, os efeitos do tratamento podem facilmente ser confundidos


com fatores que determinaram a participação dos mesmos no estudo, o que signifia
que estes estudos podem ser enganadores em relações de causa-efeito;

→ apesar das suas limitações, em muitas situações não há alternativa; o avanço do


conhecimento não pode prescindir deles;

5
Constatação experimental vs. Interpretação: os autores devem deixar
claro qual a diferença entre ambos nos seus estudos, sendo que a constatação
experimental é uma informação objetiva que pode ser útil para o leitor e a
interpretação é subjetiva, dependendo de pessoa para pessoa, algo que o leitor
poderá ou não concordar. Este princípio de separação clara do ‘objetivo’ e do
‘subjetivo’ conduz a regras muito estritas no que diz respeito à forma como devem
ser apresentados os trabalhos de índolo científica/técnica, nomeadamente a
separação entre a secção de resultados e da secção de discussão.

A probabilidade como instrumento de apoio à decisão

Podemos usar as probabilidades como auxílio da nossa decisão quanto a


certo estudo através da quantificação do grau de confiança que se pode atribuir à
conclusão que se extrai num estudo estatístico.

Hipótese do trabalho: quando se assume que x objeto não está viciado;

Regra dos acontecimentos raros: se a hipótese de trabalho leva a prever


que x acontecimento é raro e ele acontecer, então, muito possivelmente a hipótese
de trabalho considerada não está correta.

Exemplo 1: jogo de dados entre Calvin e Hobbes – o Hobbes admite que os


dois dados que o Calvin tem não são viciados (hipótese do trabalho), o Calvin lança
os dois dados oito vezes seguidos e obtém um duplo seis todas as vezes, se os dados
não são viciados a probabilidade de sairem seguidos em oito lançamentos é muito
pequena, logo, Hobbes pode concluir que, muito possivelmente, os dados de Calvin
estão viciados.

E se saíssem em 20 lançamentos novamente todos duplos 6? Apesar de


continuar a não ser possível ter a certeza que os dados estão viciados, a
convicção do Hobbes de que estão viciados, seria agora bem maior. Essa maior
convicção resulta duma aplicação (intuitiva) do conceito de Probabilidade.

Exemplo 2: admite-se que num processo de fabrico a percentagem de


componentes defeituosas produzidas é de 1% (hipótese de trabalho) – feita a
inspeção de um lote de 20 componentes, verificou-se que 6 são defeituosas, porém,
a probabilidade de isso acontecer é muito pequena se aceitarmos a hipótese de
trabalho dada. Assim, perante esta observação, conclui-se que muito possivelmente
a proporção de componentes produzidas com defeito é superior a 1%.

Nos exemplos anteriores a conclusão que é tirada não decorre do resultado


de um cálculo de uma probabilidade mas sim da avaliação que é feita do resultado
obtido para essa probabilidade – daí a designação de ‘instrumento de apoio à
decisão’.

6
Conclusões de um estudo estatístico:

→ a estatística desenvolve métodos que nos auxiliam na tomada de decisões,


quantificando ao mesmo tempo o grau de confiança;
→ poderá não haver uma conclusão que seja universalmente correta (‘depende’ é a
resposta correta!);
→ conclusão dependerá sempre de uma avaliação contextualizada dos resultados –
será sempre subjetiva.

7
Capítulo 2 – População, amostragem e variáveis estatísticas
Em traços gerais, o objetivo de um estudo
de natureza estatística é conseguir obter
informação global (isto é, informação não
individual) sobre as características dos elementos
de um conjunto (população), a partir da
observação individual dos elementos de um
subconjunto da população (amostra).

População
Conjunto de elementos (indivíduos, animais, objetos, empresas, ocorrências,
etc.) cujos atributos se pretendem conhecer; os elementos da população são
designados por “unidades estatísticas”;

↳ Definição alternativa mas mais adequada: conjunto dos resultados que


se poderiam obter por observação ou por medição de uma ou mais variáveis (peso,
a cor, a extensão da área ardida...), essas variáveis são as que foram escolhidas para
caraterizar o conjunto das unidades estatísticas que são objeto de estudo – assim,
os elementos que constituem a população já não são “entidades físicas” mas
sim valores obtidos por medição das características dessas “entidades físicas”;

↳ População alvo: conjunto completo de indivíduos e afins sobre os quais


pretendemos obter informação;

↳ População em estudo: conjunto completo de unidades que podem


eventualmente ser incluídas no estudo, idealmente a mesma que a população alvo,
porém muitas vezes distinta.

Quando a população alvo e a população em estudo são diferentes, os


resultados obtidos através de um estudo estatístico não são fiáveis, podendo
mesmo estar completamente errados. Um exemplo disso foi um inquérito realizado
nas eleições presidenciais dos EUA em que a população alvo era o conjunto de
eleitores e a população em estudo era o conjunto de eleitores com telefone e,
em 1936 estas duas populações tinham características sociológicas muito
diferentes.

8
Obs: a unidade de medida deve ser sempre indicada, a omissão ou confusão nas
unidades de medida pode ter graves consequências.

No que diz respeito ao nº de elementos, uma população pode ser:

(1) Finita: se tiver um nº finito de elementos, N;

(2) Não finita/Infinita: se tem um nº não finito de elementos.

Poderá ser estranho referirmo-nos a populações não finitas de elemento à


primeira, contudo trata-se de uma generalização muito útil, quer do ponto de vista
prático como do ponto de vista teórico (por exemplo: população ‘conjunto dos
valores da concentração de ozono na cidade do Porto às 12 horas da manhã num
dterminado dia’, a população não é finita).

Amostra
É uma parte (subconjunto) da população que é objeto de estudo detalhado;
Na grande maioria das situações a população tem um grande nº de elementos,
não sendo possível a observação deles todos, em particular por impossibilidade
técnica, por insuficiência de recursos ou quando a observação/medida implica a
destruição da unidade experimental.

O objetivo de um estudo estatístico é a caracterização da população através


do estudo detalhado de uma amostra retirada dessa população, logo, a amostra
deve ser representativa da população; no entanto pode induzir em erro e não
deve ser interpretada no sentido literal (se assim fosse, a amostra deveria ser uma
espécie de réplica da população, em ponto pequeno). Assim, (1) a
representatividade da amostra não pode ser assegurada, nem tão pouco garantir
que se venha a verificar – por mais cuidados que se tenham, é praticamente
certo que a amostra não é representativa (no sentido literal) da população de
onde foi retirada.

Exemplo: considerando uma população no sentido físico constituída por


indivíduos, pretende-se obter informação sobre a percentagem de indivíduos do
sexo masculino e feminino na mesma, a partir da observação de uma amostra. No
sentido literal, a amostra seria representativa SE tivesse a mesma proporção de
indivíduos do sexo feminino e masculino e, para se conseguir isso, teríamos que
saber de antemão as percentagens, logo, não é possível obter uma amostra que seja
representativa (no sentido literal) dessa população.

(2) Falar em representatividade da amostra pode induzir em erro.


Representatividade das amostras (no plural) é bem mais correto, ou melhor ainda:
representatividade global (no sentido médio) das amostras que se podem
obter utilizando um determinada método de amostragem. Com esta
interpretação, a “representatividade” ou a falta da mesma caracteriza a qualidade

9
do método que é utilizado na obtenção da amostra. Não caracteriza a qualidade
de uma amostra em particular, obtida por aplicação desse método.

Exemplo: A média dos 4 valores


numéricos que constituem a população é
278,25. Algumas das amostras tem uma
média superior a 278,25; as outras tem uma
média inferior. Nenhuma das amostras é
representativa da população. Contudo, a
média calculada com os valores das seis
médias das amostras é igual a 278,25.
Isto é, se o método de amostragens
assegurar que as seis amostras são
igualmente possíveis, fica assegurada a
“representatividade global” (em média)
das amostras que podem ser obtidas por
aplicação desse método de amostragem.

→ Conclusões sobre a representatividade da amostra:

1. Não sendo possível garantir a “representatividade” de uma amostra em


particular, pode-se garantir a representatividade global” das amostras
obtidas, desde que seja excluída qualquer componente subjetiva na escolha
dos elementos que constituem a amostra;

2. Por outro lado, se na escolha dos elementos que constituem a amostra


intervêm aspetos subjetivos, então não fica garantida essa
“representatividade global”, podendo ocorrer desvios sistemáticos.

Amostragem
A obtenção de uma amostra deverá ser feita com especial cuidado de uma forma
não subjetiva, recorrendo às técnicas de amostragem;

↳ Na perspectiva prática, é importante ter presente que a escolha da forma como


se faz a amostragem de uma população também envolve bom senso, intuição e
um conhecimento profundo da situação;

↳ Um erro frequente resulta de, inadvertidamente, a população alvo ser muito


diferente da população em estudo.

Assim, quando temos uma população finita podemos utilizar: uma


amostragem com reposição ou uma amostragem sem reposição. É importante ter
presente que estes dois tipos de amostragem só podem ser utilizados quando as
unidades estatísticas que constituem a população são catalogáveis.

10
Obs: a distinção entre “com/sem reposição” não faz sentido quando a população não
é finita.

Exemplo 1: pretende-se avaliar o grau de deterioção de uma biblioteca de obras


antigas com 50.000 livros, sendo feita através de uma amostra. Se os 50.000 livros
estiverem catalogados seria fácil obter a amostra a patir do catálogo da biblioteca,
medir o grau de deterioção desses livros e, a partir desses resultados, tirar uma
conclusão sobre o custo total da recuperação de todos os livros. Mas e se não
houver um catálogo da biblioteca, como se faz a amostragem?

Exemplo 2: suponha-se que se pretende avaliar a incidência de uma determinada


doença numa população animal muito numerosa, se essa estiver catalogada é
possível (embora possa ser inviável do ponto de vista prático) fazer uma escolha
da amostra a partir do registo dos animais. Mas e se for uma manada de gnus na
Tanzania?

Amostragem aleatória sem reposição/Amostragem aleatória simples


Considerando-se uma população finita constituída por N elementos: neste
tipo de amostragem de n (com n < N) elementos da população - todas as NCn
amostras são ordenadas (ou todas NAn amostras ordenadas) que se podem
obter, são “igualmente prováveis”.

↳ Não podem surgir elementos repetidos na amostra;

↳ As amostras podem ser ordenadas (NAn amostras possíveis) ou não


ordenadas (NCn amostras possíveis), sendo esta segunda interpretação a mais
natural;

↳ De um ponto de vista prático, a amostragem sem reposição é feita


retirando uma a uma n unidades estatísticas que foram escolhidas por sorteio
(ou método equivalente). Essas unidades podem ser agrupadas, destruindo a
informação relativa à sua ordem de saída, o que conduz a NCn amostras possíveis.
Caso se mantenha a informação sobre a ordem de saída temos NAn amostras
possíveis.

11
Amostragem aleatória com reposição
Considerando-se uma população finita constituída por N elementos: neste
tipo de amostragem de n (n<N) elementos da população – todas as Nn amostras
ordenadas se podem obter são igualmente prováveis.

↳ Podem surgir elementos repetidos na amostra;

↳ De um ponto de vista prático, esta amostragem é feita retirando e


repondo, n vezes sucessivas, uma das N unidades estatísticas escolhida por
sorteio (ou método equivalente);

↳ É muito importante ter presente que quando se perde informação sobre


a ordem de saída, as diferentes amostras que se podem obter por amostragem
com reposição já não são “igualmente prováveis”.

As 16 amostras que se podem obter


são igualmente prováveis. Nesta
contagem a ordem de saída é
considerada, isto é (77,33) e (33,77)
são diferentes. Se a ordem de saída
deixar de contar, teremos apenas
10 amostras possíveis distintas,
sendo que deixam de ser
igualmente prováveis.

↳ Este tipo de amostragem é, do ponto de vista teórico, muito mais simples de tratar;

Se N>>n, ou seja, se a dimensão da população for muito maior que a da


amostra, do ponto de vista prático não há grandes diferenças entre a amostragem
com reposição ou sem reposição – quando N>>n, uma amostra obtida por
amostragem sem reposição pode ser tratada como se fosse uma amostra
obtida por amostragem com reposição, pois do ponto de vista prático o erro
cometido é menosprezável.

Quando se sabe (ou se suspeita) que a população é constituída por extratos


heterogéneos entre si e é possível fazer amonstragens isoladas aos diferentes
extratos, podem obter-se “melhores resultados” usando o que se chama de
Amostragem aleatória estratificada. Mas é
essencial assegurar que as proporções dos extratos
na amostra são iguais/muito próximos às
proporções dos extratos na população.

12
As técnicas de amostragem referidas acima são genericamente designadas
por “probabilísticas” (probability samplig methods), porém existem outras
técnicas, as ditas “não probabilísticas” que por vezes são utilizadas por razões de
conviniência, de simplicidade ou porque os métodos probabilísticas não são
utilizáveis.

A diferença entre amostragem probabilística e não probabilística assenta na


suposição básica sobre a natureza da população em estudo; na probabilística, todas
as unidades têm uma chance de serem selecionadas, já na não probabilística há
uma suposição que há uma distribuição homogénea das características dentro da
população – isto faz os investigadores acreditarem que qualquer amostra seria
representativa por causa disso.

Numa amostragem não probabilística, sendo que os elementos são


escolhidos arbitrariamente, é impossível estimarmos a variebilidade ou
identificarmos as possíveis predisposições. Os estatísticos são relutantes quanto ao
uso destes métodos pois não há uma maneira de medir a precisão da amostra obtida.

Para uma escolha certa do método de amostragem a utilizar temos ter


presente:

1. Quando o método de amostragem é probabilístico, é possível


quantificar a qualidade dos resultados obtidos, uma vez que eles são
suportados por fundamentos matemáticos sólidos;

2. Quando o método de amostragem é não probabilístico, não é


possível quantificar a qualidade dos resultados obtidos, que depende,
sobretudo, da “idoneidade”, dos “preconceitos” e do grau de
“expertise” de quem selecionou a amostra.

Amostragem de conviniência (haphazard or accidental sampling)

Normalmente não é representativa da população alvo pois as unidades


estatísticas só são selecionadas se conseguirem ser acessadas de uma maneira fácil
e conveniente. Por exemplo, um jornalista televisivo que procura pessoas na rua
para saber qual a opinião delas sobre x assunto. A vantagem óbvia é a facilidade
com que é feito, porém pode ser deitada abaixo devido à presença de
preconceitos/predisposições. Podemos obter resultados precisos se a população
em estudo for homogénea o suficente, por exemplo, um cientista que está a estudar
um rio poluído, assumindo que a água é uma mistura homogénea em todos os pontos
do rio, pode tirar uma amostra de x lado que ia dar ao mesmo.

13
Amostragem de julgamento (judgement sampling)
É usada quando a amostra é feita com base em certos preconceitos sobre
a população em geral. O pressuposto é que o investigador irá selecionar unidades
estatísticas com base no facto de serem característicos da população em
estudo. O ponto crítico aqui é a objetividade: até que ponto podemos confiar no
julgamento para chegarmos a uma amostra típica? Este método é subjetivo e
depende de cada investigador e até se pode considerar mais tendencioso que a
Amostra de conveniência. Uma vantagem será o custo reduzido e o tempo envolvido
a escolher a amostra.

Dados em falta (não-respostas)


De uma maneira geral, quando se fala deste problema pensamos logo em
inquéritos e em situações de não resposta ao mesmo (recusa do potencial
entrevistado em responder ou simplesmente o não envio/não preenchimento). Não
é possível indicar um valor bem definido para a percentagem destas que seja
consirado aceitável por todos, já que depende do grau de exigência de quem realiza
o estudo. O national mathematics advisory panel estabeleceu que para um
inquérito ser considerado de qualidade elevada, a amostragem teria de ser
probabilística e o nº de não respostas não poderia exceder os 20%, dando
validade ao estudo em questão.

Quando não há um modelo para as não-respostas e/ou a percentagem da


mesma é elevada, as conclusões retiradas do estudo da amostra devem ser
consideradas como sendo apenas “indicações úteis”, uma vez que não poderão ter
qualquer significado estatístico.

Como fazer uma amostragem?


Podemos, por exemplo, fazê-la com: bilhetes de lotaria, tabela de nºs
aleatórios e uma amostragem em computador, a partir de um gerador de nºs
pseudo-aleatórios.

14
Números pseudo-aleatórios
São números gerados em computador utilizando uma relação de recorrência
(isto é, o nº seguinte é obtido à custa do anterior). O primeiro nº é obtido por
transformação de leitura do relógio interno do computador, daí o não haver dois
“inícios iguais”. A fórmula de recorrência utilizada assegura que os nºs que são
gerados têm características que os tornam praticamente indistinguíveis de nºs
obtidos por um sorteio. Esta continua a ser uma área de investigação atual.

↳ Designação: nada tendo de aleatório, estes números gerados por


computador comportam-se como se fossem aleatórios (algoritmo de Lehmer).

Acerca das técnicas de amostragem podemos ter em conta algumas


considerações finais:

1. A amostragem com reposição e a amostragem sem reposição (bem como


outras) são “modelos” que poderão ou não ser aplicáveis em situações
particulares;

2. Probelmas específicos exigem muitas vezes abordagens específicas.

Variáveis estatísticas (atributos)


Uma variável estatística é uma característica associada à população e/ou
à amostra e que pretendemos estudar estatisticamente. Apresenta variação de
elemento para elemento na populção ou na amostra de estudo, daí se chamar
variável. Temos então variáveis qualitativas (indicam o “grupo”) e variáveis
quantitativas (medições ou contagens).

Variáveis quantitativas
Medições ou contagens: características/atributos que podem ser medidos
numa escala quantitativa, ou seja, características mensuráveis).

Podem ser (1) contínuas – características mensuráveis que assumem


valores numa escala contínua (ex: reta real), como por exemplo, o peso em kg
(balança), o tempo (relógio), etc; e (2) discretas – podem assumir apenas um nº
finito ou infinito numerável de valores, como por exemplo, o nº de bactérias por litro
de leite, nº de pessoas por habitação, etc.

15
Variáveis qualitativas
Indicam o “grupo”, podem ser (1) nominais (ou categóricas ou não ordinais)
– não têm subjacente nenhuma ideia de ordem, como por exemplo, a cor de cabelo
ou (2) ordinais – “apontam” para uma ordem natural, temos a gravidade de x
doença no tempo como exemplo.

A classificação de uma variável estatística pode suscitar dificuldades pois não


é apenas baseada na natureza da variável, tem também de levar em conta o rigor
com que ela é medida, o contexto em que é utilizada e a diversidade de valores que
apresenta.

Exemplo: a cor pode ser vista como várias coisas, se for vista como frequência é
quantitativa contínua, se observada no arco-íris é qualitativa ordinal e se for
observada como a cor dos olhos dos alunos da FCUP é qualitativa nominal.

Casa decimais, algarismos significativos e dígitos variáveis


↳ Um exemplo de dados observados de uma variável estatística contínua:

23,9 24,7 27,0 32,9 20,9 21,7 29,7 28,5 ← estas medições têm 3 algarismos
significativos com uma casa decimal e têm dois dígitos variáveis: o das décimas e o
das unidades (effective digits ou variable digits).

Regra dos dois dígitos variáveis: dados em geral e estatísticas sumárias em


particular devem ser arredondadas para dois dígitos variáveis, onde o dígito
variável é definido como sendo aquele que varia tendo em conta os dados usados.

Exemplo 1: 23,9 24,7 27,0 32,9 20,9 21,7 29,7 (certo)

Exemplo 2: 24.93 29.71 27.00 32.82 20.94 29.74 (errado)

Por exemplo, para medições de altura em metros de indíviduos não fará


sentido fazer medições ao milímetro, de acordo com a regra apresentada acima, os
dados devem ser obtidos com 2 dígitos variáveis e na grande maioria dos casos não
se justifica mais do que isso.

A (falta de) qualidade de dados


Os resultados de um trabalho de índole científica ou técnica está muito
dependente da qualidade dos dados e, por mais sofisticada que seja a análise
efetuada, há um princípio geral que nunca deve ser esquecido: “Garbage in,
garbage out”.

16
Capítulo 3 – Análise explicatória dos dados (AED)
Na análise explicatória de dados o objeto de estudo é a Amostra que foi
obtida; são desenvolvidos métodos (quantitativos e gráficos) para a caracterização
dessa mesma Amostra, sendo que todos os estudos que envolvem estatística
começam pela AED).

Descrições gráficas Descrições quantitativas


 Diagrama de Pontos  Intervalo de variação, média,
variância, desvio-padrão
 Diagrama de caule e folhas
 Mediana e outros quantis
 Histograma
 Gráficos de densidade
(histogramas e curvas de
densidade)
 Diagrama de caixa e
bigodes

Diagrama de pontos

Esta representação gráfica é útil na fase inicial de qualquer trabalho quando


o nº de observações não é muito elevado pois permite a deteção rápida de erros
e de outras situações “estranhas” que deverão ser investigadas exaustivamente.

Para pontos
coincidentes temos dois
tipos de representação: em
“overplot” onde se
marcam os pontos sem
interessar se esses já
existem na marcação ou
não e em “stack” onde se
empilham (como na
imagem acima).

17
Diagrama de caule e folhas
Este tipo de diagrama organiza os dados de uma maneira compacta, com
pouca perda de informação, dando ainda informação “visual” sobre a “distribuição”
dos valores na amostra.

Podemos apresentar estes valores números de uma maneira mais correta


utilizando o diagrama de caule e folhas:

O nº 212 pode ser representado por 21|2 e, de forma análoga, 21.2 pode ser
também representado por 21|2. Para os distingir temos que indicar as unidades
que neste caso são 20|0=200.

Nº de dígitos = 3

↳ 2 dígitos nos caules e 1 dígito nas folhas

Nº de caules = 7

O diagrama de caule e folhas assemelha-se a um histograma


rodado de 90º com mais detalhe numérico e menor qualidade gráfica.

Recomendações gerais:

1. A folha é descrita por UM dígito. O caule é descrito por UM A DOIS dígitos


(mais uma vez, a regra dos 2 dígitos variáveis);

2. O nº de caules não deve ser maior que 10, exceto quando a dimensão da
amostra é muito elevada; este pode ser aumentado por fragmentação, isto
é, cada um dos fragmentos deve ter o mesmo nº possível de folhas – um caule
só pode ser divido em 2 ou 5;

3. A diferença entre caules sucessivos é, em geral, (0,5 ou 1 ou 2)*(potência de


10).

4. Mesmo que um caule esteja vazio, tem de ser representado.

18
Histograma (distribuição de frequências/diagrama das frequências)
Representação gráfica em colunas (retângulos) de um conjunto de dados
previamente tabulado e dividido em classes (em geral uniformes). A base de cada
retângulo representa uma classe e a altura representa a quantidade/frequência com
que o valor dessa classe ocorreu no conjunto de dados.

A “amplitude” do histograma depende muito da dimensão da amostra e da


amplitude das classes. Para eliminar este efeito deve-se utilizar no eixo dos yy a
frequência relativa ou a densidade:
𝑓𝑟𝑒𝑞𝑢ê𝑛𝑐𝑖𝑎
𝑭𝒓𝒆𝒒𝒖ê𝒏𝒄𝒊𝒂 𝒓𝒆𝒍𝒂𝒕𝒊𝒗𝒂 =
𝑛
𝑓𝑟𝑒𝑞𝑢ê𝑛𝑐𝑖𝑎
𝑫𝒆𝒏𝒔𝒊𝒅𝒂𝒅𝒆 =
𝑛 ∗ 𝑎𝑚𝑝𝑙𝑖𝑡𝑢𝑑𝑒 𝑑𝑎 𝑐𝑙𝑎𝑠𝑠𝑒

Quando o histograma está na escala de densidades a área toda é sempre


igual a 1, o que facilita as comparações que possam vir a ser feitas entre histogramas
obtidos com amostras de dimensão diferente. A forma e o “detalhe” do histograma
depende muito da escolha do nº de classes (nc):

Critério de Sturges (apenas indicativo) → nc = log2(n) + 1 (arredondado


para o nº inteiro superior)
𝑅
𝑨𝒎𝒑𝒍𝒊𝒕𝒖𝒅𝒆 = , 𝑜𝑛𝑑𝑒 𝑅 = (𝑚á𝑥𝑖𝑚𝑜 − 𝑚í𝑛𝑖𝑚𝑜)
𝑛𝑐

19
Para o n = 40, o critério de sturges indica que o nº de classes (nc) deverá ser
7:

R=(max-min)=102.5-71.0=31.5

O valor indicativo da amplitude da classe será de 4,5.

Na escolha final dos extremos das classes e de h recorre-se ao “bom senso”.


Muitas vezes, o nº de classes escolhido é diferente do valor indicado pelo
critério de sturges: em particular, quando o n é muito elevado (amostra c/ grande
dimensão) pois o critério de sturges é muito conservador.

Descontinuidades de um histograma

Um histograma apresenta descontinuidades nos pontos escolhidos para


extremos das classes e essas descontinuidades são artefatos, isto é, não
representam (em geral) características intrínsecas das observações: são apenas
consequência da escolha (arbitrária) dos extremos das classes.

Para as atenumarmos devemos aumentar a amostra (logo, aumentamos o


n) e diminuir a amplitude (perdemos informação), portanto estas medidas não são
as melhores, assim, podemos usar o polígno das frequências ou a curva de
densidades.

Polígno de frequências
Este método pode ser utilizado em qualquer que seja a escala dos yy:
frequências absolutas, frequências relativas ou densidades.

20
Para se resolverem as descontinuidades de um histograma é possível fazer
histograma de classes de amplitude diferente. Porém, é necessário ter em
atenção o seguinte: quando as classes não têm todas a mesma amplitude, qual a
escala a utilizar no eixo dos yy? Quando as classes não têm todas a mesma
amplitude só se pode utilizar a escala de densidades.

Os histogramas e os polígnos de frequências têm algumas vantagens como o


“cálculo” muito simples e são de compreensão fácil e terem uma utilização
generalizada. Porém possuem alguns incovenientes:

1. Introdução de descontinuidades na descrição dos dados (artefatos –


normalmente encontrados nos extremos das classes, não representam
características intrínsecas das observações, ou seja, são apenas uma
consequência da escolha arbitrária dos extremos das classes);

2. Limitações na descrição de distribuições de dados simétricos (a escolha


das classes pode, por si só, introduzir uma assimetria no histograma);

3. Encobrimento ou aparecimento de uma simetria que possa ocorrer nos


dados.

21
Curva de densidades
São curvas (funções) mais macias que os polígnos de frequências que
descrevem a forma da distribuição dos dados observados.

Diferença fundamental entre estas e os polígnos de frequências: o


polígno de frequências descreve um histograma, na medida em que o polígono é
obtido a partir de um histograma e a curva de densidades descreve a distribuição
dos dados e não o histograma em si, uma vez que a curva é obtida diretamente a
partir deles.

Considerando 3 amostras de dimensão 100, 500 e 1000 de uma população e


3 histogramas em densidades e cada um deles com classes de igual amplitude
representando respetivamente cada uma das amostras:

Os histogramas, não sendo os mesmos, mantêm uma certa forma que se


acentua com o aumento da dimensão da amostra e a diminuição da amplitude
das classes.

Fazendo a amplitude das classes a tender para zero (lim(h) → 0) e


aumentando a dimensão da amostra, podemos imaginar uma curva que se “ajusta
à forma do histograma” e cuja área delimitada por ela e pelo eixo xx é igual a
1.

Variabilidade estatística por efeito da amostragem

Variebilidade estatística por efeito de amostragem é a variebilidade, de


amostra para amostra, das descrições gráficas e quantitativas das amostras. Por
efeito da amostragem manifesta-se qualquer que seja a descrição, gráfica ou
quantitativa, utilizada para caracterizar a amostra, em particular no histograma, o
que pode levar a conclusões precipitadas.

Se um histograma é uma “fotografia” imperfeita” da distribuição dos dados


na amostra, ainda consegue ser pior no que diz respeito à distribuição dos dados na
população de onde a amostra foi retirada.

22
Exemplo: Consideremos uma população com 200 elementos, 20 dos quais
são do sexo F (10% F na população); foram retiradas amostras de 20 elementos
(com reposição), tendo-se obtido o seguinte...

Amostra 1 – 19 M e 1 F (5% F nesta amostra)

Amostra 2 – 20 M e 0 F (0% F nesta amostra)

Amostra 3 – 18 M e 2 F (10% F nesta amostra)

Estamos perante uma manifestação da variebilidade estatística por efeito da


amostragem: neste exemplo concentro, essa variebilidade traduz-se na variação,
de amostra p/amostra, da proporção de elementos do sexo F.

Oito amostras diferentes da mesma população, os factos são os mesmos mas as


reportagens são diferentes. Será que as conclusões serão iguais? Obviamente
que não.

A variebilidade estatística na forma de histograma maifesta-se igualmente na


forma de curva de densidades, apenas se mantém imutável o seu caráter “macio”. A
única maneira de diminuir o efeito da variabilidade estatística é através do aumento
do tamanho (dimensão) da amostra – mais trabalho.

Mas na escolha da dimensão da


amostra pesam outros fatores, que na grande
maioria das vezes são os determinantes,
nomeadamente a exequibilidade (execução)
e o custo.

O tipo de representação à direita


facilita a comparação entre dois histogramas.

23
Diagrama ou Gráfico de barras
Este tipo de gráfico, por vezes também chamado de histograma, corresponde
à descrição gráfica de um conjunto de valores observados de uma variável
quantitativa discreta, podendo ser utilizadas frequências absolutas ou relativas
mas nunca se recorre a densidades.

Abaixo encontram-se representados dois modos de representar esta


variável, tendo como base os mesmos valores:

Notas sobre este tipo de representação gráfica:

 É necessário que o diagrama tenha as informações de todos os dados,


mesmo que as classes tenham valores correspondentes a zero (como
é o caso do 4 e do 6 para o nº of piglets, não seria possível eliminar
estes valores da representação);

 É necessário também que os valores estejam por ordem, caso


contrário não existe ponto de comparação para se efetuar uma análise
dos resultados obtidos.

24
Medidas quantitativas (variáveis quantitativas)
As medidas quantitativas ou variáveis quantitativas são a descrição da
amostra de modo quantitativo.

Medidas de localização Medidas de disperasão


 Média  Desvio padrão
 Mediana  Intervalo de variação
 Amplitude interquartil

Seja a amostra o conjunto de n valores observados da variável X,


{x1,x2,x3,...,xn}. O cálculo da média, variância, desvio padrão e coeficiente de
variação desta amostra é, respetivamente:
1
𝑥̅ = ∑𝑛𝑖=1 𝑥𝑖 (média)
𝑛
1
𝑠2 = ∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ )2 (variância)
𝑛−1

𝑠 = √𝑠 2 (desvio padrão)
𝑠
𝑐𝑣 = ( ) ∗ 100% (coeficiente de variação)
𝑥̅

Quando existe uma transformação linear de uma variável, a média da


variância e do desvio padrão sofrem também uma transformação.

Obs: o desvio padrão da amostra deve ser representado por s: nunca deve ser
representado por sigma (σ). Este designa uma entidade matemática de natureza
muito diferente da de s:

- σ é o desvio padrão da população, um valor bem definido, que pode ser


conhecido ou não;

25
- s é o desvio padrão da amostra, um valor calculado a partir da amostra, variando
de amostra para amostra.

Estatísticas de Ordem
Quando a variável estatística é quantitativa (ou qualitativa ordinal) os n
valores que constituem a amostra {x1,x2,x3,...,xn} podem ser ordenados, obtendo-
se {x(1),x(2),...,x(n)} em que x(1) ≤ x(2) ≤ ... ≤ x(n).

O valor x(k) é designado por Estatística de ordem k da amostra.

Exemplo: amostra={1,3,2,1,6} ⇨ amostra ordenada={1,1,2,3,6}, x(3)=2

Intervalo de variação (range)


Tendo a amostra {x(1),x(2),...,x(n)} e a amostra ordenada {x(1),x(2),...,x(n)}: x(1) é
o valor mínimo de x na amostra e o x(n) é o valor máximo de x na amostra e o
intervalo de variação é definida por R= x(n)-x(1).

Mediana da amostra (M ou Q2)


A mediana é o valor que divide a amostra em duas partes iguais, isto é, o nº
de elementos da amostra menores que M é igual ao nº de elementos da amostra
maiores que M e esse nº é cerca de n/2. Podemos calcular a partir das n
observações ordenadas x(k).

𝑀 = 𝑥𝑘+1 𝑠𝑒 𝑛 = 2𝑘 + 1
1
𝑀 = (𝑥𝑘 + 𝑥𝑘+1 ) 𝑠𝑒 𝑛 = 2𝑘
2

Comparação sumária entre a média e a mediana da amostra: a resistência da


mediana

A média e a mediana são ambas medidas de localização dos valores da


amostra e, se a distribuição dos dados na amostra é razoavelmente simétrica, a
média e a mediana diferem pouco entre si (caso a). Havendo a presença de valores
discordantes com a maioria na amostra, afeta muito mais o valor da média do que
o valor da mediana (caso b). É por esta razão que dizemos que a mediana é mais
resistente que a média (de um ponto de vista teórico torna-se mais simples utilizar
a média).

26
A posição relativa da média e da mediana é definida pela distribuição de
dados da amostra, se esta for unimodal e enviesada à direita (à esquerda), em
geral, a média está situada à direita (à esquerda) da mediana.

Quantis (“quantiles”)
Podemos pensar numa generalização do conceito de mediana da amostra;
considerando, por exemplo, o valor V que divide os dados da amostra em duas partes
(mediana):

1. Cerca de α x 100% dos valores da amostra à esquerda do valor V;

2. Cerca de (α-1) x 100% dos valores da amostra à direita do valor V.

Este valor V (ainda mal definido) é designadao pelo quantil de ordem α da


amostra - qα. Deste ponto de vista, a mediana é o quantil q0,50.

Os quartis são casos particulares dos quantis:

 1º quartil: Q1=q0,25

 2º quartil: Q2=q0,50 (mediana)

 3º quartil: Q3=q0,75

A amplitude interquartil (IQR) é calculada pela seguinte expressão: AIQ= Q3 – Q1.

Com exceção da mediana, não há um método único e universalmente aceite


para o cálculo dos quantis (nem dos quartis) de uma amostra, o que gera bastante
confusão. Porém, existem duas situações: o cálculo manual (dos quartis apenas,
em pequenas amostras e com fins didáticos) – método de Freund e Perles ou
American Statistician, ou o cálculo em computador (existindo uma grande
diversidade de métodos).

27
Método de Freund e Perles (deteção de erros)

Uma recomendação útil para a aplicação deste método é confirmar sempre o


resultado obtido usando para esse efeito a regre geral: qualquer que seja a mostra,
a soma das ordens de Q1 e Q3 (ordens eventualmente não inteiras) é igual a
n+1.

O primeiro quartil (Q1) é a


mediana de todos os valores situados à
esquerda da posição da mediana M e o
terceiro quartil (Q3) é a mediana de
todos os valores situados à direita da
posição da mediana. Este método não
pode ser generalizado para outros
quantis.

Para amostras de dimensões elevadas usa-se outros métodos, um deles


sendo a interpolação linear. O cálculo do quantil qα envolve 3 etapas: (1)
ordenação dos dados; (2) atribuição de um quantil qk a cada uma das estatísticas de
ordem xk e (3) interpolação linear sobre (xk, qk).

Interpolação linear y=f(x)

28
Exemplo de cálculo do quantil 0,25 (25%) – método (b)

Amostra={1,3,2,1,6,3,3,4,5,5} (n=10) – quer-se calcular Q1 (Q1=q0,25)


𝑘
𝑞(𝑘) =
𝑛+1

K 1 2 3 4 5 6 7 8 9 10
x(k) 1 1 2 3 3 3 4 5 5 6
q(k) 1/11 2/11 3/11 4/11 5/11 6/11 7/11 8/11 9/11 10/11

𝑥(3) − 𝑥(2)
𝑄1 = 𝑥(2) = ∗ (0,25 − 𝑞(2))
𝑞(3) − 𝑞(2)
2 3
𝑥(2) = 1; 𝑥(3)2; 𝑞(2) = 𝑒 𝑞(3) =
11 11
𝑄1 = 1,75

Recomendações no cálculo dos quantis:

 Para uma mesma amostra, os valores calculados dos quantis e dos quartis
dependem do método utilizado, sendo que o método utilizado nos programas
de estatística não é necessariamente o mesmo;

 Quando a dimensão da amostra é muito pequena, os valores obtidos podem


ser bastante diferentes; para amostras de dimensões elevadas, esses valores
são muio próximos entre si, sendo razoavelmente indiferente o método de
cálculo utilizado;

 A menos que haja razões que o justifiquem, sugere-se a utilização da forma


de cálculo implentada por defeito no programa de estatística que é
utilizado, sendo que é imperativo indicar explicitamente qual o programa
utilizado e a sua versão

Moda da amostra
A moda é frequentemente definida como sendo o valor mais frequente na
amostra (o que apresenta mais ocorrências) – pode definir-se para as variáveis
quantitativas discretas e para as variáveis categóricas.

No caso das variáveis discretas, a moda corresponde ao valor da variável


associada a um máximo no diagrama de barras, contudo é preferível deinir a
moda como um máximo local e não global.

29
Com esta definição, a distribuição dos dados na amostra pode ser unimodal,
bimodal, etc.

Atenção: os valores das modas


(ou só uma moda) podem depender
bastante da escolha das classes.

Neste exemplo ao lado temos


duas classes modais: 1,5 – 2,0
minutos e 4,0 – 4,5 minutos.

M0≅2,0 minutos

M1≅4,4 minutos

Podemos, então, concluir:

 A definição dada para a moda (valor mais frequente da amostra) não é


aplicável a variáveis contínuas;

 Quando a variável é contínua, a moda é obtida a partir do histograma ou


(preferencialmente) a partir da curva das densidades, podendo não ser
única, como no exemplo anterior – as duas modas correspondem aos
máximos locais da curva de densidades (distribuição bimodal).

Relações aproximadas entre as medidas descritivas


Sob certas condições (gerais para uns, restritivas para outros), podem
estabelecer-se relações aproxiadas entre as medidas descritivas. Estas relações são
úteis pois, para além de darem um “significado” a nºs que, de outra forma,
surgem apenas como resultado de um cálculo, podem também permitir obter
valores aproximados de medidas descritivas em situações em que o seu
cálculo não pode ser feito.

Aplicabilidade – distribuções de dados unimodais e razoavelmente


simétricas relativamente a um valor central e sem valores discordantes:

 Cerca de 70% dos valores da amostra estão contidas no intervalo

[𝑥̅ − 𝑠, 𝑥̅ + 𝑠]

 Cerca de 90% das observações no intervalo

[𝑥̅ − 2𝑠, 𝑥̅ + 2𝑠]

 IQR=Q3-Q1 ≅ 1,4s

30
Medidas quantitativas vs variáveis qualitativas

 Todas as medidas quantitativas cujo cálcula envolve operações


aritméticas (tais como a média, desvio padrão, coeficiente de
variação) não se podem aplicar quando a variável é qualitativa
(mesmo que seja codificada numericamente e seja ordinal);

 As medidas quantitativas calculadas a partir da ordenação dos dados


não podem aplicar-se quando a variável é qualitativa não ordinal;

 Quando a variável é qualitativa ordinal podem usar-se medidas


quantitativas baseadas nas estatísticas de ordem (mediana, por
exemplo) mas com limitações (não faz qualquer sentido interpolar);

 A moda pode usar-se sem restrições.

Diagrama de Caixa e Bigodes (“Box plots”)


Esta é uma das representações gráficas mais frequentemente utilizadas,
agregando variadas características:

 Informação visual sobre a distribuição dos dados na amostra (pouco


detalhada e robusta);

 Informação quantitativa (também robusta) sobre a localização e a


dispersão dos valores na amostra (a mediana e o IQR,
respetivamente);

 Informação visual sobre observações discordantes, alertando para a


sua existência.

Exemplo: representação gráfica dos 5 nº


de Tukey – mínimo, 1º quartil, 2º quartil
(mediana), 3º quartil e máximo

0 | 8 = 8 mm

0|8

1 | 0155

2 | 00259

3 | 0357

↳ Representação adequada desde que (Q3-Q1) não seja muito menor que (máx-
min)

31
Esta representação facilita a
comparação de várias amostras, no
que diz respeito à localização,
dispersão e assimetria.

Assimetria

↳ Diagrama de caixa e bigodes modificado – para estes diagramas temos


várias zonas em que se calcula a existência e a intensidade dos outliers:

Barreira interna superior (upper fence) – Q3 + 1,5*IQR e barreira interna


inferior (lower fence) – Q1 - 1,5*IQR

 Entre estas barreiras é onde se situa a caixa e bigodes, onde todos os


pontos são considerados não outliers (dentro da caixa e bigodes);

 Fora destas barreiras é a zona onde os pontos, se existirem, são


considerados outliers.

Barreira externa superior – Q3 + 3*IQR e barreira externa


inferior – Q1 - 3*IQR

 Entre as barreiras internas e externas situam-se os outliers


moderados;

 Fora das barreiras externas situam-se os outliers severos.

32
Diagrama de Caixa e Bigodes e simetria
Contrariamente ao que é afirmado com alguma frequência, não é fácil
avaliar o grau de simetria da distribuição dos dados na amostra através deste
diagrama.

Isto é:

 Se o diagrama de caixa e bigodes é assimétrico, a distribuição dos


dados na amostra é assimétrica;

 Já se o diagrama for simétrico não se pode concluir com segurança que


a distribuição dos dados o seja.

Outliers
Aplicamos esta designação a qualquer elemento da amostra que não se
parece “encaixar” no conjunto dos valores que a constituem, sendo que pode
acontecer por diversas razões.

 Erros (instrumental, de registo, de transição, codificação deficiente,


etc.);

 Inerente à própria natureza da situação (a forma da distribuição pode


dar um indício disso);

 Heterogeneidade na população em estudo.

Nota: a presença de um “outlier” poderá ser um indicativo de algo muito


importante.

33
Diagrama de caixa e bigodes de 4
amostras (n=100) de uma
mesma população
c/distribuição exponencial em que nos 4 casos ocorrem “outliers” (no sentido
de estarem acima da barra superior). Ocorrem valores discordantes mas nada há de
“anormal” neles, é uma distribuição enviesada à direita e é nesse lado que se
encontram os outliers.

O que fazer perante um “outlier” que, após uma análise cuidada, foi
considerado um erro?

Corrigir o erro se possível, se não conseguirmos, eliminamos a observação


dessa variável (NA na R) e reavaliamos a adequação dos procedimentos
experimentais.

E se não for considerado erro?

Se isto acontecer não o eliminamos e vamos utilizar métodos de análise


resistentes, por exemplo, usar a mediana, em vez da média, como medida de
localização. Repetir o estudo com os “outliers” e sem eles; se as conclusões forem
idênticas, os “outliers” não terão tido muita influência, já se forem diferentes,
reportar a situação em detalhe. Não é aceitável aceitarmos sem reservas nem
cautelas uma conclusão que depende do facto dos “outliers” terem sido ou não
incluídos na análise. Por fim, investigá-los cuidadosamente.

Comparação sumária entre as diversas medidas de localização e


dispersão

Na comparação devem considerar-se várias questões, em particular a


“aplicabilidade”, a facilidade de interpretação, a simplicidade do tratamento e a
resistência face à eventual presença de valores discordantes da maioria.

1. Interpretação e comparação sumária entre a média e mediana da amostra;

34
2. Interpretação e comparação sumária entre o desvio padrão, o intervalo entre
quartis (IQR) e o intervalo de variação.

Pares de variáveis estatísticas


Na maioria das situações, numa mesma unidade estatística são medidas
(observadas) mais do que uma variável, então, o estudo da amostra pode ser feito
considerando cada variável isoladamente, usando os métodos referidos
anteriormente.

Porém, o estudo e a caracterização dos valores obtidos para cada variável,


isoladamente, não nos permite descrever o relacionamento que possa exister entre
as mesms e que constitiu muitas vezes a razão de ser trabalho experimental. Para
descrever esse relacionamento vamos usar diagramas de dispersão (ao lado).

Estes dão-nos informação visual sobre


o grau de relacionamento entre as duas
variáveis, mas devem ser complementados
com uma medida quantitativa desse grau de
relacionamento.

O grau de relacionamento linear entre um par de variáveis X e Y


(quantitativas) numa amostra é quantificado pelo coeficiente de correlação (de
Pearson) da amostra dos pares (xi,yi), i=1,n.
∑(𝑥𝑖 − 𝑥̅ ) ∙ (𝑦𝑖 − 𝑦̅)
𝑟=
√∑(𝑥𝑖 − 𝑥̅ )2 ∙ ∑(𝑦𝑖 − 𝑦̅)2

Propriedades do coeficiente de correlação (r):

 O coeficiente de correlação é um nº adimensional que toma valores no


intervalo [-1,1];

 Se |r|=1, as duas variáveis estão linearmente relaciondas e vice-versa;

 O valor de r não é alterado por uma transformação linear das variáveis.

De seguida estão alguns exemplos do signficado do coeficiente de correlação


(medida do grau de relacionamente linear entre duas variáveis):

35
Conclusão:

 Quando |r| é muito próximo de 1 podemos concluir que as variáveis


apresentam um grau de relacionamento forte;

 Quando |r| é muito próximo de 0¸nada se pode concluir sobre o


relacionamento das variáveis sem inspecionar o diagrama de dispersão: o
valor de r, por si só, não permite tirar qualquer conclusão.

É muito frequent em artigos com nível científico duvidoso a apresentação de


resultados que sugerem ao leitor que quando uma variável X está correlacionada
com uma variável Y e esta está, por sua vez, correlacionada com outra variável Z,
então X está também correlacionada com Z. Isto está errado, de seguida estão uns
gráficos que ilustam esta situação.

As unidades estatísticas são


caracterizadas por 3 variáveis
quantitativas X, Y e Z. Assim sendo, a
amostra (dimensão 100) é constituída
por um termo de variáveis (xi, yi, zi),
com i=1 a 100. Neste exemplo:

 Correlação linear forte entre X e Y


(r=0,74);
 Correlação linear forte entre Y e Z
(r=0,74);
 Contudo, a correlação entre X e Z é
nula (r=0,01).

36
Correlação e causalidade
O facto de 2 variáveis estarem correlacionadas (por ex, o peso e a altura
de um indivíduo), não significa que uma variável seja a “causa” e a outra o
“efeito”. O coeficiente de correlação quantifica apenas o grau de associação entre
duas variáveis que participam no cálculo da intensidade dessa associação de uma
forma simétrica, enquanto que numa relação de causa-efeito a participação das
variáveis não é simétrica – uma é a causa e a outra o efeito.

Se houver uma relação causa-efeito entre 2 variáveis, essa relação deve


traduzir-se numa correlação entre essas variáveis (não necessariamente medida
pelo coef. de correlação), porém, o recíproco pode não ser verdadeiro.

Pontos de grande influência


Podem ocorrer situações em que alguns valores da amostra tenham um
efeito muito apreciável no valor absoluto do coeficiente de correlação. Esse(s)
ponto(s) designa(m)-se por “ponto(s) com grande influência. Quando estes existem
numa amostra, o valor de |r| pode perder muito o seu significado, então pode:

1. Não existir uma relação linear forte entre as variáveis e o valor |r| não
o indicar;

2. Existir uma relação linear forte entre as variáveis e o valor |r| não o
indicar.

Considerando apenas os pontos da


amostra situados dentro da circunferência,
obtemos r=-0,014 – ou seja, não há correlação.
Quando se inclui o outlier no cálculo de r,
obtemos r=0,50.

Assim, devemos fazer sempre uma inspeção ao diagrama de dispersão para


detetarmos a existência de pontos de grande influência – contudo é uma
avaliação subjetiva. Em complemento (e na sua forma mais simples), a deteção dos
pontos e a quantificação do seu grau de influência é feita comparando o coeficiente
de correlação da amostra com o coeficiente de correlação que se obtém
quando o ponto não está na amostra.

Se o |r| diminuir de forma significativa, o ponto em apreciação é de grande


influência.

37
Capítulo 4 – Teoria elementar da probabilidade
A estatística recorre à utilização do raciocínio indutivo (particular → geral)
que significa tirarmos uma conclusão sobre as características dos elementos de uma
População, partindo da observação individual das características dos elementos de
uma amostra (retirada dessa população), o que não significa que essas inferências
estejam corretas.

Na estatística indutiva são desenvolvidos métodos que, com alguma


segurança, permitem caracterizar a População com base nos resultados obtidos
numa amostra. Esta quantifica também o grau de certeza a que se pode atribuir à
generalização admitida – este é medido por uma “probabilidade”.

Tendo como exemplo algo já conhecido: vacina Salk

Não podemos saber


antecipadamente quais as
crianças que irão contrair a
doença tendo como base este
estudo.

Os resultados individuais são incertos pois podem ocorrer duas situações


– contrair ou não Polio; e imprevisíveis porque não se sabe o que vai acontecer a
uma criança, seja ela vacinada ou não.

As frequências (relativas) de ocorrência calculadas a partir da tabela de


contingência acima dependem do nº de crianças envolvido e também de fatores
imprevisíveis que conduziram ao que aconteceu e que podia ter sido evitado a cada
uma das crianças envolvidas. A confiança que se atribui à informação transmitida
pelas frequências de ocorrência aumenta quando o nº de crianças envolvidas no
estudo aumenta também.

Apesar de todas as limitações, com as frequências relativas de ocorrência


(calculadas a partir da tabela) conseguimos responder, embora que de forma
aproximada, a muitas das questões suscitadas neste ensaio clínico.

O tronco comum do ensaio clínico da vacina Salk com outros traduz-se em


três características fundamentais que definem as chamadas “experiências
aleatórias”.

38
Experiência aleatória
Uma experiência aleatória produz um resultado observável que não é
possível conhecermos antes da realização da mesma pois há fatores aleatórios que
estão fora do nosso alcance (ex: lançamento de um dado, tirar uma carta de um
baralho, etc).

Características:

 Pode repetir-se um grande nº de vezes nas mesmas condições ou em


condições semelhantes;

 Conhecem-se os resultados que poderão ocorrer quando se realiza uma


experiência, porém não se podem prever os resultados individuais,
mesmo que se façam todos os esforços para as condições se manterem as
mesmas;

 Quando a experiência é repetida n vezes em condições semelhantes, o


conjunto de resultados obtidos apresenta “regularidade estatística” (a
frequência relativa de um evento vai-se estabilizando e varia cada vez
menos à medida que aumentamos o nº de ensaios).

Para a vacina Salk, as frequências relativas de ocorrência desses


acontecimentos é de:
33
N=200745 ⇨ 𝑓(𝑝𝑜𝑙𝑖𝑜|𝑉𝑎𝑐𝑖𝑛𝑎 𝑆𝑎𝑙𝑘) = = 0,000164
200745

A regularidade estatística traduz uma constatação experimental.


Designando A por um acontecimento qualquer associadao a uma experiência E e por
fn(A), a frequência de ocorrência de A ao fim de n provas de E, ou seja, n repetições
da experiência E, a regularidade estatística significa que:

fn(A) → P(A)

Muitas vezes não conseguimos obter P(A), porém, podemos obter uma
estimativa do seu valor, assim:
̂(𝐀) = 𝐟𝐧 (𝐀)
𝐏

Deste ponto de vista, a probabilidade de um acontecimento, neste caso


P(A), é um nº entre 0 e 1 que podemos obter experimentalmente.

39
Podemos agora responder a certas questões sobre probabilidade...

 O que é?

É um nº entre 0 e 1.

 O que significa?

Numa experiência em que não se pode prever o resultado que vai


ocorrer, a probabilidade de um determinado acontecimento A mede o
nosso grau de certeza no que diz respeito à ocorrência ou não
ocorrência desse acontecimento.

 Como se obtém?

Pode ser obtida experimentalmente.

 Para que serve?

Serve como um instrumento de apoio à decisão.

Voltando ao exemplo da vacina Salk, como se pode ver na imagem, o risco de


uma criança não vacinada contrair a doença é cerca de 3,5 vezes o risco de uma
criança vacinada contrair a doença ⇨ perante estes resultados e tendo em conta
a gravidade da doença, justifica-se proceder à vacinação.

40
Exemplo 2: produção industrial de um produto, classificado de acordo com
o grau de contaminação bacteriológica em 4 tipos (classes). Na segunda imagem
constatamos a evolução das frequências de ocorrência em função do nº de
unidades analisadas e daí podemos constatar experimentalmente que as
frequências de ocorrências parecem aproximar-se de valores bem definidos quando
o nº de unidades analisadas aumenta.

A estimação experimental da probabilidade de um acontecimento, através da


frequência de ocorrência desse mesmo, conduz-nos a algumas perguntas: (1)
quantas provas serão necessárias para se estimar experimentalmente a
probabilidade de um acontecimento? (resposta: cap. variável aleatória); (2)
como se mede a qualidade da estimativa obtida para a probabilidade de um
acontecimento? (resposta: cap. intervalos de confiança) e (3) como podemos
concluir que a probabilidade de um acontecimento é, ou não, maior do que x valor?
(resposta: cap. testes das hipóteses).

↳ Como consequência, a variebilidade estatística acarreta que a estimativa da


probabilidade não seja um nº bem definido;

↳ Não se deve confundir “uma probabilidade” (um valor bem definido,


porventura desconhecido) com “uma estimativa dessa probabilidade” obtida
através de uma frequência de ocorrência (isto é, um valor aproximado, entre muitos
outros que se poderiam obter).

↳ A estimativa da probabilidade (e a qualidade dessa estimativa) depende


muito do número de provas realizadas, o que tem consequências na forma como o
resultado deve ser apresentado.

41
Como apresentar os resultados obtidos na determinação experimental
de uma probabilidade?

f(positive|pregnant)=80/85 ≋ 0,941176

Regra de caractér indicativo: indicar sempre o valor obtido como quociente de


dois inteiros, apresentando-o também com a 2 ou 3 casas decimais (ou 2 a 3
algarismos significativos e o valor for muito pequeno).

Atribuição frequencista de probabiblidade


A atribuição frequencista de uma probabilidade é muito útil e, por vezes, não
há alternativa: não podemos calcular uma probabilidade, restando apenas a sua
estimação experimental. Esta atribuição vai-nos levar naturalmente à definição
axiomática de probabilidade, de que a definição clássica de probabilidade é um
caso particular. Assim, em vez de olharmos para os nºs, vamos olhar para as suas
“propriedades” gerais.

A sensibilidade de um teste é uma probabilidade. No exemplo dado nos


slides, é a probabilidade do teste efetuado sobre o leite extraído de uma vaca com
glândulas mamárias infetadas, indicar que existe infeção. Só a podemos obter
experimentalmente e o valor obtido é apenas uma estimativa e é apresentada sob
forma de um intervalo de confiança (CI) para o valor estimado para a sensibilidade.

Num grande nº de situações, as probabilidades só podem ser estimadas


experimentalmente.

Frequências de ocorrência
Imaginemos que se vai realizar uma experiência aleatória E n vezes: essas n
repetições (provas) da experiência aleatória E devem ser independentes entre si (no
sentido em que, habitualmente usamos a palavra independente) – os resultados
obtidos depois de realizada algumas vezes a experiência E não vai influenciar
(influenciar é diferente de “dar alguma informação sobre”) os resultados que se irão
obter em novas realizações da experiência E.

42
Estas são as três propriedades fundamentais das frequências de ocorrência
que vão conduzir à definição axiomática de probabilidade. Sejam A e B dois
acontecimentos associados à experiência E

1. Qualquer que seja o acontecimento A associado a E:

0 ≤ fn(A) ≤ 1

2. A frequência de ocorrência de um acontecimento S, que garantidamente


ocorro sempre (quando a experiência E é realizada) é igual a um:

fn(S)=1

3. Se os dois acontecimentos A e B associados a E são exclusivos entre si,


isto é, quando E é realizada ou “ocorre A e não ocorre B” ou “ocorre B e
não ocorre A” ou “nenhum deles ocorre”, então:

fn(ocorre A ou ocorre B)= fn(A)+ fn(B)

Exemplo: considerando a experiência E – lançar dois dados ao ar e registar


os pontos obtidos em cada um dos dados e os acontecimentos A e B – (A) a soma
dos pontos obtidos nos dois dados ser ≥ 10 e (B) o valor absoluto da diferença entre
os pontos obtidos nos dois dados ser ≥ 4.

Será que A e B são exclusivos entre si? Mostrar que qualquer que seja o nº de
lançamentos efetuados fn(ocorre A ou ocorre B)= fn(A)+ fn(B).

Espaço de resultados
Conjunto formado por todos os resultos que é possível obter quando se
efetua uma experiência aleatória, designa-se por S. O espaço de resultados associado
a uma experiência aleatória pode não ser único, sendo que a sua escolha depende
muito do problema em questão

Exemplos: lançar uma moeda ao ar e registar se sai cara ou coroa,


enquanto que lançar uma moeda ao ar somente sem o registo é meramente uma
brincadeira; a administração da vacina Salk a uma criança e o seu registo,
prospectivo, se ela contraiu ou não Polio também o é, já se fosse só a administração
da vacina Salk a uma criança, não é uma experiência aleatória e sim um ato médico.

O espaço de resultados pode ser, então:

 Finito

Acontecimento – qualquer subconjunto de S finito se designa um


acontecimento; só se pode formar um acontecimento se ele fizer parte
do S.

43
Temos acontecimentos elementares – os subconjuntos de S são
formados por 1 só elemento; acontecimentos certos – como S ocorre
sempre, S é o acontecimento certo e acontecimento impossível – o
conjunto vazio é também um subconjunto de S.

 Infinito

Espaço de resultados infinito numerável – é possível atribuir uma


numeração aos elementos de S; para ser numerável tem de ser
numerado com números inteiros;

Espaço de resultados infinito não numerável – não é possível


atribuir uma numeração dos elementos de S.

Exemplos práticos:

S={F,C}; S={“Polio”, “No Polio”}; S={1,2,3,4,5,6}

Como definir o espaço de resultados?

Experiência: “Passar uma bola da caixa 1


para a caixa 2 e, em seguida, extrair uma
bola da caixa 2 e anotar a sua cor.

Caixa 1 – Bolas (imaginariamente)


numeradas de 1 a 12;

Caixa 2 – Bolas (imaginariamente)


numeradas de 13 a 22;

S={(i,j);i=1,...,12; j=i,13,...,22} → regra do detalhe máximo #(S)=132(=12*11)

Alguns exemplos de acontecimentos:

A1={(i,j),i=5,...,8; j=i,13,...,22}

De forma análoga, pode definir-se Pi, Vi para i=1,2

P1={(i,j), i=1,...,4; j=i,13,...,22}

V1={(i,j), i=9,...,12; j=i,13,...,22}

44
Operações sobre acontecimentos

 A união de acontecimentos traduz o “ou inclusivo”: A ∪ B;

 A interseção de acontecimentos traduz o “e”: A ∩ B;

 ̅
O acontecimento complentar traduz o “não”: A

 Dois acontecimentos são exclusivos entre si se a sua interseção é


vazia, isto é, a interseção é o acontecimento impossível.

Exemplo: E - lançar um dado ao ar e registar os pontos obtidos (S = {1,2,3,4,5,6}).


Alguns Acontecimentos:

A: O número de pontos obtido ser par: A = {2,4,6}

B: O número de pontos obtido ser ≥ 4: B = {4,5,6}

C: O número de pontos obtido ser < 4 : C = {1,2,3}

União: A ∪ B = {2,4,5,6} (ocorre A ou B); B∪C=S

A ∪ C = {1,2,3,4,5,6} = S; B ∪ C = {1,2,3,4,6} = S − {5};

Interseção: A ∩ B = {4,6} (ocorre A e B simultâneamente);


̅=C (ac.complementar)
A ∩ C = {2} (ac. elementar); A

B ∩ C = ∅ (B e C são acontecimentos exclusivos; ocorrer B e C “em simultâneo” é


o ac. impossível).

45
Leis de Morgan
Associatividade: A ∪ (B ∪ C) =(A ∪ B) ∪ C

A ∩ (B ∩ C)= (A ∩ B) ∩ C

Comutatividade: A ∪ B = B ∪ A

Distributividade: A ∪ (B ∩ C)= (A ∪ B) ∩ (A ∪ C)

Leis de Morgan: ̅̅̅̅̅̅̅̅̅


A ∪ B = 𝐴̅ ∩ 𝐵̅

Em probabilidades e em estatística o “ou” deve ser sempre interpretado no


sentido inclusivo.

Definição axiomática de Probabilidade


Esta definição concentra-se nas propriedades fundamentais das
probabilidades e nas suas consequências, para tal, começa por transcrever as
propriedades das frequências de ocorrência para um conjunto de “axiomas” que
definem as “propriedades” que as mesmas devem satisfazer.

Desta forma consegue-se desenvolver a teoria da probabilidade,


independente das questões que possam ser levantadas e garantir a consistência

46
entre a teoria matemática e o método experimental de uma probabilidade por uma
frequência de ocorrência.

Axioma 1: P(A)≥0, ∀A⊆ S

Axioma 2: P(S)=1

Axioma 3: se A∩B=∅, então P(A∪B)=P(A)+P(B)

Este axioma 3 é mais geral, estamos a supor aqui S infinito e S como sendo o
espaço de resultados associado a uma experiência aleatória.

Caso particular: se o espaço de resultados S é constituído por um nº finito


(N) de acontecimentos elementares, todos eles com igual probabilidade...

S={e1,e2,...,eN} P(ek)=1/N (k=1,...,N)

Onde #(S) representa o nº de elementos de S – nº de casos possíveis que podem


ocorrer quando a experiência aleatória é realizada e #(A) é o número de elementos
de A – nº de casos favoráveis à ocorrência de A (dentre os N casos possíveis que
podem ocorrer quando a experiência aleatória é realizada.

Definição clássica de probabilidade: a probabilidade de um acontecimento


A, P(A), é calculada pelo quociente entre o nº de casos favoráveis a A e o nº total de
casos possíveis, se os casos possíveis forem igualmente prováveis. A
aplicabilidade da definição clássica exige que:

 O número de casos possíveis tem ser finito;

 Todos os casos sejam igualmente prováveis.

Em experiências aleatórias, a 2ª condição nunca é satisfeita. Noutras


situações, poderá ser satisfeita se o S for escolhido de forma adequada, daí a
importância de se escolher o S convinientemente.

Exemplo em que NÃO se pode usar a definição clássica: enquanto que em alguns
grupos de animais, como cobras e lagartos, o sexo dos embriões é determinado pelos
cromossomas sexuais, noutros como tartarugas e crocodilos, o sexo é determinado
por fatores ambientais tais como a temperatura a que o ovos se desenvolvem (mais
quente são fêmeas, mas frio são machos). Isto significa que não é verdade que
P(Nascer Macho)=P(Nascer Fêmea) = 0,5.

47
O cálculo de P(A) pela aplicação da definição clássica é um problema de
matemática que envolve problemas de contagem (eventualmente recorrendo à
análise combinatória). A aplicabilidade desta definição não é um problema de
matemática, depende da situação concreta e da “arte” em a analisar.

Partição do espaço de resultados


Não é nada mais que a decomposição de uma situação completa, noutras,
mais simples, que são mais facilmente analisadas separadamente. Deste ponto de
vista trata-se de um conceito importante e muito útil na resolução de problemas de
probabilidade que não sejam triviais.

A “arte” reside na escolha adequada da partição, sendo que essa escolha


depende da situação em causa e do problema a se resolver, não é apenas um
problema matemático.

48

Você também pode gostar