220 likes | 318 Views
Testes de significância estatística e coeficientes de associação. Inferência estatística. Quando afirmamos que A causa B, estamos sugerindo que há uma relação entre A e B
E N D
Testes de significância estatística e coeficientes de associação
Inferência estatística • Quando afirmamos que A causa B, estamos sugerindo que há uma relação entre A e B • A forma mais útil e abrangente de determinar se duas variáveis estão de fato relacionados é a tabela de contingência, que mostra o resultado conjunto de duas variáveis. • Usualmente a variável dependente ocupa o eixo vertical e a variável independente o horizontal. O resultado pode também ser apresentado em gráfico de barras, onde o eixo vertical representa a freqüência ou as porcentagens e há um conjunto de barras representando os valores da variável dependente, com valores em cores ou formatos diferentes de acordo com a variável independente.
A hipótese nula • Hipótese nula é uma hipótese estatística que usualmente esperamos refutar e declara que nenhuma relação existe na população entre as variáveis consideradas. • Questão de inferência: qual é a probabilidade de que a relação observada nos dados da amostra possa ser obtida a partir de uma população na qual não há relação entre as variáveis? • Nível de probabilidade: é a probabilidade selecionada para rejeição de uma hipótese nula, geralmente fixada como α (Alfa, erro de Tipo I) ≤ 0,05.
Testes de significância: qui-quadrado • Qui-quadrado (χ2) – Testes de significância estatística baseado numa comparação de freqüências observadas de células numa tabela de contingência com freqüências que seriam esperadas sob a vigência de uma hipótese nula, ou seja, de nenhum relacionamento. • Se duas variáveis são estatisticamente independentes, há proporções idênticas da variável independente nas categorias da variável dependente numa tabela de contingência • Valor crítico – valor mínimo de um teste de significância, necessário para rejeitar a hipótese nula. O qui-quadrado é obtido numa tabela em função do grau de liberdade: (número de linhas – 1) (número de colunas -1) e do valor de α para a hipótese nula
A lógica da significância estatística – Variáveis independentes
A lógica da significância estatística – Uma amostra representativa
A lógica da significância estatística –Amostra não representativa
A lógica da significância estatística –Amostra representativa de variáveis correlacionadas
Testes de significância para variáveis contínuas • Quando se conhece o erro padrão: teste da diferença das médias (mean difference); • Quando não se conhece o erro padrão: teste t
Teste de hipóteses: sumário • Escolher um nível de α (nível de significância) • Efetuar um teste estatístico baseado na hipótese nula. • Comparar o resultado do teste estatístico com o valor crítico, rejeitando a hipótese nula se o valor encontrado for maior ou igual ao valor crítico • Considerar o valor de p (probabilidade de observar um teste de significância supondo que a hipótese nula seja verdadeira).
Pesquisa experimental: análise da variância - ANOVA • ANOVA simples – teste estatístico da diferença de médias de dois ou mais grupos. • Este teste não é adequado para testar a relação linear entre variáveis, pois é sensível somente a diferenças nas médias amostrais, independentemente da ordem entre as categorias da variável independente.
Regressão e técnicas de correlação para variáveis contínuas • O gráfico de dispersão (scatterplot) para mostrar a relação entre variáveis mensuradas continuamente.
Medidas de associação • Característica principal da maioria das medidas de associação empregadas na metodologia quantitativa para as ciências sociais: PRE – proportional reduction in error (redução proporcional no erro) – permite o cálculo da redução em erros de predição da variável dependente, com base no conhecimento de sua relação com uma variável independente.
Medidas de associação – r de Pearson • O coeficiente de correlação produto-momento, ou r de Pearson indica a direção e a magnitude da associação. Varia de -1 a 1.
Medidas de associação para variáveis nominais • Lambda (λ) – para variáveis nominais. Varia de 0 a 1. O lambda é um coeficiente assimétrico: o valor obtido ao prever Y de X não é, em geral, o valor obtido ao prever X de Y. • V de Cramer e coeficiente de contingência (C) – não se baseiam no princípio PRE
Medidas de associação para variáveis ordinais • Gama (γ) – coeficiente mais usado associação de variáveis ordinais. Gama é simétrico e varia de -1 a 1, com 0 indicam ausência de relação. O valor de gama não depende dos totais marginais de linhas ou colunas. Porém, somente os pares não vinculados (untied pairs) de casos são usados para calcular gama. • Tau b (τb) – considera todo par possível de observações na tabela de contingência, inclusive o número de pares vinculados, embora não o número de vínculos nas duas variáveis. É adequado quando o número de linhas é igual ao número de colunas. • Tau c (τc) – quando o número de linhas não é igual ao número de colunas
Medidas de associação para variáveis ordinais • Sommers`s dyx é uma medida assimétrica cujo valor depende de qual variável desempenha qual papel (similar ao caso de lambda para variáveis nominais). • Ρ (Rô) de Spearman – para dados ranqueados (medidas discretas ordenadas), em que cada observação recebe um número de 1 a N (número de casos da amostra), que reflete sua colocação relativa a outras observações. Ex: os alunos de uma classe, ordenados por suas notas, desde que não haja casos vinculados, ou seja, mais de um aluno com a mesma nota. • Coeficientes para tabelas 2 x 2: Q de Yule – medida simétrica de associação, equivalente a gama. • Phi (Φ) – é idêntico ao r de Pearson, só que para tabelas 2 x 2. Diferentemente do Q de Yule, Φ não é sensível à distribuição de casos nas linhas e colunas marginais da tabela.
Medidas de associação para variáveis ordinais • Odds ratio (razão de possibilidades) – constitui hoje a medida mais importante para tabelas 2 x 2 e maiores, por causa de sua relação com os modelos log-lineares (análise multivariada de variáveis discretas). A associação entre um par de variáveis discretas pode ser mensurada calculando o quociente entre o produto das células extremas da diagonal principal e o produto das células extremas da diagonal secundária da tabela de contingência.