Capítulo 28 Associação entre variáveis
Testes de associação são usados para verificar se existe uma relação estatisticamente significativa entre duas variáveis categóricas. A escolha do teste depende do tipo de variável e do tamanho da amostra.
A aplicação desses testes é fundamental em diversas áreas do conhecimento.
28.1 Tipos de Variáveis Envolvidas
Os testes de associação são aplicados principalmente a variáveis qualitativas nominais, como:
- Sexo (Masculino, Feminino)
- Presença de Doença (Sim, Não)
28.2 Tabela de Contingência
Uma tabela de contingência é uma ferramenta estatística utilizada para organizar e analisar a relação entre duas (ou mais) variáveis categóricas. Ela apresenta a distribuição conjunta das frequências observadas de cada combinação possível dos níveis das variáveis, facilitando a identificação de possíveis associações entre elas.
Exemplo:
Considere uma pesquisa em que se investiga a associação entre sexo e presença de uma determinada doença em uma amostra de pessoas:
Doença: Sim | Doença: Não | Total | |
---|---|---|---|
Masculino | 8 | 7 | 15 |
Feminino | 5 | 10 | 15 |
Total | 13 | 17 | 30 |
Cada célula da tabela mostra o número de pessoas de cada sexo que têm ou não têm a doença, permitindo analisar se existe associação entre essas variáveis.
28.2.1 Cálculo das Frequências Esperadas
As frequências esperadas são valores teóricos que indicam quantas ocorrências seriam esperadas em cada célula de uma tabela de contingência caso não houvesse associação entre as variáveis (ou seja, se fossem independentes). Elas são fundamentais para a realização do teste qui-quadrado de independência.
Como calcular?
Para cada célula da tabela de contigência (frequências observadas), usamos a seguinte conta:
\[ \text{Frequência Esperada} = \frac{\text{Total da Linha} \times \text{Total da Coluna}}{\text{Total Geral}} \]
O “Total da Linha” é o total de pessoas daquela linha (por exemplo, todos os homens).
O “Total da Coluna” é o total de pessoas daquela coluna (por exemplo, todos que têm a doença).
O “Total Geral” é o total de pessoas da tabela toda.
Da tabela de contigência do exemplo anterior, podemos efetuar os cálculos
Masculino, Doença: Sim \[ \frac{15 \times 13}{30} = \frac{195}{30} = 6,5 \]
Masculino, Doença: Não \[ \frac{15 \times 17}{30} = \frac{255}{30} = 8,5 \]
Feminino, Doença: Sim \[ \frac{15 \times 13}{30} = 6,5 \]
Feminino, Doença: Não \[ \frac{15 \times 17}{30} = 8,5 \]
Então, nesse caso a tabela de frequências esperadas é dada por:
Doença: Sim | Doença: Não | Total da linha | |
---|---|---|---|
Masculino | 6,5 | 8,5 | 15 |
Feminino | 6,5 | 8,5 | 15 |
Total da coluna | 13 | 17 | 30 |
A tabela acima mostra as frequências que seriam esperadas em cada célula caso não existisse associação entre sexo e presença de doença.
A essência dos testes de associação é comparar a tabela de frequências observadas (com os dados reais coletados) com a tabela de frequências esperadas (calculada considerando que não exista relação entre as variáveis, ou seja, que sejam independentes). A tabela observada mostra quantas vezes cada combinação de categorias realmente aconteceu, enquanto a tabela esperada mostra quantas vezes cada combinação seria esperada ao acaso. O teste avalia se as diferenças entre o que foi observado e o que seria esperado são grandes o suficiente para indicar uma associação entre as variáveis. Portanto, a comparação entre essas duas tabelas está no centro da análise para determinar se existe ou não uma relação significativa entre as variáveis estudadas.
Na prática, todos esses cálculos acontecem nos bastidores, pois utilizamos ferramentas computacionais que realizam automaticamente tanto o cálculo das frequências esperadas quanto a comparação com os valores observados. Assim, normalmente não precisamos calcular manualmente cada valor esperado ou montar todas as tabelas. No entanto, é fundamental compreender o conceito central dos testes de associação: eles servem para comparar o que foi realmente observado com o que seria esperado caso não houvesse relação entre as variáveis, ajudando a identificar se existe ou não uma associação significativa entre elas.
28.3 Principais Testes de Associação
É importante destacar que existem diversos métodos estatísticos para analisar a associação entre variáveis categóricas, dependendo do tipo de dados e da estrutura da tabela de contingência.
Além dos tradicionais teste qui-quadrado e teste exato de Fisher, há outros métodos que podem ser aplicados conforme a situação:
- O teste G (ou teste da razão de verossimilhança) é uma alternativa ao qui-quadrado, baseado em outra abordagem matemática, mas com objetivo semelhante.
- O teste de McNemar é indicado para tabelas 2x2 com dados pareados, como em estudos antes e depois.
- O teste de Mantel-Haenszel avalia a associação entre variáveis, controlando possíveis fatores de confusão por meio da estratificação, sendo muito usado em estudos epidemiológicos.
- O teste de tendência linear de Cochran-Armitage é recomendado quando as categorias possuem uma ordem natural e se deseja avaliar a existência de tendência linear entre elas.
- Existem ainda o teste de concordância Kappa de Cohen, que mede o grau de concordância entre avaliadores, e o teste exato de Barnard, alternativa ao teste de Fisher em tabelas 2x2.
A escolha do teste adequado depende do tamanho da amostra, da distribuição dos dados, do tipo de variável (nominal ou ordinal), da estrutura dos dados (independentes ou pareados) e do objetivo da análise.
28.3.1 Exemplos
Exemplo na Medicina:
Investigar se há associação entre o sexo do paciente (masculino/feminino) e a presença de hipertensão (sim/não).
Variáveis: Sexo (masculino, feminino) e hipertensão (sim, não)
Aplicação: Monta-se uma tabela de contingência 2x2 e aplica-se o teste de associação para verificar se a proporção de hipertensos difere entre os sexos.
Exemplos na Psicologia
Verificar se existe associação entre tipo de terapia utilizada (cognitivo-comportamental, psicanalítica, humanista) e desfecho do tratamento (melhorou/não melhorou) em pacientes.
Variáveis: Tipo de terapia (três categorias) e desfecho (melhorou, não melhorou)
Aplicação: Monta-se uma tabela de contingência 3x2 e aplica-se o teste associação para analisar se o tipo de terapia está associado ao desfecho.
Exemplo na Educação Física
Analisar se há associação entre a participação em atividades extracurriculares (sim/não) e o nível de aptidão física (baixo/médio/alto) em estudantes do ensino médio.
Variáveis: Participação em atividades (sim, não) e aptidão física (baixo, médio, alto)
Aplicação: Cria-se uma tabela de contingência 2x3 e utiliza-se o teste de associação para verificar se a aptidão física difere conforme a participação em atividades extracurriculares.
28.3.2 Teste Qui-Quadrado
O teste qui-quadrado (\(\chi^2\)) é um dos métodos mais utilizados para avaliar se existe associação entre duas variáveis categóricas. Ele funciona comparando as frequências observadas nas células de uma tabela de contingência com as frequências que seriam esperadas caso não houvesse relação entre as variáveis.
- Hipótese nula (\(H_0\)): Não existe associação entre as variáveis “x” e “y”, ou seja, elas são independentes.
- Hipótese alternativa (\(H_1\)): Existe associação entre as variáveis.
Principais requisitos:
A amostra deve ser aleatória.
Pelo menos 80% das células da tabela devem ter frequência esperada igual ou superior a 5.
Nenhuma célula deve ter frequência esperada igual a zero.
Observação: Nenhuma célula deve ter frequência esperada igual a zero porque, no teste qui-quadrado, a fórmula envolve dividir pela frequência esperada. Se algum valor esperado for zero, não é possível fazer a divisão, pois divisão por zero é indefinida. Além disso, uma frequência esperada igual a zero indica que, teoricamente, aquela combinação de categorias não deveria ocorrer nunca, o que torna os cálculos e os resultados do teste estatístico inválidos ou sem sentido. Por isso, é importante garantir que todas as células tenham valores esperados maiores que zero para que o teste seja matematicamente correto e confiável.
O teste qui-quadrado pode ser aplicado em tabelas maiores que 2x2.
28.3.3 Teste Exato de Fisher
O teste exato de Fisher é recomendado quando os tamanhos das amostras são pequenos ou quando as frequências esperadas em alguma célula da tabela são menores que 5, situação em que o teste qui-quadrado pode não ser confiável.
Hipótese nula (\(H_0\)): Não existe associação entre as variáveis “x” e “y”, ou seja, elas são independentes.
Hipótese alternativa (\(H_1\)): Existe associação entre as variáveis.
É mais conservador do que o qui-quadrado, pois calcula a probabilidade exata de ocorrência das frequências observadas.
Tradicionalmente, é utilizado para tabelas 2x2 (dois grupos e duas categorias), mas pode ser estendido a tabelas maiores com recursos computacionais.
Não depende das condições de frequência esperada mínima.
28.3.4 Exemplo no R
Vamos analisar se há associação entre sexo (Masculino/Feminino) e presença de doença (Sim/Não) com os seguintes dados, da tabela de contingência que foi mencionada anteriormente:
Doença: Sim | Doença: Não | |
---|---|---|
Masculino | 8 | 7 |
Feminino | 5 | 10 |
Essa tabela pode ser repassada diretamente para o R:
# Crie a matriz de dados
tabela <- matrix(c(8, 7, # observe o uso de matrix() e c()
5, 10), # observe os parentes
nrow = 2, # numero de linhas
byrow = TRUE) # você está informando por linhas (by row)
# é opcional, mas ficará mais claro que se você nomear
# as linhas (row) e colunas (col) da sua tabela
colnames(tabela) <- c("Doença: Sim", "Doença: Não")
rownames(tabela) <- c("Masculino", "Feminino")
# Veja como ficou a tabela
tabela
## Doença: Sim Doença: Não
## Masculino 8 7
## Feminino 5 10
Para fazer o teste Qui-quadrado no R usamos chisq.test()
:
##
## Pearson's Chi-squared test with Yates' continuity correction
##
## data: tabela
## X-squared = 0.54299, df = 1, p-value = 0.4612
O resultado apresentado refere-se ao teste qui-quadrado de Pearson com a correção de continuidade de Yates, usada para tabelas 2x2:
A correção de continuidade de Yates é um ajuste aplicado ao teste qui-quadrado em tabelas 2x2 para evitar superestimação da significância estatística, especialmente em amostras pequenas. Ela consiste em diminuir a diferença entre os valores observados e esperados antes de calcular o qui-quadrado, tornando o teste mais conservador.
- X-squared: Valor do qui-quadrado calculado \(\chi^2 = 0,543\).
- df: Graus de liberdade (1), determinado pelo número de linhas e colunas da tabela. O cálculo é feito pela fórmula:
df = (número de linhas – 1) × (número de colunas – 1).
No exemplo, temos 2 linhas e 2 colunas: (2–1) × (2–1) = 1. - p-value: Valor de p (0,4612)
Como o valor de p é 0,4612 (maior do que o nível de significância de 0,05), não há evidências suficientes para rejeitar a hipótese nula. Portanto, não foi encontrada associação estatisticamente significativa entre sexo e presença de doença nessa amostra.
E, caso queira vizualizar as tabelas de valores observados e esperados basta fazer o seguinte:
## Doença: Sim Doença: Não
## Masculino 8 7
## Feminino 5 10
## Doença: Sim Doença: Não
## Masculino 6.5 8.5
## Feminino 6.5 8.5
Observação: Se alguma frequência esperada for menor que 5, o R emitirá um alerta. Nesses casos, considere usar o teste exato de Fisher:
Por, exemplos se substituirmos o 7 por 1, teremos
## Doença: Sim Doença: Não
## Masculino 8 1
## Feminino 5 10
## Warning in chisq.test(tabela2): Chi-squared approximation may be incorrect
##
## Pearson's Chi-squared test with Yates' continuity correction
##
## data: tabela2
## X-squared = 4.9343, df = 1, p-value = 0.02633
##
## Fisher's Exact Test for Count Data
##
## data: tabela2
## p-value = 0.01306
## alternative hypothesis: true odds ratio is not equal to 1
## 95 percent confidence interval:
## 1.30156 774.69430
## sample estimates:
## odds ratio
## 14.06912
p-value = 0.01306: O valor de p é menor que 0,05, indicando que existe uma associação estatisticamente significativa entre as duas variáveis analisadas. Isso significa que a chance de observarmos essa diferença (ou uma diferença maior) apenas por acaso é de aproximadamente 1,3%.
Odds ratio = 14.07: A razão de chances estimada é 14 vezes maior em um grupo do que no outro, sugerindo uma associação forte entre as categorias das variáveis.
Intervalo de confiança (1,30 a 774,69): O intervalo de confiança de 95% mostra que a razão de chances verdadeira, na população, pode variar de cerca de 1,3 até 774,7. Como esse intervalo não inclui o valor 1, reforça-se a evidência de associação.
28.3.5 Observação sobre tabelas de contingência em artigos científicos
Quando lemos um artigo que apresenta uma tabela de contingência (por exemplo, uma tabela cruzando sexo e presença de doença), estamos vendo exatamente a amostra utilizada pelo autor, com a distribuição real dos indivíduos nos diferentes grupos. Isso é diferente do que ocorre em testes de comparação de médias (como t-teste) ou correlação, onde geralmente temos acesso apenas a medidas-resumo (como média, desvio-padrão, coeficiente de correlação), e não aos dados individuais.
Nesse sentido, ter a tabela de contingência é praticamente o mesmo que ter os dados brutos dos autores, pois conhecemos exatamente a quantidade de participantes em cada combinação de categorias. Isso possibilita que qualquer leitor possa refazer os cálculos dos testes estatísticos (como o qui-quadrado ou Fisher) e, inclusive, explorar outras análises categóricas de interesse.
Em resumo, a tabela de contingência oferece um grau de transparência e reprodutibilidade muito maior do que apenas apresentar medidas-resumo, pois expõe toda a estrutura dos dados da amostra analisada.
28.4 Tamanho do Efeito: Medidas de Associação
Ao realizar testes de independência como o Qui-Quadrado ou o teste exato de Fisher para tabelas de contingência, é importante não apenas analisar o p-valor, mas também quantificar o tamanho do efeito, ou seja, a força da associação entre as variáveis categóricas.
A seguir são mostradas as principais medidas de tamanho de efeito.
28.4.1 V de Cramer
- Descrição: mede a intensidade da associação entre duas variáveis categóricas. Varia de 0 (nenhuma associação) a 1 (associação perfeita).
- Uso: Indicado para tabelas de contingência de qualquer dimensão.
Fórmula: \[ V = \sqrt{\frac{\chi^2}{n(k-1)}} \]
\(\chi^2\) = valor do teste Qui-Quadrado
\(n\) = total de observações
\(k\) = menor número entre linhas ou colunas
No R:
## Cramer V
## 0.2018
ou
## [1] 0.2018018
28.4.2 Phi de Pearson \((\phi)\)
- Descrição: Medida de associação para tabelas 2x2. Varia de 0 a 1.
- Uso: Exclusivo para tabelas 2x2.
Fórmula: \[ \phi = \sqrt{\frac{\chi^2}{n}} \]
No R:
## [1] 0.2018018
Interpretação dos valores:
- V de Cramer:
- Pequeno: ~ 0,1
- Moderado: ~ 0,3
- Forte: ~ 0,5 ou mais
- Phi: Interpretação semelhante ao V de Cramer para 2x2.
No exemplo, o valor obtido para o V de Cramer ou Phi foi de 0,20. De acordo com os critérios usuais para essa medida, valores em torno de 0,1 indicam associação pequena, valores próximos de 0,3 associação moderada e valores a partir de 0,5 associação forte entre as variáveis analisadas.
Além disso, como o teste estatístico realizado (por exemplo, Qui-Quadrado ou Fisher) indicou que não há associação significativa entre as variáveis (p>0,05), o resultado do V de Cramer reforça essa conclusão. Um valor de 0,20 sugere uma associação fraca, e como não há significância estatística, não se pode afirmar que exista uma relação relevante entre as variáveis na população estudada.
28.4.3 Odds Ratio (Razão de Chances)
Descrição: O Odds Ratio (OR) mede a força da associação entre dois eventos em tabelas 2x2, comparando as chances (odds) de um evento ocorrer em dois grupos diferentes. Ele indica se a ocorrência do evento em um grupo é mais, menos ou igualmente provável em relação ao outro grupo.
Uso: Teste de Fisher e tabelas 2x2.
Considere a estrutura da tabela 2x2:
Evento Presente | Evento Ausente | |
---|---|---|
Grupo 1 | a | b |
Grupo 2 | c | d |
Então odds ratio (OR), pode ser facilmente calculado:
\[ OR = \frac{a \times d}{b \times c} \]
Onde:
- a = número de casos com o evento presente no Grupo 1
- b = número de casos com o evento ausente no Grupo 1
- c = número de casos com o evento presente no Grupo 2
- d = número de casos com o evento ausente no Grupo 2
A interpretação do OR é a seguinte:
OR = 1:
Não há diferença entre os grupos. O evento tem a mesma chance de acontecer no Grupo 1 e no Grupo 2.
Exemplo: Se o OR for 1, os dois grupos têm risco igual para o evento.OR > 1:
O evento é mais provável no Grupo 1 do que no Grupo 2.
Exemplo: Se o OR for 2, o Grupo 1 tem o dobro de chance do evento comparado ao Grupo 2.OR < 1:
O evento é menos provável no Grupo 1 do que no Grupo 2.
Exemplo: Se o OR for 0,5, o Grupo 1 tem metade da chance do evento comparado ao Grupo 2.
No R:
## odds ratio
## 2.22194
O odds ratio (OR) calculado foi de 2,22.
O OR compara as chances de ocorrência da doença entre os grupos “Masculino” e “Feminino”.
OR = 2,22 indica que as chances de um indivíduo do sexo masculino ter a doença são aproximadamente 2,2 vezes maiores do que as chances de um indivíduo do sexo feminino.
Em outras palavras, a doença é mais provável entre os homens do que entre as mulheres neste conjunto de dados.
Ou usando o pacote epitools
:
## $data
## Doença: Sim Doença: Não Total
## Masculino 8 7 15
## Feminino 5 10 15
## Total 13 17 30
##
## $measure
## NA
## odds ratio with 95% C.I. estimate lower upper
## Masculino 1.000000 NA NA
## Feminino 2.203004 0.498955 10.60706
##
## $p.value
## NA
## two-sided midp.exact fisher.exact chi.square
## Masculino NA NA NA
## Feminino 0.3007786 0.4621374 0.2690235
##
## $correction
## [1] FALSE
##
## attr(,"method")
## [1] "median-unbiased estimate & mid-p exact CI"
O odds ratio (OR) indica que as chances de “Doença: Sim” são cerca de 2,2 vezes maiores no grupo Masculino em relação ao grupo Feminino.
O intervalo de confiança (IC) de 95% para o OR do grupo Feminino é de 0,50 a 10,61, o que inclui o valor 1. Isso sugere que esta diferença não é estatisticamente significativa.
Valores de p
Grupo | midp.exact | fisher.exact | chi.square |
---|---|---|---|
Feminino | 0,3008 | 0,4621 | 0,2690 |
Todos os valores de p são maiores do que 0,05, indicando que não há associação estatisticamente significativa entre sexo e presença de doença nesta amostra.
O uso da função
oddsratio()
do pacoteepitools
mostrou um OR de 2,2 para o grupo masculino, mas essa diferença (entre os grupos feminino e masculino) não é estatisticamente significativa. Isso significa que, com base nesses dados, não se pode concluir que há uma associação real entre sexo e presença de doença.
28.5 Cálculo do Poder Estatístico
O poder estatístico pode ser estimado usando o pacote pwr
, útil para calcular tamanho de efeito ou tamanho de amostra necessário.
# Exemplo para efeito 0,2, alfa = 0.05 e N = 30 (OBSERVE o N em MAIÚSCULO, tamanho da amostra)
pwr.chisq.test(w = 0.2, df = 1, N = 30, sig.level = 0.05)
##
## Chi squared power calculation
##
## w = 0.2
## N = 30
## df = 1
## sig.level = 0.05
## power = 0.1947752
##
## NOTE: N is the number of observations
- w (tamanho do efeito):
- Representa o tamanho do efeito, w é igual ao V de Cramer
- df (graus de liberdade):
- Indica o número de graus de liberdade do teste.
- Em uma tabela de contingência, é calculado como:
(número de linhas – 1) × (número de colunas – 1) - Exemplo: Para uma tabela 2x2, df = (2-1) × (2-1) = 1
Com uma amostra de 30 indivíduos, tentando detectar um efeito pequeno (w = 0,2) em um teste do qui-quadrado com 1 grau de liberdade e nível de significância de 5%, o poder do teste é de apenas cerca de 19,5%.
Isso significa que, se realmente existir uma associação do tamanho especificado entre as variáveis, o teste só terá cerca de 19,5% de chance de detectar essa associação (ou seja, rejeitar a hipótese nula corretamente).
Em geral, recomenda-se um poder estatístico de pelo menos 80% (0,8) para que o teste tenha boa chance de detectar uma associação real. Portanto, com essa configuração, o teste está subdimensionado (pouco poder) para detectar efeitos pequenos.