Como fazer análise comparação multipla de hoshberg

Em estudos que buscam comparar a distribuição de três ou mais grupos de amostras independentes, frequentemente se utiliza a Análise de Variância ou ANOVA. Nesse caso, o resultado evidencia que a distribuição de pelo menos um dos grupos se difere das demais, mas não indica entre quais grupos a diferença é significativa. Assim, se faz necessário utilizar testes de comparações múltiplas e hoje, abordaremos um deles: o Teste de Tukey.

Para ilustrar a aplicação e utilização do Teste de Tukey, continuaremos utilizando o exemplo fictício apresentado no artigo sobre “Como interpretar uma Análise de Variância”. Nele, se buscava verificar se o desempenho na prova de matemática de alunos de um curso preparatório para o ENEM variava de acordo com o professor que lecionava a disciplina.

Como fazer análise comparação multipla de hoshberg

No exemplo, os resultados indicaram que existia pelo menos dois professores com alunos com desempenho significativamente diferentes. Agora, utilizaremos o Teste de Tukey para verificar quais são eles.

Leia também: Como interpretar uma Análise de Variância (ANOVA)

Como fazer análise comparação multipla de hoshberg

O Teste de Tukey

Dentre os testes de comparações múltiplas mais utilizados, o Teste de Tukey se destaca por ser poderoso ao fazer comparações entre todos os pares e também por ser de fácil aplicação. Também é conhecido como Teste de Tukey HSD (Teste de Tukey da Diferença Honestamente Significativa).

O teste de Tukey foi desenvolvido por John Wilder Tukey e apresentado em 1949 no artigo titulado “Comparing Individual Means in the Analysis of Variance” (Biometrics. 5 (2): 99–114. JSTOR 3001913).

Como fazer análise comparação multipla de hoshberg

Quando os tamanhos amostrais dos grupos são iguais, o Teste de Tukey é um teste exato, ou seja, para o conjunto de todas as comparações par a par, a taxa de erro do conjunto dos testes é exatamente α (nível de significância) e o intervalo de confiança é também exatamente 1 – α. Vale ressaltar que testes de comparações múltiplas exatos são raros, uma vez que a maioria não controla o nível de significância adotado.

O Teste de Tukey consiste em comparar todos os possíveis pares de médias e se baseia na diferença mínima significativa (D.M.S.), considerando os percentis do grupo. No cálculo da D.M.S. utiliza-se também a distribuição da amplitude estudentizada, o quadrado médio dos resíduos da ANOVA e o tamanho amostral dos grupos.

Mas, e quando os tamanhos amostrais dos grupos são diferentes? Devo usar outro teste de comparação múltipla?

Quando os tamanhos amostrais dos grupos são diferentes, o Teste de Tukey ainda pode ser usado. Apesar de não ser mais um teste exato, é um teste aproximado. Nesse caso, o Teste de Tukey é alterado e passa a ser chamado de Tukey-Kramer, que também considera em sua metodologia o tamanho amostral de cada grupo.

Aplicação do Teste de Tukey

No artigo sobre a interpretação da ANOVA, verificamos que existia uma diferença significativa no desempenho dos grupos de alunos de cada professor. Mas será que apenas o grupo de alunos de um professor se difere dos demais? Ou todos se diferem entre si? Observe que neste caso existem três comparações par a par a serem realizadas.

Como fazer análise comparação multipla de hoshberg

Os resultados obtidos do Teste de Tukey são apresentados na tabela abaixo, que mostra a diferença mínima significativa, a diferença entre as médias do desempenho do grupo de alunos de cada professor, o intervalo de confiança e o valor-p.

Diferença Mínima SignificativaProfessoresDiferençaI.C. – 95%Valor P
88,18PROF_2 – PROF_1113,75[25,57 ; 201,93]0,009
PROF_3 – PROF_1-107,08[-195,27 ; -18,90]0,014
PROF_3 – PROF_2-220,83[-309,02 ; -132,65]0,001

Como interpretar os resultados do Teste de Tukey?

O teste pode ser interpretado com base no valor da diferença mínima significativa (D.M.S.), no intervalo de confiança e no valor-p.

  • Diferença Mínima Significativa – Em nosso exemplo, observamos que o módulo da diferença da média entre os pares de professores foi maior que o valor da D.M.S. obtido. Isso nos leva a concluir que o desempenho médio dos alunos dos professores (1 e 2), (1 e 3) e (2 e 3) são significativamente diferentes.
  • Intervalo de Confiança – Notamos que o valor 0 (zero) não está contido nos intervalos de confiança. A partir disso, conclui-se também que o desempenho médio dos alunos dos professores (1 e 2), (1 e 3) e (2 e 3) são significativamente diferentes.
  • Valor P – Considerando o valor-p, notamos que todos eles são menores que o nível de significância adotado (valor-p < 0,05). Dessa maneira, chegamos a mesma conclusão baseada na D.M.S e nos intervalos de confiança.

Como fazer análise comparação multipla de hoshberg

Como realizar o Teste?

No software R há pelo menos duas maneiras de realizar o Teste de Tukey: através do função TukeyHSD, ou função HSD.test do pacote agricolae. O resultado obtido em ambos os casos é o mesmo, porém em um dos comandos obtém-se o valor do D.M.S, enquanto que no outro tem-se o intervalo de confiança e o valor-p.

Pressupostos para utilização do teste

Para realizar o Teste de Tukey, deve ser levada em conta as seguintes suposições:

  1. As observações são independentes dentro e entre os grupos;
  2. Os grupos devem ser normalmente distribuídos;
  3. A variância dentro do grupo deve ser constante.

Mas o que fazer quando a suposição da normalidade, por exemplo, não é atendida?

Um procedimento alternativo à ANOVA e ao Teste de Tukey é o teste de Kruskal-Wallis e o teste de comparação múltipla de Nemenyi, temas que serão abordados em futuros artigos. Por isso, não deixe de acompanhar nosso Blog.

Na estatística, a correção de Bonferroni é um dos vários métodos usados para lidar-se com o problema de comparações múltiplas.

A correção de Bonferroni é nomeada em homenagem ao matemático italiano Carlo Emilio Bonferroni por seu uso das desigualdades de Bonferroni.[1] Seu desenvolvimento é frequentemente creditado a Olive Jean Dunn, que descreveu a aplicação do procedimento a intervalos de confiança.[2][3]

Testes de hipóteses, na estatística, são baseados na rejeição de uma hipótese nula caso probabilidade dos dados observados acontecerem ao acaso (estritamente, sob hipóteses nulas) for baixa. Se várias hipóteses forem testadas, a chance de um evento raro aumenta e, logo, a probabilidade de rejeitar incorretamente uma hipótese nula (ou seja, cometer um erro Tipo I) aumenta.[4]

A correção de Bonferroni compensa esse aumento testando cada hipótese individual em um nível de significância maior de α / m {\displaystyle \alpha /m}   onde α {\displaystyle \alpha }   é o nível alfa geral desejado e m {\displaystyle m}   é o número de hipóteses.[5] Por exemplo, se uma avaliação estiver testando m = 20 {\displaystyle m=20}   hipóteses com α = 0.05 {\displaystyle \alpha =0.05}   , então a correção de Bonferroni testaria cada hipótese individual em α = 0.05 / 20 = 0.0025 {\displaystyle \alpha =0.05/20=0.0025}   .

Considere H 1 , … , H m {\displaystyle H_{1},\ldots ,H_{m}}   H 1 , … , H m {\displaystyle H_{1},\ldots ,H_{m}}   </img> como uma família de hipóteses e p 1 , … , p m {\displaystyle p_{1},\ldots ,p_{m}}   p 1 , … , p m {\displaystyle p_{1},\ldots ,p_{m}}   seus p-valores correspondentes. Considere m {\displaystyle m}   o número total de hipóteses nulas e m 0 {\displaystyle m_{0}}   o número de hipóteses nulas verdadeiras. A taxa de erro de família (do ingles, familywise error rate, FWER) é a probabilidade de rejeitar pelo menos um H i {\displaystyle H_{i}}   isto é, de fazer pelo menos um erro do tipo I. A correção de Bonferroni rejeita a hipótese nula para cada p i ≤ α m {\displaystyle p_{i}\leq {\frac {\alpha }{m}}}   , controlando assim a FWER ≤ α {\displaystyle \leq \alpha }   . A prova desse controle decorre da desigualdade de Boole, como segue:

{\displaystyle }
Como fazer análise comparação multipla de hoshberg
FWER = P { ⋃ i = 1 m 0 ( p i ≤ α m ) } ≤ ∑ i = 1 m 0 { P ( p i ≤ α m ) } = m 0 α m ≤ m α m = α . {\displaystyle {\text{FWER}}=P\left\{\bigcup _{i=1}^{m_{0}}\left(p_{i}\leq {\frac {\alpha }{m}}\right)\right\}\leq \sum _{i=1}^{m_{0}}\left\{P\left(p_{i}\leq {\frac {\alpha }{m}}\right)\right\}=m_{0}{\frac {\alpha }{m}}\leq m{\frac {\alpha }{m}}=\alpha .}  

Esse controle não requer nenhuma suposição sobre dependência entre os valores-p ou sobre quantas das hipóteses nulas são verdadeiras.[6]

Em vez de testar cada hipótese no α / m {\displaystyle \alpha /m}   nível, as hipóteses podem ser testadas em qualquer outra combinação de níveis que somem α {\displaystyle \alpha }  , desde que o nível de cada teste seja determinado antes de analisar os dados.[7] Por exemplo, para dois testes de hipóteses, um α {\displaystyle \alpha }   de 0,05 poderia ser mantida realizando um teste em 0,04 e o outro em 0,01.

Intervalos de confiança

A correção de Bonferroni pode ser usada para ajustar intervalos de confiança. Se alguém estabelece m {\displaystyle m}   </img> intervalos de confiança, e deseja ter um nível de confiança global de 1 − α {\displaystyle 1-\alpha }   , cada intervalo de confiança individual pode ser ajustado ao nível de 1 − α m {\displaystyle 1-{\frac {\alpha }{m}}}   .[2][3]

Existem outras formas de controlar a taxa de erro da família. Por exemplo, o método de Holm-Bonferroni e a correção de Šidák são considerados procedimentos universalmente mais poderosos do que a correção de Bonferroni. Ao contrário do procedimento de Bonferroni, esses métodos não controlam o número esperado de erros do tipo I por família (a taxa de erro Tipo I por família).[8]

Com relação ao controle do FWER, a correção de Bonferroni pode ser conservadora se houver um grande número de testes e / ou se as estatísticas de teste forem correlacionadas positivamente.

A correção vem ao custo de aumentar a probabilidade de produzir falsos negativos, isto é, reduzir o poder estatístico.[9]

Observe que essas críticas se aplicam ao controle do FWER em geral e não são específicas da correção de Bonferroni.

  1. Bonferroni, C. E., Teoria statistica delle classi e calcolo delle probabilità, Pubblicazioni del R Istituto Superiore di Scienze Economiche e Commerciali di Firenze 1936
  2. a b «Estimation of the Means for Dependent Variables». Annals of Mathematical Statistics. 29. JSTOR 2237135. doi:10.1214/aoms/1177706374 
  3. a b «Multiple Comparisons Among Means» (PDF). Journal of the American Statistical Association. 56. CiteSeerX 10.1.1.309.1277 . doi:10.1080/01621459.1961.10482090 
  4. Mittelhammer, Ron C.; Judge, George G.; Miller, Douglas J. Econometric Foundations. [S.l.: s.n.] ISBN 978-0-521-62394-0 
  5. Miller, Rupert G. Simultaneous Statistical Inference. [S.l.: s.n.] ISBN 9781461381228 
  6. «Multiple Hypothesis Testing in Genomics». Statistics in Medicine. 33. PMID 24399688. doi:10.1002/sim.6082 
  7. «Detecting patterns in protein sequences». J. Mol. Biol. 239. PMID 8014990. doi:10.1006/jmbi.1994.1407 
  8. «Are per-family Type I error rates relevant in social and behavioral science?». Journal of Modern Applied Statistical Methods. 14 
  9. «A farewell to Bonferroni: the problems of low statistical power and publication bias». Behavioral Ecology. 15. doi:10.1093/beheco/arh107 

  • Dunnett, C. W. (1955). «A multiple comparisons procedure for comparing several treatments with a control». Journal of the American Statistical Association. 50 (272): 1096–1121. doi:10.1080/01621459.1955.10501294 
  • Dunnett, C. W. (1964). «New tables for multiple comparisons with a control». Biometrics. 20 (3): 482–491. JSTOR 2528490. doi:10.2307/2528490 
  • Shaffer, J. P. (1995). «Multiple Hypothesis Testing». Annual Review of Psychology. 46: 561–584. doi:10.1146/annurev.ps.46.020195.003021 
  • Strassburger, K.; Bretz, Frank (2008). «Compatible simultaneous lower confidence bounds for the Holm procedure and other Bonferroni-based closed tests». Statistics in Medicine. 27 (24): 4914–4927. PMID 18618415. doi:10.1002/sim.3338 
  • Šidák, Z. (1967). «Rectangular confidence regions for the means of multivariate normal distributions». Journal of the American Statistical Association. 62 (318): 626–633. doi:10.1080/01621459.1967.10482935 
  • Hochberg, Yosef (1988). «A Sharper Bonferroni Procedure for Multiple Tests of Significance» (PDF). Biometrika. 75 (4): 800–802. doi:10.1093/biomet/75.4.800 

  • Avaliação do software: Bonferroni, Sidak
  • Correções de Múltiplos Testes em GeneSpring e Gene Expression
  •   Portal da matemática

Obtida de "https://pt.wikipedia.org/w/index.php?title=Correção_de_Bonferroni&oldid=62629879"