Brazilian Journal of Pain
https://brjp.org.br/article/doi/10.5935/2595-0118.20200199
Brazilian Journal of Pain
Editorial

Should we retire statistical significance?

Devemos aposentar a significância estatística?

Luis Claudio Lemos Correia, Gabriela Oliveira Bagano, Milton Henrique Vitória de Melo

Downloads: 0
Views: 500


Dear Editor,

The article entitled “Retire Statistical Significance” from the Nature journal had great repercussion, criticizing statistical dogmatism and promoting an analysis on both sides of the same coin. On one hand, the value of the reflection brought by the authors. On the other hand, the unintended consequences of the retirement of the concept of statistical significance. The first point of view relates to the bias of value overestimation; the second point relates to the bias of positivism. 
The concept of statistical significance is dichotomous, that is, it categorizes the analysis as “positive” or “negative”. Categorizing adds pragmatic utility, but all categorization is an arbitrary reductionism. When categorizing for pragmatic reasons, we should understand categories as something less important than the view of the whole. The categorization paradox occurs when we start to give more value to the information because it’s categorical rather than continuous. Continuous information accepts the shades of gray, the intermediate, the doubt, while the categorical gives a definite (pseudo) tone to the statement. 
Statistics is the exercise of recognizing uncertainty, doubt, chance. The definition of statistical significance was originally created to hinder claims arising from chance. The confidence interval was created to describe the inaccuracy of our statements. Statistics is the scientist’s exercise of integrity and humility. 
However, the categorization paradox fosters a certain dogmatism. First, the authors of the above-cited Nature article highlight the overvaluation of negative results. A negative study is not the one that proves the nonexistence, which would be impossible; it is merely a study that has not proven the existence. Therefore, strictly speaking, “absence of evidence is not evidence of absence”, as Carl Sagan stated. That is, “the study proved that there is no difference” is not the best way to describe it, and it’s preferable to say, “the study did not prove a difference”.
Such a point should not be mistaken for the idea that a negative study means nothing. It has value and impact. The impact of a negative study (p>0.05) lies in reducing the likelihood of the phenomenon to exist. As good studies fail to prove it, the probability of the phenomenon drops progressively to the point where it becomes so low that nullifies the attempt to continue to try, making the null hypothesis the most likely path of thought. 
A negative study is not necessarily contradictory in relation to a positive study. Perhaps, the result of the two may be the same when one failed to reject the null hypothesis, and the other was able to reject it. One could not see, and the other could see. In fact, most of the time, only one of the two studies are correct. 
Finally, the categorization paradox makes us believe in any statistical significance, although most are false positives (Ioannidis). A p-value <0.05 is not irrefutable proof. Undersized studies, the multiplicity of secondary analyses and biases can fabricate false statistical significance.
In fact, the predictive value (negative or positive) of studies does not lie solely in statistical significance, as it depends on the quality of the study and analysis, the scientific ecosystem, and the pretest probability of the idea. 
Therefore, the authors of the Nature article are right in criticizing the deterministic view of statistical significance. 

But the question looms: should we really retire statistical significance? 
Such an achievement would mean retiring an advent that has historically been responsible for a major evolution in scientific integrity. However, all that is good tends to be “borrowed”. Artists of false positivation of studies “borrowed” the advent of the p-value (created to difficult the type I error) to prove false things. 
While on one hand, the retirement of statistical significance would avoid the paradox of categorization, on the other hand, it would make room for the positivity bias, our tropism for creating or absorbing positive information. x
The criticism of statistical significance in this and other prominent articles does not provide a better alternative. For example, the author of the Nature article acknowledges that other, more recent statistical approaches (Bayesian, for example) do not abandon the categorization paradigm. In certain passages the authors even mention that they do not propose a total abandonment of the notion of statistical significance. Perhaps the title that reflects the real content of the article should be rephrased with a question mark: “Should We Retire Statistical Significance”? 
Currently, much more is discussed about scientific integrity than two decades ago. However, in approaching this subject with more emphasis than in the past, it may appear that this problem is worse nowadays. That’s not the case. We experience a clear evolution in scientific integrity: concepts of multiplicity are much more discussed today than in the past, clinical trials have their designs published a priori, journals require CONSORT publication standards and there is more discussion about scientific transparency, open science, slow science. We are evolving. And the first step towards integrity was the creation of the notion of statistical significance in the first half of the last century by Ronald Fisher. 
A study published in PLoS One  (Bob Kaplan) analyzed, over a long period of years, the results of clinical trials funded by the National Institutes of Health (NIH). Before the year 2000, when there was no need to previously publish the protocol, the frequency of positive studies was 57%, dropping to only 7% of positive studies after the a priori publication rule. Previously, the authors used to positive their studies by multiple a posteriori analyzes. Today, this has become less frequent due to the obligation to publish a priori.
The impression is that it has become elegant to criticize the p-value, which seems to be a betrayal of an advent of great historical importance and which, until now, has not found a better substitute. We can’t blame P for being “borrowed” by malicious researchers. Researchers are to blame. 
Therefore, we propose to maintain the p-value and adopt the following measures:
• Describe the p-value only when the study has a suitable size for the hypothesis test. Otherwise, it would gain a more descriptive character, without using associations for testing of concepts. This would avoid false positives stemming from “small studies”, which is the case of most published articles. For example, the median statistical power of biomedicine studies is 20%;
• Don’t describe the p-value in secondary outcome analyzes; 
• In (exploratory) subgroup analyzes, use only the interaction P (more conservative and difficult to give meaning), avoiding the p-value obtained by the comparison within a subgroup (small studies); 
• Include in CONSORT the obligation for the authors to make explicit in the sub-studies title that it’s an exploratory and secondary analysis of a previously published study; 
• Abandon the term “statistical significance”, replacing it with “statistical accuracy”. Statistics is used to differentiate true causal associations from chance-mediated pseudo-causalities. Therefore, a p-value of <0.05 connotes accuracy. Whether the association is significant (relevant), it depends on the description of the numerical difference or the association measures of categorical outcomes. Thus, using “statistical accuracy” avoids the confusion between statistical significance and clinical significance. 
Finally, we propose the advent of the “researcher integrity index”.
This index will be calculated by the ratio between the number of negative studies/number of positive studies. An integrity index <1 indicates a researcher of questionable integrity. This index is based on the assumption that the probability of a good hypothesis being true is less than 50%. Therefore, there should be more negative than positive studies. This does not occur due to the positivation techniques of studies (small papers, multiplicities, biases, spin of conclusions) and the publication bias that hides negative studies. A righteous author would be the one who does not use these practices and therefore would have several negative and few positive studies, resulting in an integrity index well above 1.
The Nature article is useful for promoting a reflection on the pros and cons of statistical significance. Nevertheless, it does not propose its retirement.  Such a thing would be analogous to retiring a still very productive person.  Conversely, statistical significance should remain active and progressively evolving in its use.
Let us also learn to value a p>0.05. After all, the unpredictability of life is represented by this symbology, much of people’s fate is mediated by chance.
Or nothing happens by chance?

Resumo

Senhor editor,

Em publicação no periódico Nature, repercutiu o artigo intitulado “Retire Statistical Significance”, que traz uma reflexão crítica a respeito do dogmatismo estatístico, suscitando uma análise sobre os dois lados da mesma moeda. De um lado, o valor da reflexão trazida pelos autores. Do outro lado, as consequências não intencionais da aposentadoria do conceito de significância estatística. O primeiro ponto de vista relaciona-se com o viés da superestimativa do valor; o segundo ponto guarda relação com o viés do positivismo. 
O conceito de significância estatística é dicotômico, isto é, categoriza a análise em “positiva” ou “negativa”. Categorizar agrega utilidade pragmática, porém toda categorização é um reducionismo arbitrário. Ao categorizar por questões pragmáticas, deveríamos entender categorias como algo de menor valor do que a visão do todo. O paradoxo da categorização ocorre quando passamos a valorizar mais a informação por esta ser categórica e não contínua. A informação contínua aceita os tons de cinza, o intermediário, a dúvida, enquanto a categórica atribui um tom (pseudo) definitivo à afirmação. 
Estatística é o exercício de reconhecer a incerteza, a dúvida, o acaso. A definição de significância estatística foi originalmente criada para dificultar afirmações decorrentes do acaso. O intervalo de confiança foi criado para descrever a imprecisão de nossas afirmações. Estatística é o exercício de integridade e humildade do cientista. 
No entanto, o paradoxo da categorização fomenta um certo dogmatismo. Primeiro, os autores do artigo supracitado da Nature apontam a supervalorização de resultados negativos. Estudo negativo não é o que comprova inexistência, o que seria impossível; simplesmente, é um estudo que não comprovou existência. Portanto, a rigor, “ausência de evidência não é evidência de ausência”, como afirmou Carl Sagan. Isto é, “o estudo comprovou que não existe diferença” não constitui a melhor forma de descrever, sendo preferível pontuar “o estudo não comprovou diferença”.
Não se deve confundir tal colocação com a ideia de que um estudo negativo não quer dizer nada. Ele tem valor e tem impacto. O impacto de um estudo negativo (p>0,05) encontra-se na redução da probabilidade de o fenômeno existir. Na medida em que bons estudos não conseguiram comprovar um fenômeno, a probabilidade do mesmo cai progressivamente até o ponto em que se torna tão baixa que invalida o sentido de continuar tentando provar, tornando a hipótese nula o caminho de pensamento mais provável. 
Um estudo negativo não é necessariamente contraditório em relação a um estudo positivo. Eventualmente, o resultado dos dois pode ser o mesmo, quando um não conseguiu rejeitar a hipótese nula, e outro conseguiu fazê-lo. Um não conseguiu ver e outro conseguiu ver. Na verdade, na maioria das vezes, apenas um dos dois estudos está correto. 
Por fim, o paradoxo da categorização faz com que acreditemos em qualquer significância estatística, embora a maioria seja falso positivo (Ioannidis). Valor de p<0,05 não é comprovação irrefutável. Estudos subdimensionados, multiplicidade de análises secundárias e vieses podem fabricar falsa significância estatística.
Na verdade, o valor preditivo (negativo ou positivo) de estudos não reside apenas na significância estatística. Essa questão depende da qualidade do estudo e da análise, do ecossistema científico e da probabilidade pré-teste da ideia. 
Portanto, os autores do artigo da Nature estão corretos em criticar a visão determinística da significância estatística. 

Mas, paira o questionamento: será que devemos mesmo aposentar a significância estatística? 
Tal feito significaria aposentar um advento que historicamente foi responsável por uma grande evolução de integridade científica. Todavia, tudo que é bom tende a ser “sequestrado”. Artistas da falsa positivação de estudos “sequestraram” o advento do valor de p (feito para dificultar o erro tipo I) para provar coisas falsas. 
Se por um lado a aposentadoria da significância estatística evitaria o paradoxo da categorização, por outro lado abriria espaço para o viés da positividade, nosso tropismo por criar ou absorver informações positivas. 
A crítica à significância estatística, neste e em outros artigos de visibilidade, não traz uma alternativa melhor. Por exemplo, o próprio autor do trabalho da Nature reconhece que outras abordagens estatísticas mais recentes (bayesiana, por exemplo) não abandonam o paradigma da categorização. Inclusive, em certas passagens, os autores mencionam que não propõem um total abandono da noção de significância estatística. Talvez o título que traduza o verdadeiro teor do artigo deveria conter uma interrogação: “Retire Statistical Significance?”.
Atualmente, discute-se muito mais sobre integridade científica do que há duas décadas. Entretanto, ao abordar esse assunto com mais ênfase do que no passado, surge a impressão de que este é um problema pior nos dias de hoje. Não é o caso. Experimentamos clara evolução de integridade científica: conceitos de multiplicidade são mais discutidos hoje do que no passado, ensaios clínicos têm obrigatoriamente seus desenhos publicados a priori, normas CONSORT de publicação são exigidas por revistas, fala-se muito mais em transparência científica, open science, slow science. Estamos evoluindo. E o primeiro passo da integridade foi a criação da noção de significância estatística na primeira metade do século passado, por Ronald Fisher. 
Um estudo publicado na PLoS One (Bob Kaplan) analisou, durante um longo período de anos, os resultados de ensaios clínicos financiados pelo National Institutes of Health (NIH). Antes do ano 2000, quando não havia a necessidade de publicar previamente o protocolo, a frequência de estudos positivos era de 57%, caindo para apenas 7% após a regra de publicação a priori. Antes, os autores positivavam seus estudos por análises múltiplas a posteriori. Hoje, isso tem se tornado menos frequente pela obrigatoriedade de publicação a priori.
A impressão que paira é que se tornou elegante criticar o valor de p, o que parece traição a um advento de grande importância histórica e que, até então, não encontrou um substituto melhor. Não é culpa do P se ele foi “sequestrado” por pesquisadores mal-intencionados. É culpa dos pesquisadores. 
Portanto, propomos manter o valor de p e adotar as seguintes medidas:
• Descrever o valor de p apenas quando o estudo tiver uma dimensão adequada para o teste de hipótese. Do contrário, este ganharia um caráter mais descritivo, sem utilizar associações para testes de conceitos. Isso evitaria falsos positivos decorrentes de “estudos pequenos”, a maioria dos artigos publicados. Para exemplificar, a mediana do poder estatístico de estudos em biomedicina é 20%;
• Não descrever o valor de p em análises de desfechos secundários; 
• Em análises de subgrupo (exploratórias), utilizar apenas o P da interação (mais conservador e difícil de dar significado), evitando o valor de p obtido pela comparação dentro de um subgrupo (estudos pequenos); 
• Incluir no CONSORT a obrigatoriedade de os autores explicitarem no título de subestudos que aquela é uma análise exploratória e secundária de um estudo previamente publicado; 
• Abandonar o termo “significância estatística”, substituindo-o por “veracidade estatística”. Estatística é utilizada para diferenciar associações causais verdadeiras de pseudocausalidades mediadas pelo acaso. Portanto, um valor de p<0,05 conota veracidade. A significância (relevância) da associação depende da descrição da diferença numérica ou das medidas de associação de desfechos categóricos. Destarte, utilizar “veracidade estatística” evita a confusão entre significância estatística e significância clínica. 
Finalmente, propomos o advento do “índice de integridade do pesquisador”.
Esse índice será calculado pela razão entre: número de estudos negativos/número de estudos positivos. Um índice de integridade < 1 indica um pesquisador de integridade questionável. Esse índice se baseia na premissa de que a probabilidade de uma boa hipótese ser verdadeira é menor que 50%. Portanto, deveria haver mais estudos negativos do que estudos positivos. Isto não ocorre devidos às técnicas de positivação de estudos (pequenos trabalhos, multiplicidades, vieses, spin de conclusões) e pelo viés de publicação, que esconde os estudos negativos. Um autor íntegro seria aquele que não utiliza essas práticas, portanto teria vários estudos negativos e poucos positivos, resultando em índice de integridade bem superior a 1.
O artigo da Nature se faz útil para promover a reflexão sobre prós e contras da significância estatística. Não obstante, não chega a propor sua aposentadoria. Tal feito seria análogo a aposentar uma pessoa ainda muito produtiva. Em contrapartida, que a significância estatística continue atuante e evoluindo progressivamente na forma de utilização.
Que aprendamos a valorizar também um p>0,05. Afinal, a imprevisibilidade da vida é representada por esta simbologia, boa parte do destino das pessoas é mediado pelo acaso.
Ou nada é por acaso?

6087453ea9539515f05ddb25 brjp Articles

BrJP

Share this page
Page Sections