De Sokal a Schrag e o que (não) aprendemos no caminho

Ei-los, a cavalo num burro: os cavaleiros do Sokalipse

1 O caso Sokal

Alan Sokal é professor emérito de física na Universidade de Nova Iorque (NYU). Em 1996, tornou-se num nome extremamente popular no meio académico, mas não pelos seus feitos no campo da mecânica estatística ou combinatória, áreas que investigava ativamente. Em vez disso, foram os estudos culturais que protagonizaram a sua subida astronómica até à fama.

O Sokal affair [1] - “caso Sokal” - consistiu na publicação de um artigo numa reputada revista de estudos culturais. Contudo, este não era um artigo qualquer - na verdade, era completamente ridículo de acordo com o autor. Alan Sokal escreveu um artigo propositadamente mau com o intuito de demonstrar que qualquer artigo seria aceite desde que confirmasse uma certa forma de pensar, alinhada com os editores da revista.

Este erro de pensamento - quando acreditamos mais facilmente naquilo que favorece a nossa maneira de pensar - é comum a todos os meros mortais e é conhecido como “viés da confirmação”. Por exemplo: se o Eduardo torcer pela equipa de futebol A e lhe disserem que foram desfavorecidos pela arbitragem num jogo com a equipa B, o Eduardo tendencialmente vai assumir que isso é verdade. Outro exemplo: o Eduardo é militante do partido X quando o partido Y está no poder - tendencialmente, o Eduardo irá achar que as medidas do partido X não são as melhores para o país, ao passo que as medidas rejeitadas do partido Y são muito superiores.

No fundo, o caso Sokal tentou ser uma experiência que demonstra a existência deste viés nos estudos culturais, uma área tendencialmente progressiva e de esquerda. Como seria de esperar, adeptos do conservadorismo viram isto como um triunfo - para eles, Sokal acabara de provar que os estudos culturais não são robustos e não devem ser levados a sério! Infelizmente, ao que parece, a academia teimou em não aprender com o erro - anos depois, outros casos Sokal aconteceram. O mais conhecido, o Grievance studies affair [2] - “caso dos estudos da ofensa” - foi anunciado em 2018, com 4 artigos propositadamente ridículos aceites em revistas de estudos culturais, de género, queer, de raça ou de sexualidade.

2 Escândalo no cu dos outros para mim é refresco

O caso Sokal é uma menção frequente para os críticos de áreas académicas como as humanidades ou até algumas ciências. Contudo, há uma falha nesta análise que condena áreas não-científicas - as ciências também são frequentemente afectadas por casos semelhantes. O mais catedrático será o “Sokal das ciências computacionais” - mais de 120 artigos sem qualquer nexo e gerados por uma inteligência artificial foram publicados em várias revistas e conferências [4]. Não é surpreendente que a fama destes casos não faça frente à do caso Sokal original - há uma razão concreta para isso, atada ao modelo de produção científico e à percepção da sua utilidade. Comecemos por considerar outros exemplos de fraude e decepção na publicação científica.

As “fábricas de artigos” (paper mills) [5] são empresas que produzem artigos científicos “Frankenstein” a partir de resultados já publicados. Estas fábricas são uma maneira fácil de produzir artigos para cientistas que precisam de publicar muito para subir na carreira: a troco de algum dinheiro, cientistas podem aumentar o seu número de publicações facilmente. Outros escândalos viram investigadores a publicarem resultados falsos e fabricados em revistas altamente prestigiadas - veja-se o exemplo de Anil Potti [6] ou Sónia Melo [7]. Estas controvérsias não são novas nem escassas e estão bem documentadas - o site Retraction Watch [8] é uma plataforma dedicada à exposição destes casos problemáticos.

Mais recentemente, foi mostrado que uma das maiores teorias sobre a doença de Alzheimer foi o resultado de uma fabricação de dados - Matthew Schrag [9] finalmente desvendou este mistério em 2022. A publicação fraudulenta, de 2006 [10], conseguiu desviar milhares de milhões de dólares e tempo de trabalho para uma direção de investigação que, de outra maneira, não teria qualquer apoio e levando a que Sylvain Lesné, primeiro autor desse estudo, tivesse uma carreira brilhante depois disso. Apesar da fraude ter sido descoberta, isto não levou, por enquanto, à popularização de um “caso Schrag” ou que fossem levantadas questões sobre toda a área; as acusações de má conduta ficaram restringidas aos investigadores e são raramente generalizadas para todo o campo das neurociências. O peso colocado sobre o caso Sokal não é só injusto para os estudos culturais - beneficia tremendamente as ciências e previne que um olhar mais sério e cético seja colocado sobre inumeráveis estudos.

Seria ingénuo da minha parte considerar que o caso Sokal e o “caso dos estudos da ofensa” não são reveladores - demonstram problemas sérios no processo de publicação de artigos académicos que podem pôr em causa o conhecimento que temos sobre diferentes áreas. Seria também ingénuo da minha parte considerar que o caso Sokal e casos semelhantes ao “caso Schrag” são análogos perfeitos - de um lado temos um êngodo, do outro fraude; num lado o alvo são os estudos culturais, no outro são as ciências; de um lado temos o bobo, do outro temos o artista da decepção 1. A motivação maquiavélica do caso Sokal é substituída pela motivação financeira dos casos de má conduta científica. Isto explica, em parte, a diferença nas perceções - o caso Sokal foi um acto de má fé, um momento Kodak que pretendia capturar os estudos culturais a publicarem um artigo que não deviam ter publicado, os casos de má conduta científica são o produto do modelo capitalista e carreirista na ciência; os pecados da ganância atribuem-se ao indivíduo, os da decepção a um campo inteiro 2. Por outras palavras, a má fé e má conduta carreiristas nas ciências não são o suficiente para condenar uma área inteira, mas a má fé intencional nos estudos culturais chegam para que uma área inteira seja posta em causa. Dois pesos, dois “casos”, duas medidas.

  • 1 uso a palavra “artista” aqui de forma propositada: a fraude em causa consistiu na fabricação de imagens que confirmavam a teoria de Lesné [9], tal como muitos outros casos de fraude científica [11] - uma das grandes contribuidoras para a popularização deste fenómeno é sem dúvida Elizabeth Bik e seria um ótimo ponto de partida para quem quiser saber mais sobre o assunto [11], [12].

  • 2 devo parte destes reparos - o perdão dado ao caso Schrag por ser, até certo ponto, motivado financeiramente - a uma curta conversa que tive com Guilherme Queiroz.

  • O leitor atento poder-me-á dizer que esta diferença é considerável e uma justificação razóavel para as diferenças na percepção pública destes casos - no caso dos estudos culturais publicaram artigos que meramente confirmam aquilo em que já acreditavam! Contudo, este fenómeno - o viés da confirmação - é facilmente observável na ciência - em qualquer área, desde a física [13] até à ecologia [14] é claro que há vieses específicos em jogo e a porem em causa descobertas científicas. Um estudo, publicado em 2022, mostra que chegamos até a procurar activamente os casos específicos que confirmam as nossas expectativas sem que demos por isso [15]. Os erros cometidos sob a sombra destes vieses não são novos e há estratégias eficazes para os colmatar [16]. Contudo, é necessário reconhecer que a prevalência destes equívocos na ciência não é um problema que começa na pessoa que faz investigação - ela é apenas o produto das condições de produção científica, condições que a afastam cada vez mais dos frutos do seu trabalho e dos seus potenciais impactos.

    3 Pontos de tensão

    Nos dias que correm, maior parte dos investigadores sabem que podem ser alvo de vieses; contudo, este conhecimento convive com a necessidade de publicar - mais artigos implicam uma progressão de carreira mais imediata e consistente para a esmagadora maioria dos cientistas. Há portanto uma tensão entre um ideal de produzir boa ciência a um ritmo que permita a auto-inspeção saudável e outro de progredir na carreira ao produzir ciência a um ritmo acelerado.

    Em 2012 [17], a Amgen, uma farmacêutica americana, confirmou resultados antes reportados pela Bayer, farmacêutica alemã [18] - menos de um quarto dos estudos chave que reportavam fármacos para o tratamento de cancro são replicáveis. Por outras palavras, quando alguém diz “fizemos A, B e C e descobrimos que o fármaco X é eficaz”, há uma oportunidade relativamente baixa de outro investigador fazer A, B e C e confirmar que X é eficaz. Este fenómeno, transversal a várias ciências, é conhecido como a crise de reproducibilidade. Uma meta-análise (uma “análise de análises”) mostrou, em 2009, que menos de 2% dos investigadores admitem ter alguma vez falsificado resultados, apesar de 14% reportarem que conhecem colegas que falsificaram resultados e 72% conhecerem colegas com práticas de investigação questionáveis [19]. Com estas considerações em mente, é importante esclarecer que não há necessariamente uma crise na ciência mas sim na sua produção; por outras palavras, conseguimos progredir cientificamente, mas é preciso um olhar mais cuidadoso sobre os resultados. E para além disso é preciso que as instituições responsáveis pela curadoria da ciência não tenham medo de admitir que há lugar para erros e controvérsia.

    Consideremos o caso Schrag acima referido - as provas de que os resultados reportados pudessem ser replicados sempre foram escassas e durante anos houve acusações de falsificação, mas foi preciso que Matthew Schrag, no seu tempo livre, se dedicasse a provar essa falsificação [9]. Apesar destas provas agora serem abundantes, o artigo original é tímido nas suas palavras - ao acedermos à versão online deste artigo na revista Nature (uma das mais prestigiadas no mundo científico), somos alertados de que há “preocupações relativamente a algumas figuras neste artigo” e que os resultados devem ser usados com cuidado. Entretanto, outros estudos continuam a usar estes resultados como verídicos. A comunidade científica conseguiu caracterizar o problema extensivamente, mas a revista capaz de o resolver toma medidas insuficientes. No caso Sokal, os editores admitiram o seu erro e confessaram ter publicado o artigo em parte por acharem importante diversificar as opiniões que apresentavam na sua revista; Sokal era um físico com boa reputação, portanto configurava um elemento raro nos estudos culturais 3. No caso Schrag, os editores colocam um pequeno aviso, enquanto Sylvain Lesné continua a ter acesso a financiamento - em maio de 2022, Lesné recebeu uma bolsa de 760,000$ do NIH (National Institute of Health) [21], 4 meses depois de Schrag ter exposto as suas preocupações a este instituto [9].

  • 3 um estudo de 2022 mostrou a escala deste viés - artigos com autores conhecidos têm uma probabilidade muito maior de serem aceites para publicação [20].

  • A mensagem é clara: a comunidade científica levantou as suas suspeitas durante anos, mas as instituições responsáveis por ouvir os investigadores - desde revistas até agências de financiamento - escolheu ignorá-la.

    Fundamentalmente, as motivações de Lesné eram claras - prestígio, financiamento; a possibilidade de engano ou ingenuidade foi minimizada com a consistente publicação de dados falsificados ao longo dos anos [9]. Outros factores podem ser facilmente identificados - a precariedade associada à profissão [22] e os elevados níveis de burnout [23] são factores que tornam um trabalho que podia ser recompensador numa fonte de stress tremenda, onde o financiamento é em grande parte temporário. O público tende a confiar na ciência enquanto instituição e nos seus atores - num inquérito com 1,175 pessoas conduzido nos EUA, em 2018, 90% das pessoas disseram que achavam que os cientistas trabalham pelo bem da humanidade [24] - mas a consistência de alguns escândalos pode prejudicar isso. Outro ponto de tensão gera-se, desta vez do lado do público - é importante termos princípios e descobertas científicas como uma maneira de guiar a sociedade, mas é importante reconhecermos o valor que descobertas individuais podem (não) ter. A consistência e reprodução dos resultados faz parte da epistemologia científica - da maneira como o conhecimento científico é produzido - e é importante que o público o saiba, que os orgãos de comunicação social o ecoem, e que os investigadores o refiram.

    4 Ciência Lda.

    Uma questão importante levanta-se aqui - já sabemos que as carreiras dos investigadores dependem da publicação de artigos, mas qual é o interesse das revistas em publicá-los? Não podiam as revistas ser os guardiões imparciais do conhecimento? Será talvez um choque para grande parte dos leitores saber que a indústria da publicação científica é mais lucrativa do que a indústria da música [25], com uma receita na ordem dos 19 mil milhões de dólares em 2017. Mas a receita em si pouco nos diz - que parte disso se traduz em lucro? A Elsevier, a maior editora de revistas científicas a nível global, tem uma margem de lucro de aproximadamente 40%, maior do que as margens de lucro de empresas como a Google, Microsoft e Coca-Cola [26].

    Mas há aqui um problema - uma rápida pesquisa mostra que os jornais tradicionais têm margens de lucro inferiores a 15% [25]; como é possível que revistas científicas tenham margens de lucro mais de duas vezes superior a isso? A resposta está no trabalho que fica por pagar na comunidade científica.

    Os jornais tradicionais pagam - salvo algumas exceções [27] - aos jornalistas e editores encarregues de escreverem os seus artigos. Por outro lado, grande parte dos editores de revistas científicas não recebe por isso e nenhum investigador é pago por publicar em revistas científicas - o pagamento é feito na forma de “prestígio” e publicações, essa moeda de troca essencial para a progressão da carreira. Os investigadores também revêem os artigos de outros investigadores gratuitamente para as revistas científicas. Este processo é conhecido como peer review ou revisão por pares e é um processo essencial para certificar a qualidade de um artigo - durante este processo podem ser sugeridas alterações que tornem a investigação mais robusta como experiências adicionais ou melhor contextualização dos resultados. A razão para isto acontecer é simples mas triste - as revistas recusam-se a compensar os investigadores que levam a cabo a revisão, e os investigadores, individualmente, não têm o poder necessário para motivar uma mudança sistemática. Tem de haver uma luta organizada que coloque os investigadores e as agências de financiamento na busca por alternativas melhores, em que nenhum tenha de contribuir para uma indústria cativa dos lucros que produz para os seus acionistas.

    Para tornar tudo pior, é necessário que os investigadores paguem para publicar em praticamente todas as revistas de acesso aberto (revistas que disponibilizam “livremente” artigos científicos). Caso os artigos não estejam em acesso aberto, os investigadores - ou os centros de investigação que os empregam - têm de pagar por subscrições ou artigos. Finalmente, estes lucros não revertem para os investigadores, sendo que o financiamento público considerável tem de contribuir não só para a investigação em si mas também para a publicação destes artigos [26], [28]. Em Portugal e noutros países europeus, há medidas dedicadas à publicação em acesso aberto, de forma a que a investigação produzida com financiamento público seja disponibilizada para o público [29]. Esta medida, apesar de ótima pela sua transparência, é também uma forma complicada de continuar a financiar a indústria de publicação científica; alternativas internacionais e federadas que não priviligiem os lucros são necessárias, mas esta é uma conversa que, apesar de essencial, é evitada para não perturbar o mercado livre.

    Em suma, os investigadores:

    • Estão sob pressão para publicar porque isto tem uma influência directa sobre a carreira deles e caso não o consigam fazer podem perder o emprego
    • Beneficiam muitas vezes a quantidade e não a qualidade dos artigos científicos pois a primeira determina grande parte da carreira dos investigadores
    • Têm, na esmagadora maioria dos casos, a responsabilidade de garantir o financiamento que lhes permitirá sobreviver e conduzir e publicar a própria investigação
    • Têm de contribuir com trabalho não pago para rever o trabalho de colegas

    Torna-se fácil de perceber que há incentivo para os investigadores, enquanto indivíduos captivos de um sistema que os explora, produzirem investigação questionável a ritmos acelerados, tal como há incentivos para publicar esses artigos por parte das revistas científicas, que continuam a criar jornais e edições especiais para poderem motivar um maior número de publicações [30], [31]. O caso Schrag não é acidental; é um produto natural do complexo industrial de publicação científica. O caso Sokal e outros parecidos revelam algo importante - muitas vezes somos inconscientemente afectados por vieses que não nos permitem julgar algo correctamente. O caso Schrag e os seus muitos semelhantes tornam evidente que, na ciência, a combinação da conflação de “conhecimento” e “artigo científico” com a “quantidade de artigos científicos” como métrica de qualidade tem potenciais altamente danosos 4.

  • 4 a noção de que o conhecimento científico é equivalente a um conjunto de artigos científicos foi levada ao absurdo pela Meta: após treinarem um modelo de linguagem com um grande volume de artigos científicos [32], publicitaram-no como tendo sido treinado com o “conhecimento científico da humanidade” [33]. Foi disponibilizado e, após 3 dias, foi removido da internet após ter produzido artigos anti-semitas ou artigos sobre os benefícios de comer vidro ou sobre a vantagem da raça caucasiana sobre outras raças [34].

  • O problema não é o caso Sokal ter levantado controvérsia - seria preocupante caso tivesse sido ignorado - mas sim os casos Schrag não motivarem a tração necessária que levaria, ultimamente, a uma revolução no sistema de publicação, que remova o poder das mãos de grandes editoras e os passe para as mãos da comunidade científica.

    5 Quebrar o molde para imaginar soluções

    Uma citação popular de autoria dúbia servirá como motivação para esta última secção:

    “É mais fácil imaginar o fim do mundo do que o fim do capitalismo.” Frederic Jameson/Slavoj Žižek/Mark Fisher

    Esta citação refere-se à omnipresença do sistema capitalista que leva a que possibilidades pareçam impossíveis. No entanto, esta situação não é um diagnóstico terminal - apenas sugere que as soluções devem ser radicais e transformativas, contemplando maneiras completamente novas de ver o mundo da publicação científica. O nosso próprio corolário é necessário, não esquecendo que o próprio sistema de publicação é inerentemente capitalista:

    “É mais fácil imaginar o fim da ciência do que o fim da indústria de publicação científica.”

    5.1 Publicar ou perecer

    O mecanismo atual, em que a publicação é o requesito para o sucesso do investigador foi resumida há décadas: publicar ou perecer. Ao longo dos anos, as candidaturas a bolsas aumentam e os mesmos comités têm de as rever. Métricas simples e imediatas foram criadas para dar vazõa a este sem fim de publicações - assim nascem o volume de publicações e os “factores de impacto”. Este último - tipicamente abreviado para IF (do inglês impact factor) - é meramente o número médio de citações que uma revista tem por ano. Usando estas duas métricas (ou semelhantes), comités de avaliação podem avaliar a quantidade de artigos produzidos e a popularidade potencial dos mesmos. O principal problema é que nenhuma destas métricas se traduz numa avaliação directa da qualidade da ciência que cada investigador produziu - revistas com IF mais elevado têm, em teoria, processos de peer review mais exigentes, mas isto nem sempre é verdade. Dos 40,405 artigos retraídos na Retraction Watch Database - uma base de dados que vigia os artigos que são retraídos (a publicação é “anulada” devido a erros) - 257 pertencem a revistas grandes do grupo Nature, 161 à revista Science e 78 à Cell Press, 3 dos grandes grupos de publicação com IF tipicamente alto (números retirados no dia 19 de Novembro de 2022) [35]. É portanto necessário que, caso o sistema de financiamento continue a depender de bolsas, sejam dadas maiores capacidades aos comités de seleção para que possamos abandonar métodos de avaliação fracos que não representam verdadeiramente a qualidade da investigação.

    Contudo, continuam a haver problemas fundamentais nesta abordagem - quem escolhe o comité? O que define a “qualidade” de um artigo científico? É preciso pensar para lá desta pequena esfera de avaliação centrada no comité e pensar em alternativas que federalizem o poder por universidades ou centros de investigação. Porque é que há um comité, provavelmente enviesado, a avaliar propostas de investigação científica quando podemos recorrer ao conhecimento agregado de milhares de investigadores?

    A decisão de considerar uma proposta de investigação merecedora de bolsa devia cair na comunidade, não numa qualquer elite que representa a comunidade: avaliadores voluntários, cujo conhecimento é certificado por outros membros da comunidade (preferencialmente externos à rede de contactos do avaliador) podem constituir uma poderosa força para a avaliação de propostas científicas. Podemos também certificar-nos de que o roubo de ideias é minimizado ao tornar públicos os avaliadores de cada proposta após a avaliação, e minimizar o viés associado à popularidade dos autores ao manter o anonimato absoluto durante a avaliação (descrito acima na nota de margem 1). Isto é semelhante ao que já é feito na peer review de algumas revistas - o processo de revisão é anónimo, mas as identidades dos autores e revisores são reveladas após a publicação, prevenindo o abuso por parte dos revisores.

    5.2 Plataformas ou protocolos

    Em 2019, Mike Masnick publica o ensaio “Protocols, Not Platforms: A Technological Approach to Free Speech”. Neste notável documento, parte do perigoso falhanço associado à centralização das redes sociais e das suas capacidades de deter cativos dados de milhares de milhões de pessoas que as usam enquanto regulam o discurso como lhes é conveniente [36]. Daqui, Masnick imagina um mundo novo, em que são os protocolos e não as plataformas a estrela. Mas o que queremos dizer por protocolos e plataformas? O exemplo mais simples será com e-mail - apesar de haver várias plataformas de e-mail (Protonmail, Outlook, GMail, etc.) elas conseguem comunicar facilmente entre si; isto deve-se ao facto da comunicação por e-mail se servir de um protocolo comum. Isto é drasticamente diferente daquilo que vemos com as redes sociais populares que pertencem a empresas diferentes - não é possível publicar um tweet directamente no Facebook, por exemplo. Masnick argumenta que, ao orientarmos a internet para protocolos, podemos criar um ambiente competitivo entre plataformas; em vez de podermos aceder ao nosso feed do Facebook apenas no site da empresa, poderíamos usar um sem número de alternativas, que tentam capturar o nosso interesse para poderem derrotar os seus competidores. Atualmente, isto acontece com plataformas como o Reddit, um protocolo que pode ser acedido a partir de múltiplas apps - os utilizadores escolhem a maneira como acedem ao protocolo dependendo dos critérios pessoais de cada um [37].

    A relação desta abordagem com a publicação científica pode parecer elusiva, mas espero torná-la evidente aqui 5. Primeiro, os paralelos: tal como poucas empresas de redes sociais detêm os dados pessoas de milhares de milhões de pessoas, pelo menos 70% das publicações nas áreas da química, psicologia e ciências sociais pertencem a grandes grupos de publicação [39]. “Pertencem”, aqui, não é uma forma de expressão - as revistas detêm o artigo científico como posse própria, impedindo que a comunidade científica seja dona dos próprios produtos que fabrica. Portanto, como pode a comunidade científica destas grilhetas? Com isto identificamos os 2 problemas essenciais que nos permitem melhor ver o paralelo entre as plataformas de redes sociais e as plataformas de publicação científica (“revistas”): a centralização dos dados pessoais/da produção científica em pouquíssimas empresas e a falta de poder que cada indivíduo/investigador tem sobre os dados/a ciência que produz.

  • 5 devo a “Decentralized Infrastructure for (Neuro)science”, ensaio de Jonny Saunders [38], a inspiração para escrever sobre plataformas descentralizadas na ciência e algumas das soluções.

  • Para a comunidade científica poder deter os frutos do seu trabalho com o atual sistema seriam necessárias regulações a nível global, livrando as revistas científicas da posso do seu maior produto - o artigo científico. Como vemos vezes e vezes sem conta, regulações a nível global são raras e ineficientes - após décadas de multiplas “conferências de partes” sobre assuntos tão variados como o clima (COP27) ou corrupção (Convenção das Nações Unidas Contra a Corrupção) vemos pouca ação e um excesso de conversa sobre trivialidades, levando a “soluções” que pecam por tardias ou insuficientes. É portanto necessário desconsiderar corpos regulatórios - que prestam muito mais atenção às elites e outros grupos poderosos do que à comunidade de civis comuns [40] - e imaginar as nossas próprias soluções, livres dos interesses deturpados adoptados pelos nossos “representantes políticos”.

    Cada centro ou grupo de centros de investigação podia ter um pequeno servidor onde artigos científicos pudessem ser disponibilizados livremente antes da sua peer review - tipicamente chamados de preprints ou “pré-publicação”. Isto levaria a alguns custos - particularmente a nível informático e de pessoal. Contudo, se considerarmos o arXiv - um dos maiores servidores de preprints, lar para quase 2 milhões e quinhentos mil preprints, vemos que esta solução constitui uma fração dos custos de publicar em grandes grupos. No ano de 2021, o orçamento para hospedar este volume considerável de informação e pagar à equipa que cuida deste serviço não ultrapassou os 2 milhões e quinhentos mil dólares - praticamente um dólar por artigo por ano. Comparado com os custos médios da publicação em acesso aberto - 1917 e 1753 dólares para as ciências e medicina, respectivamente [41] - temos uma distância nas ordens de grandeza entre um serviço sem fins lucrativos e outros que têm de satisfazer acionistas.

    A criação destes sistemas de armazenamento descentralizado serviriam para criar uma rede distribuída de conhecimento científico, onde os direitos de autor e propriedade intelectual não deixariam o cientista ou, na pior das hipóteses, o centro de investigação. Com uma maneira que permitisse partilhar artigos científicos com diferentes níveis de privacidade e acesso - para salvaguardar a disseminação restria de artigos ou preprints com material potencialmente sensível - teríamos enfim o nosso protocolo de partilha de artigos, representando um investimento mínimo (potencialmente público) em comparação com aquilo que é pedido por empresas de publicação científica.

    A peer review, dentro deste protocolo, podia ser feita de uma maneira semelhante àquela que foi descrita para a avaliação de candidaturas a bolsas - uma comunidade de investigadores e centros de investigação valida e certifica-se mutuamente 6. Para além disso, a peer review em si podia ser objecto de avaliação - quando “centramos” o poder nos indivíduos que compõe a comunidade, as possibilidades multiplicam-se 7. Finalmente, caso houvesse alguma alocação de recursos para isso, poderia haver uma motivação financeira para a peer review - finalmente teríamos um sistema capaz de compensar monetariamente quem usa o seu tempo para melhorar a robustez do processo científico.

  • 6 devo este reparo - o facto de ser possível uma rede de certificação mútua entre cientistas e instituições que torna outras plataformas centrais de acreditação desnecessárias - a uma conversa (ou possivelmente mais) que tive com António José Preto.

  • 7 há, claro, o caso de maus atores na rede - investigadores que conseguiram credencializar-se falsamente. Mas isto não é específico deste protocolo - há casos semelhantes no atual modelo de financiamento [42]. Com uma rede onde o poder é descentralizado, seria possível que movimentos populares pudessem destituir fraudes - seria desnecessário esperar que alguma plataforma central tomasse uma ação que, fundamentalmente, também a prejudica a ela.

  • Finalmente, podemos considerar o papel que as revistas poderiam ter neste modelo - de forma semelhante a jornais periódicos, as revistas científicas podiam, no máximo, servir como plataformas de divulgação construídas sobre o protocolo de publicação - caso um artigo fosse de interesse magnânimo, várias plataformas teriam de competir para aceder ao direito de o divulgar em primeira mão. Isto existe em oposição ao modelo atual, em que vários investigadores se vêem forçados a gastar tempo na produção de artigos formatados especificamente para diferentes revistas, competindo com os seus pares e perdendo os direitos de publicação sobre o trabalho que produzem.

    5.3 Panaceias ou problemas

    Em outubro de 2022, a eLife, popular revista científica nas áreas das ciências da vida, anunciou uma nova maneira de publicar - em vez de publicar apenas os artigos que aceita, publica todos e ajusta o estado daqueles que conseguiram passar a peer review [43]. Mas a eLife não é a campeã de publicação aberta que muitos pensam - apesar de mais transparente, o processo de publicação com a eLife captura à mesma os direitos de publicação que de outra forma pertenceriam aos autores. Plataformas como a SciPost garantem que os autores mantêm os seus direitos e não cobram por publicações em acesso aberto [44]. Esta forma de publicar, que respeita os plenamente os autores, é conhecida como “acesso aberto diamante” [45] e adopta um modelo de peer review mais democrático e semelhante ao delineado acima - a opção e iniciativa de contribuir para a revisão científica de artigos parte dos investigadores. É, tanto quanto consigo imaginar, algo mais próximo de um sistema de publicação centralizado ideal 8.

  • 8 é impossível não referir aqui dois importantes aspecto destas plataformas: em primeiro lugar, muitas comunidades locais (particularmente na América Latina e Médio Oriente) dependem delas para publicarem, constituindo um importante órgão destes ecossistemas científicos. Em segundo lugar, o financiamento destas plataformas é, muitas vezes, escasso - a maior parte tem apenas um empregado a tempo inteiro, sendo que o resto do trabalho associado à publicação depende consideravelmente de trabalho voluntário [46]. Contudo, este último ponto não nos deve fazer desconsiderar este modelo de publicação; pelo contrário, deve fazer-nos perguntar: porque é que os recursos provenientes de bolsas de investigação para pagar taxas de publicação em acesso aberto exorbitantes não são canalizados para desenvolver alternativas sustentáveis e democráticas?

  • Estes novos métodos de publicação, apesar de centralizarem o poder de decisão e acreditação de cientistas, são uma lufada de ar fresco numa indústria que muitas vezes se recusa a inovar. Mostram-nos ainda que a disponibilização de artigos científicos para a apreciação da comunidade é importante e bem vinda. Finalmente, tornam evidente que é possível reimaginar a indústria de publicação científica - só nos falta imaginar o seu fim.

    Quando as soluções dependem de nós, a grande dificuldade em imaginar o que existe para lá do que vemos é vermo-nos enquanto seres capazes; disto, creio, temos todos culpa. É difícil imaginar as estruturas que podem surgir para capacitar novas maneiras de viver e trabalhar, tal como é difícil reconhecer que a atual existência é necessariamente hipócrita - o leitor atento, apontar-me-á o dedo, triunfante, por citar aqui artigos de revistas científicas que critico, ou até por já ter publicado com algumas das empresas que aqui critico. É uma crítica justa, mas não nos podemos esquecer que é sempre do sistema atual que partimos para o mudar.

    Não podemos livrar-nos, espontaneamente, das condições em que existimos, do mundo com o qual convivemos - é o nosso ar, quer queiramos quer não - e enquanto cientistas, é a partir daqui que vem a nossa subsistência. A maneira como a necessidade de publicar se torna indissociável do trabalho científico levou muitos a carreiras científicas de sucesso, mas tornou a produção de um bem comum numa indústria tóxica e lamacenta. Para prosseguir em frente, nada garante que tenhamos de continuar assim, e pouco ganhamos em fazê-lo: nada nos obriga a não ser tão livres como podemos ser.

    Referências

    [1]
    A. Sokal, “A physicist experiments with cultural studies,” 1996.
    [2]
    Y. Mounk, “What an audacious hoax reveals about academia,” The Atlantic. Atlantic Media Company, Oct. 2018. Available: https://www.theatlantic.com/ideas/archive/2018/10/new-sokal-hoax/572212/
    [3]
    A. Conner-Simons, “How three MIT students fooled the world of scientific journals.” https://news.mit.edu/2015/how-three-mit-students-fooled-scientific-journals-0414, Apr. 2015.
    [4]
    V. Noorden, “Publishers withdraw more than 120 gibberish papers.” http://dx.doi.org/10.1038/nature.2014.14763, Feb. 2014.
    [5]
    H. Else and V. Noorden, “The fight against fake-paper factories that churn out sham science.” http://dx.doi.org/10.1038/d41586-021-00733-5, Mar. 2021.
    [6]
    D. Lowe, “The Duke/Potti scandal, from the inside,” Science, Jan. 2015.
    [7]
    T. Firmino, “Sónia melo ilibada de fraude mas foi negligente e pouco rigorosa.” https://www.publico.pt/2016/10/28/ciencia/noticia/sonia-melo-ilibada-de-fraude-mas-foi-negligente-e-pouco-rigorosa-1749279, Oct. 2016.
    [8]
    R. Sohn, E. Kincaid, I. Oransky, and A. Marcus, “Retraction watch.” https://retractionwatch.com/.
    [9]
    C. Piller, “Blots on a field?” Science, Jul. 2022.
    [10]
    S. Lesné et al., “A specific amyloid-beta protein assembly in the brain impairs memory,” Nature, vol. 440, no. 7082, pp. 352–357, Mar. 2006.
    [11]
    E. Bik, “Science has a nasty photoshopping problem,” The New York Times, Oct. 2022.
    [12]
    H. Shen, “Meet this super-spotter of duplicated images in science papers.” http://dx.doi.org/10.1038/d41586-020-01363-z, May 2020.
    [13]
    M. Jeng, “A selected history of expectation bias in physics,” Aug. 2005, Available: https://arxiv.org/abs/physics/0508199
    [14]
    E. L. Zvereva and M. V. Kozlov, “Biases in ecological research: Attitudes of scientists and ways of control,” Sci. Rep., vol. 11, no. 1, p. 226, Jan. 2021.
    [15]
    P. Kaanders, P. Sepulveda, T. Folke, P. Ortoleva, and B. De Martino, “Humans actively sample evidence to support prior beliefs,” Elife, vol. 11, Apr. 2022.
    [16]
    C. Rock, “Five ways to take confirmation bias out of your experimental results.” https://blogs.stjude.org/progress/avoiding-confirmation-bias-scientific-research.html, Jan. 2018.
    [17]
    C. Glenn and L. M. Ellis, “Raise standards for preclinical cancer research.” http://dx.doi.org/10.1038/483531a, Mar. 2012.
    [18]
    F. Prinz, T. Schlange, and K. Asadullah, “Believe it or not: How much can we rely on published data on potential drug targets?” Nat. Rev. Drug Discov., vol. 10, no. 9, p. 712, Aug. 2011.
    [19]
    D. Fanelli, “How many scientists fabricate and falsify research? A systematic review and meta-analysis of survey data,” PLoS One, vol. 4, no. 5, p. e5738, May 2009.
    [20]
    N. Jones, “Authors’ names have ‘astonishing’ influence on peer reviewers.” http://dx.doi.org/10.1038/d41586-022-03256-9, Oct. 2022.
    [21]
    [22]
    OECD, “Reducing the precarity of academic research careers,” Organisation for Economic Co-Operation; Development (OECD), May 2021.
    [23]
    V. Gewin, “Pandemic burnout is rampant in academia.” http://dx.doi.org/10.1038/d41586-021-00663-2, Mar. 2021.
    [24]
    B. G. Southwell and K. White, “Science and technology: Public perceptions, awareness, and information sources.” https://ncses.nsf.gov/pubs/nsb20227/public-perceptions-of-science-and-technology.
    [25]
    S. Buranyi, “Is the staggeringly profitable business of scientific publishing bad for science?” The Guardian, Jun. 2017.
    [26]
    M. Hagve, “The money behind academic publishing,” Tidsskr. Nor. Laegeforen., vol. 140, no. 11, Aug. 2020.
    [27]
    K. Pequenino, “Carta aberta denuncia falta de pagamentos no novo semanário.” https://www.publico.pt/2022/07/20/sociedade/noticia/carta-aberta-denuncia-falta-pagamentos-novo-semanario-2014407.
    [28]
    Scienceogram, “Global private and public R&D funding.” https://scienceogram.org/blog/2013/05/science-technology-business-government-g20/.
    [29]
    FCT — open access policies.” https://www.fct.pt/acessoaberto/index.phtml.en.
    [30]
    M. Zul, “How many academic journals are there in the world?” https://publishingstate.com/how-many-academic-journals-are-there-in-the-world/2021/.
    [31]
    P. Crosetto, “Is MDPI a predatory publisher?” https://paolocrosetto.wordpress.com/2021/04/12/is-mdpi-a-predatory-publisher/, Apr. 2021.
    [32]
    R. Taylor et al., “Galactica: A large language model for science,” Nov. 2022, Available: https://arxiv.org/abs/2211.09085
    [33]
    W. D. Heaven, “Why meta’s latest large language model survived only three days online,” MIT Technology Review, Nov. 2022.
    [34]
    T. Greene, “Meta takes new AI system offline because twitter users are mean.” https://thenextweb.com/news/meta-takes-new-ai-system-offline-because-twitter-users-mean, Nov. 2022.
    [35]
    [36]
    M. Masnick, “Protocols, not platforms: A technological approach to free speech.” https://knightcolumbia.org/content/protocols-not-platforms-a-technological-approach-to-free-speech, Aug. 2019.
    [37]
    “Which reddit app do you use and why? (2021 edition).” https://www.reddit.com/r/Android/comments/o1z1dk/which_reddit_app_do_you_use_and_why_2021_edition/, Jun. 2021.
    [38]
    J. Saunders, “Decentralized infrastructure for (neuro)science.” https://jon-e.net/infrastructure/.
    [39]
    F. MacDonald, “These five companies control more than half of academic publishing.” https://www.sciencealert.com/these-five-companies-control-more-than-half-of-academic-publishing, 2015.
    [40]
    M. Gilens and B. I. Page, “Testing theories of american politics: Elites, interest groups, and average citizens,” Perspectives on Politics, vol. 12, no. 3, pp. 564–581, Sep. 2014.
    [41]
    H. Morrison, L. Borges, X. Zhao, T. L. Kakou, and A. N. Shanbhoug, “Open access article processing charges 2011 - 2021,” 2021.
    [42]
    J. Rasko and C. Power, “Dr con man: The rise and fall of a celebrity scientist who fooled almost everyone,” The Guardian, Sep. 2017.
    [43]
    M. B. Eisen et al., “Peer review without gatekeeping,” Elife, vol. 11, Oct. 2022.
    [44]
    P. Rudolf, SciPost: about.” https://scipost.org/about.
    [45]
    Science Europe, “Diamond open access.” https://www.scienceeurope.org/events/diamond-open-access/.
    [46]
    J. Bosman, J. E. Frantsvåg, B. Kramer, P.-C. Langlais, and V. Proudman, OA diamond journals study. Part 1: findings.” Mar. 2021.