terça-feira, outubro 24, 2023

Seca extrema na Amazônia revela gravuras rupestres

A seca extrema na Amazônia voltou a revelar, nas últimas semanas, dezenas de gravuras pré-coloniais esculpidas em pedras há cerca de 2.000 anos e desconhecidas da maioria, em uma área da capital do Amazonas conhecida como praia das Lajes. Lívia Ribeiro quis comprovar se era verdade o que conhecidos de Manaus estavam comentado: uma aparição inesperada de dezenas de gravuras rupestres com formas humanas às margens de um rio amazônico. “Achava que fosse mentira. Nunca havia presenciado isso, vivo em Manaus há 27 anos”, disse a administradora, logo após se deslumbrar com as gravuras, que a fizeram pensar em seus antepassados.

O registro arqueológico costuma ficar coberto pelas águas do rio Negro, cujo caudal registrou na última terça-feira (17) o nível mais baixo em 121 anos. A aparição das gravuras, que encanta tanto cientistas quanto o público em geral, contrasta com a emergência que enfrentam centenas de milhares de pessoas na região. “A gente pode vir, olhar, achar bonito, mas muitas pessoas passam necessidade neste momento, e a gente pensa nelas. Também imagino se daqui a 50, 100 anos esse rio vai existir”, diz Lívia.

A seca na Amazônia reduziu drasticamente o nível dos rios nas últimas semanas, afetando sensivelmente uma região que depende de um labirinto de vias fluviais para o seu transporte e abastecimento. O governo enviou ajuda de emergência à região, onde as margens dos rios, normalmente movimentadas, tornaram-se terras acidentadas, pontilhadas de barcos parados. 

Segundo especialistas, a estação seca na Amazônia se agravou neste ano devido à ação do El Niño, somada ao efeito das mudanças climáticas.

As gravuras da praia das Lajes, um sítio arqueológico de grande relevância, segundo Jaime Oliveira, arqueólogo do Iphan (Instituto do Patrimônio Histórico e Artístico Nacional), foram descobertas em 2010, durante outro período de seca, não tão severo quanto o atual.

O conjunto de rochas onde aparecem os registros é cercado por uma floresta densa, de um lado, e pelas águas baixas do rio Negro, do outro. Em sua maioria, as gravuras remetem a rostos humanos, alguns de formato retangular e outros ovais, com sorrisos ou gestos mais sérios. “O sítio expressa emoções, sentimentos. É um registro rupestre, mas tem algo em comum com as obras de arte atuais”, descreveu Oliveira. 

Para Beatriz Carneiro, historiadora e membro do Iphan, a praia das Lajes tem um “valor inestimável” para que a ciência compreenda os primeiros povos que habitaram a região, um campo ainda pouco explorado.

“Infelizmente, a gente está tratando da pior estiagem do Amazonas nesses últimos 121 anos”, ponderou Beatriz. “O que ajuda a preservar as gravuras é a gente poder ter de volta nossos rios e manter esse processo submerso na natureza. Ela cuida dessa preservação mais do que a nossa incidência na área.”

 

(R7 Notícias)

 

Nota: “É o nível mais baixo em 121 anos.” Fora o tempo em que o nível da água estava baixo a ponto de poderem fazer gravuras rupestres nas rochas do leito do rio. Há 121 anos não havia mudanças climáticas causadas pelo ser humano El Niño, provavelmente, sim, pois é cíclico. Outra coisa: constataram o design inteligente dos desenhos nas rochas...

sexta-feira, agosto 18, 2023

Seminário criacionista para Crianças

Os congressos, simpósios e seminários criacionistas se popularizaram no Brasil nas últimas décadas. Geralmente esses encontros reúnem cientistas, professores, teólogos e outros interessados na área. Por entender que a perspectiva bíblica das origens também precisa ser mais difundida entre as novas gerações, no fim de julho uma comunidade adventista de Belo Horizonte (MG) promoveu o 1º Seminário Criacionista para Crianças.

Os idealizadores da iniciativa são ligados ao Departamento Infantil da Igreja Adventista do Jaraguá e contaram com o apoio do Ministério da Criança e do departamento de Educação da Associação Mineira Central, uma das sedes administrativas da denominação no estado. O palestrante convidado foi o pastor e jornalista Michelson Borges, que é editor na Casa Publicadora Brasileira e conhecido divulgador do criacionismo no Brasil. Ele falou para cerca de 240 crianças, de 5 a 14 anos, algumas das quais vieram de outras cidades para aprender mais sobre dinossauros, fósseis, animais de Galápagos e outras curiosidades que apontam para Deus como o Criador.         

[Continue lendo.]

terça-feira, julho 18, 2023

Quem “surgiu” primeiro: o ovo ou a galinha?

 

A dúvida que serve de inspiração para comerciais e brincadeiras está perto de ser esclarecida. Pelo menos é o que dizem os cientistas da Universidade de Sheffield e Warwich

Conclusões passadas davam conta de que seria o ovo, graças à evolução em que dois animais semelhantes (sem serem galinhas) teriam cruzado e originado um ovo que se tornaria a primeira galinha. No entanto, uma nova descoberta aponta que a galinha veio primeiro. Segundo os cientistas, a formação da casca do ovo depende de uma proteína que só é encontrada nos ovários deste tipo de ave. Portanto, o ovo só existiu depois que surgiu a primeira galinha. A proteína, chamada ovocledidin-17 (OC-17), atua como um catalisador para acelerar o desenvolvimento da casca. Sua estrutura rígida é necessária para abrigar a gema e seus fluidos de proteção enquanto o filhote se desenvolve lá dentro.

 

A descoberta foi revelada no documento “Structural Control of Crystak Nucleo by Eggshell Protein”, que em tradução livre quer dizer: “Controle Estrutural de Núcleo de Cristais pela Proteína da Casca do Ovo.”

 

Na pesquisa, foi utilizado um supercomputador para visualizar de forma ampliada a formação de um ovo. A máquina, chamada de HECToR, revelou que a OC-17 é fundamental no início da formação da casca. Essa proteína é que transforma o carbonato de cálcio em cristais de calcita [os mesmos dos olhos dos trilobitas], que compõe a casa do ovo.

 

Dr. Colin Freeman, do Departamento de Engenharia Material da Universidade de Sheffield, constatou: “Há muito tempo se suspeita de que o ovo veio primeiro, mas agora temos a prova científica de que, na verdade, a galinha foi a percussora.”

 

Para o professor John Harding, o estudo poderá servir como base para outras pesquisas. “Entender como funciona a produção da casca de ovo é interessante, mas também pode ser pista para a concepção de novos materiais e processos”, disse ele. “A cada dia a natureza [sic] nos mostra suas soluções inovadoras para todo tipo de problema que ela encontra. Isso só comprova que podemos aprender muito com ela”, finalizou o professor.

 

(Terra)

 

Nota: Design inteligente, complexidade irredutível, antevidência... E os pesquisadores naturalistas teimosos insistem em dizer que “a natureza é sábia”. Criacionistas já diziam há muito tempo que é óbvio que as aves foram criadas antes dos ovos, que dependem delas para serem formados; e que os ovos são outra maravilha de design inteligente, pois permitem que o oxigênio chegue ao filhote e o gás carbônico saia de lá. Isso para citar apenas uma de suas propriedades. Quem surgiu primeiro, o ovo ou a galinha? Resposta: ambos foram criados por Deus. [MB]

quarta-feira, junho 21, 2023

Tiahuanaco: esqueça a ajuda dos extraterrestres

Diga adeus às teorias das supostas ajudas extraterrestres ou gigantes nas antigas civilizações... Cientistas descobriram que monumentos de Tiwanaku (Tiahuanaco), na Bolívia, foram feitos de rochas artificiais criadas há 1.400 anos. As rochas megalíticas de toneladas de peso foram feitas com moldes e cimentante viscoso que endureceu como rocha. Uma equipe internacional de cientistas do Institut Geopolymere (Geopolymer Institute), Saint-Quentín, França, e da Universidade Católica San Pablo, Arequipa, Peru, publicaram os resultados de um estudo realizado em rochas monumentais de Pumapunku, em Tiwanaku, Bolívia. Eles verificam que as rochas são artificiais (com geopolímeros), e que não foram esculpidas com tecnologia desconhecida, nem construídas por extraterrestres. Foi o gênio humano, explorando os recursos de seu ambiente de forma inteligente, que criou essas maravilhas.

Em novembro de 2017, cientistas tiraram amostras das rochas arenito vermelho e andesita do lugar de Pumapunku. Pela primeira vez, essas rochas foram analisadas por microscopia eletrônica; isso nunca tinha sido feito antes. Eles descobriram a natureza artificial das rochas e compararam as rochas dos monumentos com os recursos geológicos do local, encontrando muitas diferenças. Criaram cimento a partir de barro (a mesma argila vermelha que os tiwanakus usaram para cerâmica) e sais de carbonato de sódio da Lagoa Cachi, ao sul do deserto do Altiplano, para formar rocha arenito vermelho.

Para a rocha arenito cinza, inventaram um aglomerante órgão-mineral à base de ácidos orgânicos naturais extraídos de plantas locais e outros reagentes naturais. Esse aglomerante foi então derramado em moldes e endurecido por alguns meses. Sem um conhecimento profundo da química dos geopolímeros, que estuda a formação dessas rochas por geossíntese, é difícil reconhecer a natureza artificial das rochas. Essa química não é uma ciência difícil de dominar. É uma extensão do conhecimento dos tiwanakus em cerâmica, minerais, ligantes, pigmentos e, acima de tudo, um excelente conhecimento do seu ambiente. Sem a seleção de uma boa matéria-prima, esses extraordinários monumentos não poderiam ter sido criados há 1.400 anos.

Finalmente, essa descoberta científica confirma lendas locais que dizem: “As rochas foram feitas com extratos de plantas capazes de amaciá-las.” Essa explicação sempre foi rejeitada pelos arqueólogos porque não fazia sentido. No entanto, as evidências científicas fornecidas pelos cientistas da França e do Peru mostram que a tradição oral estava certa: eles faziam rochas moles que podiam endurecer. As hipóteses da antiga supercivilização perdida ou da intervenção alienígena são falsas. Os tiwanakus eram seres humanos inteligentes. Eles conheciam perfeitamente seu ambiente e sabiam como explorar os recursos que a natureza lhes oferecia.

(Viajeros Perú)

Nota: Por causa da mentalidade evolucionista, que vê nossos antigos ancestrais como seres animalescos, desenvolveu-se a ideia de que grandes construções, como as pirâmides, não poderiam ter sido feitas por seres humanos naquele tempo, sendo necessária, portanto, a ajuda de seres extraterrestres. Trata-se de uma filosofia que subestima as pessoas do passado e não leva em conta que, em muitos sentidos, a humanidade está é involuindo e não evoluindo. [MB]

Leia mais sobre os grandes feitos das pessoas do passado (aqui).

sábado, maio 20, 2023

Apocalipse, o tempo do fim e a ciência


Pretendo abordar aqui dois exemplos de como ideias podem se tornar preconceitos a ponto de não permitir que a mente cresça no sentido de entender o que a natureza e a Bíblia estão nos revelando. Dois capítulos na Bíblia afastam a cortina da vida neste mundo tão voltado para interesses imediatos e para a secularização: Apocalipse 4 e 5.

“Tu és digno, Senhor e Deus nosso, de receber a glória, a honra e o poder, porque criaste todas as coisas e por Tua vontade elas vieram a existir e foram criadas” (Ap 4:11).

“Os capítulos 4 e 5 [de Apocalipse] apresentam um louvor crescente das criaturas ao Criador: primeiro os querubins ao redor de Seu trono, depois os 24 anciãos O louvam por ter criado todas as coisas e, no capítulo 5, todas as criaturas louvam a Deus. Essas cenas brilhantes de júbilo e louvor estão em acentuado contraste com as que podemos testemunhar entre os seres humanos vivendo nos últimos dias da história da Terra, enquanto o julgamento que decide seu destino para a vida ou para a morte eternas está se encerrando no Santuário Celestial!” (As Profecias na Bíblia: uma introdução ao estudo das profecias de Daniel e Apocalipse, p.79.)

O planeta passou por muitas mudanças desde o tempo em que a Igreja Católica se tornou um poder dominante no mundo ocidental, quando a última tribo ariana (ostrogodos), que se opunha à autoridade da Igreja, foi derrotada pelo imperador católico Justiniano, em 538. Durante a Idade Escura, como ficou conhecida a Idade Média (apesar de alguns rejeitarem essa ideia atualmente), religião e superstição andavam de mãos dadas: “Nos tempos medievais, as pessoas acreditavam enfaticamente em bruxas e espíritos malignos, e os culpavam por má sorte e infortúnio” (Devine, P. Beleifs and Superstitions – medieval graffiti. http://www.medieval-graffiti.co.uk, 01 2018.) 

“Quando o mundo começou a emergir da Idade Escura, com a Renascença e o Iluminismo, com a valorização da razão e do humanismo, ficaram associados com a religião cristã a superstição, o misticismo e o obscurantismo, e isso persiste até hoje para muitos. No entanto, não era assim quando o Cristianismo surgiu. Roger Bacon escreveu: ‘O preconceito contra a Matemática ganhou força pela luta do paganismo contra o cristianismo, em que a magia era usada pelo primeiro e em que os milagres cristãos eram considerados como magia’ (Bacon, R. The Opus Majus. 1897. ed. London, Edinburgh and New York: Henry Frowde, M.A., 1267. v. 01.)

“Muitos pensadores quiseram se distanciar de tudo isso colocando superstição, misticismo e Deus na mesma bagagem e, com o tempo, surgiu a proposta naturalista, que desconsidera qualquer influência sobrenatural na natureza. No entanto, pioneiros da Ciência, como Galileu, Da Vinci e outros, como vimos anteriormente, consideravam que sem Matemática não existe Ciência. Todas as regras do mundo natural dependem da Matemática e ela abrange coisas que não fazem parte do mundo natural. Ela é, portanto, sobrenatural. Quando Charles Darwin publicou A Origem da Espécies, em 1859, com o tempo, as ideias que ele expressou em seu livro acabaram se tornando um dogma da Biologia. E isso apesar de que cada dia surgem mais evidências de que as coisas não funcionam exatamente da maneira como deveriam se a Teoria da Evolução estivesse correta” (As Profecias na Bíblia: uma introdução ao estudo das profecias de Daniel e Apocalipse, p.79.)

A palavra “evolução” significa apenas mudanças ao longo do tempo, mas em Biologia significa mudanças em características de uma espécie ao longo de gerações e que são selecionadas pelo mecanismo de seleção natural. Esse mecanismo determina que mudanças favoráveis em indivíduos, que aumentam as chances de sobrevivência no ambiente, são retidas e passadas aos descendentes, enquanto as desfavoráveis, que diminuem as chances de sobrevivência, tendem a ser eliminadas. Darwin propôs que todas as espécies de organismos vivos tiveram um único ancestral comum a partir do qual se desenvolveram. Com a descoberta dos mecanismos da Genética, por Gregor Mendel (1856-1863), as modificações nas espécies passaram a ser atribuídas a mutações que ocorrem nos genes e a Teoria da Evolução passou a ser conhecida como Síntese Evolutiva Moderna. Darwin acreditava que as modificações nos organismos eram um processo lento e contínuo: “Não vemos nada dessas mudanças lentas em progresso, até que o ponteiro do tempo tenha marcado o longo lapso das eras” (Darwin, C. On the Origin of Species by Means of Natural Selection, or the Preservation of Favoured Races in the Struggle for Life. Albemarle Street, London: John Murray, 1859).

1. Primeiro exemplo

Diversas pesquisas modernas têm trazido à luz evidências de que os organismos não aumentam suas chances de sobrevivência por mutações que são aleatórias nos genes e que não é necessário um processo lento que dure longas eras. Só para citar algumas destas pesquisas:

  • Um estudo com cinco espécies de tentilhões das Ilhas Galápagos demonstrou que as modificações nessas espécies foram, principalmente, devidas a mecanismos epigenéticos e não a mutações aleatórias nos genes. Esses mecanismos fazem parte das estratégias com que os organismos são dotados para regular seus genes de forma a enfrentar desafios do ambiente (Kinner, M. K. et al. Epigenetics and the evolution of Darwin’s finches. Genome Biology And Evolution, v. 6, p. 1972-1989, 2014).
  • Descobertas sobre tentilhões por Peter e Rosemary Grant, que passaram quatro décadas na Ilha Dafne Maior, em Galápagos, evidenciaram que espécies podem mudar muito rapidamente quando necessário. Eles testemunharam o surgimento de um novo tipo de tentilhão, mais robusto do que os que viviam nessa ilha, ao longo de alguns poucos anos em que períodos de chuva e seca se intercalaram e vários tentilhões morreram. Em poucos anos, eles presenciaram o que Darwin acreditava que levaria eras. Foi algo que aconteceu em poucos anos e surgiu devido a mudanças no ambiente que colocavam os tentilhões em risco (Cressey, D. Darwin’s finches tracked to reveal evolution in action. Nature, London, v. 2009.1089, p. 1, 2, 2009).
  • Outras pesquisas que apontam para mecanismos que são acionados para preservar a espécie em face de mudanças ou ameaças do ambiente são as que foram realizadas a partir da descoberta de bactérias capazes de digerir náilon e plástico. Essas bactérias desenvolveram essas habilidades rapidamente na ausência de outros substratos com que pudessem se nutrir (Kinoshita, S. et al. 6-aminohexanoic acid cyclic dimer hydrolase. a new cyclic amide hydrolase produced by acromobacter guttatus ki 72. European Journal Biochemistry, v. 80, p. 489-495, 1977. YOMO, T. et al. No stop codons in the antisense strands of the genes for nylon oligomer degradation. PNAS, v. 89, p. 3780-3784, 1992. Prijambada, I. D. et al. Emergence of nylon oligomer degradation enzymes in pseudomonas aeruginosa pao through experimental evolution. Applied and Environmental Microbiology, v. 61, p. 2020-2022, 1995. Flashman, E. How plastic-eating bacteria actually work – a chemist explains. https://theconversation.com/how-plastic-eating-bacteria-actually-work-a-chemist-explains-95233).
  • Um estudo, publicado em 2008, descreve modificações em uma proteína (do tipo Trim) que é expressa em linfócitos (células de defesa) de duas linhagens diferentes de macacos. Essas modificações produziram uma proteína muito mais potente para combater vírus. As modificações nas duas linhagens de macacos são diferentes, mas tiveram resultados parecidos. A proteína que foi modifcada pertence a uma família de proteínas que reconhece e combate alguns tipos de vírus, inclusive HIV-1. Houve uma inserção de um pseudogene nas vizinhanças do gene que produz a proteína antiviral desses macacos. Esse pseudogene faz parte do código de uma proteína (Ciclofilina A) capaz de se ligar à cápsula proteica de algumas formas de vírus. Normalmente os genes passam por um processamento depois de se replicarem e antes de serem traduzidos para proteínas, mas, no caso dessas proteínas Trim antivirais, o gene da proteína que faria o processamento dos genes delas mutou e permite que haja uma proteína híbrida Trim-Ciclofilina A. As modificações são incrivelmente coordenadas: uma inserção de um pseudogene interessante contra vírus próximo exatamente do código de uma outra proteína interessante contra vírus, seguida de mutação justamente no gene que poderia impedir que a proteína híbrida se formasse. O autor desse artigo comenta que é difícil provar que a seleção natural favoreceria esse tipo de mutação, pois o pseudogene sozinho não codificava nada útil para a célula. Como há uma frequência alta desse tipo de mutação em duas espécies de macacos, ele acredita que ela já foi evolutivamente vantajosa alguma vez. Mas todas essas incríveis coincidências parecem fazer parte de mecanismos programados para permitir a sobrevivência em ambientes hostis (Newman RM, Hall L, Kirmaier A, Pozzi L-A, Pery E, et al [2008]. Evolution of a TRIM5-CypA Splice Isoform in Old World Monkeys. PLoS Pathog 4(2): e1000003. doi:10.1371/journal.ppat.1000003).
  • Em um artigo sobre “código de barras de DNA”, o autor comenta que “as espécies são ilhas no espaço de sequência”. Com isso, ele quer dizer que as evidências que ele encontrou no DNA das mitocôndrias das espécies indicam que elas não demonstram terem ido mudando paulatinamente ao longo do tempo para darem origem umas às outras, ou seja, elas são suficientemente diferenciadas e separadas como ilhas (Stoeckle, M., Thaler, D. Why should mitochondria define species? Human Evolution, v. 33, p. 1-30, 2018).

Concluindo, as modificações nas espécies que são significativas para sua sobrevivência parecem não atender a dois pressupostos da Teoria da Evolução: a de mutações aleatórias e a de longas eras de transformações lentas.

2. Segundo Exemplo

Atualmente, alguns criacionistas parecem pensar que admitir que existe uma equação matemática que indica que o Universo foi criado é algum tipo de negação de Deus ou do poder Dele.

Equações matemáticas e a criação do Universo por Deus não são coisas que se contrapõem, assim como o fato de o ser humano ter sido formado do material do pó da Terra não contradiz o fato de que Deus o formou. O material do pó da Terra foi o meio que Deus usou para criar os seres humanos. Matemática é intrínseca à personalidade de Deus; ela é o fundamento das Suas leis físicas e morais. Maupertuis, um polímata francês do século 18, descobriu o que hoje é conhecido como o Princípio da Ação Mínima, uma equação da qual se originam as leis físicas básicas. Ele descobriu esse princípio a partir da leitura da Bíblia, a qual diz que tudo quanto Deus faz é bom. Esse princípio é um princípio de otimização. Desse princípio, as leis morais são derivadas; tudo quanto Deus faz segue esse princípio. As equações das leis físicas foram deduzidas a partir desse princípio. Dentre essas, existe uma que implica que o Universo foi criado. São as duas revelações de Deus em harmonia: a Bíblia e a natureza (leis naturais).

Acredito ser importante, ao estudarmos a Bíblia e a natureza, permitir que elas nos esclareçam, que elas se revelem. A tentativa de fazê-las se adaptar às nossas suposições, aos nossos preconceitos e à nossa razão humana falível resulta em cegueira. Isso pode acontecer com qualquer um que aceite ideias a priori e se apegue a elas antes de testar ideias contrárias, sejam elas pressupostos religiosos ou teorias supostamente científicas que não usam realmente Ciência.

(Graça Lütz é bióloga e bioquímica)

terça-feira, maio 16, 2023

Descobertas sementes citadas na Bíblia

Durante uma escavação no deserto de Neguev, em 4 de maio, arqueólogos da Universidade de Tel-Aviv encontraram sementes de uvas citadas na Bíblia. O achado tem mais de mil anos. A fruta é mencionada em Gênesis 49:11, quando Jacó abençoa seu filho Judá: “Ele amarrará seu jumento a uma videira, seu jumentinho ao ramo mais escolhido; ele lavará suas vestes no vinho, suas vestes no sangue das uvas.” Outra passagem está em Números 13:23, que descreve um cacho de uvas muito grande, trazido pelos homens enviados por Moisés para explorar a “terra prometida”: “Quando chegaram ao Vale de Eshkol (identificado por alguns como Nahal Sorek), eles cortaram um galho com um único cacho de uvas. Dois deles o carregavam numa vara entre si.”

Entre outras sementes, os pesquisadores da Tel-Aviv acharam a variedade Syriki, usada até hoje para fazer vinho tinto de alta qualidade na Grécia e no Líbano. O nome da planta, que marca seu local de origem, é derivado de Nahal Sorek, um riacho importante nas colinas da Judeia.

Os cientistas encontraram 16 sementes de uvas no chão de uma sala localizada no sítio arqueológico de Avdat, onde fica uma cidade nabateia (civilização antiga) em ruínas desérticas. Os cientistas fizeram a descoberta por meio de uma técnica de espectroscopia infravermelha.

A partir disso, os pesquisadores extraíram o DNA das sementes e fizeram comparações com bancos de dados de videiras modernas.

(Revista Oeste)

sábado, maio 13, 2023

Big Bang: resposta à réplica de João Paulo (parte 2)

Esta é a segunda parte da resposta ao artigo de João Paulo Reis Braga sobre uma citação que considerei infeliz. Essa citação foi feita por Marcos Eberlin para tentar estabelecer um dos pontos de um argumento. O trecho foi extraído de um artigo de João Paulo que continha vários erros conceituais. Infelizmente, o próprio artigo-réplica de João Paulo aumentou em muito a quantidade de erros conceituais para corrigirmos, de maneira que não foi possível tratar de todos os problemas mais graves em uma única resposta.

A quantidade e o nível dos erros contidos nessa réplica são tais que requerem esclarecimentos sobre temas básicos, explicados em livros didáticos em nível de graduação em Física. Apesar de esses assuntos serem de domínio público, as distorções que alguns têm feito na tentativa de defender ideias mirabolantes requer uma resposta personalizada.

Na parte 1, chegamos até o conceito termodinâmico de entropia e mostramos que ele não faz referência alguma a desordem.

Comentamos também que, para encontrarmos uma relação entre entropia e desordem, precisamos apelar à Mecânica Estatística, que é mais abrangente e detalhada do que a Termodinâmica. Nesse contexto, sim, há situações em que é válido usarmos entropia para medir desordem, embora nunca se deva definir entropia como desordem porque o conceito de entropia é muito mais geral.

Também é feita a afirmação falsa de que todas as teorias quânticas violam a segunda lei da Termodinâmica. Trataremos dessas coisas na sequência.

Outros pontos também merecem resposta, mas precisarão ser tratados em outro artigo da série.

Microestado e macroestado

Antes de corrigir os erros conceituais de João Paulo nesta área, é importante esclarecer primeiro os conceitos de microestado e macroestado. Imagine um gás composto por moléculas confinadas em um recipiente. Imagine que esse gás esteja em equilíbrio.

O estado do gás como um todo pode ser descrito pelos valores de algumas variáveis: volume (V), pressão (p), temperatura (T), energia interna (U), entropia (S), número de moléculas (N). Esse estado do gás como um todo, que pode ser especificado por variáveis globais apenas, chama-se macroestado.

No nível microscópico, cada molécula está em um estado diferente, com certa quantidade de energia e momentum, por exemplo. Se pensarmos em moléculas como se fossem partículas sem propriedades quânticas, poderíamos imaginar cada uma com certa velocidade e em certa posição em cada instante. A combinação dos estados de cada molécula do gás em dado instante é o que chamamos de microestado do gás.

A entropia na Mecânica Estatística

No âmbito da Mecânica Estatística, uma forma de calcular a entropia do gás que está no macroestado A é usando um conceito (de Boltzmann) segundo o qual ela é proporcional ao logaritmo do número de microestados cujo efeito macroscópico (global) é o macroestado A.

S(A) = k log[M(A)].

João Paulo diz que todas as teorias quânticas invertem a segunda lei da Termodinâmica. Na verdade, o que ocorre é exatamente o contrário: a Mecânica Estatística não consegue lidar corretamente com a entropia sem a Mecânica Quântica. Todas as teorias derivadas da Mecânica Quântica (aplicações mais específicas) herdam as mesmas leis quânticas que fazem com que a Mecânica Estatística forneça os resultados corretos (condizentes com o que se observa), especialmente no que se refere à entropia e à segunda lei da Termodinâmica.

Mais especificamente, quando não levamos em conta a Mecânica Quântica na Mecânica Estatística, obtemos uma fórmula errada para a entropia. Mais precisamente, calculamos de maneira errada o número de microestados correspondentes a um macroestado. Esse fenômeno ficou conhecido como paradoxo de Gibbs.

Imagine-se um recipiente contendo um gás. Imagine que introduzimos uma divisória finíssima que separa o gás em duas partes, em um processo reversível. A energia total do gás permanece a mesma, assim como as demais propriedades. Porém, ao contarmos o número de microestados de maneira ingênua, concluímos que a entropia aumenta no processo (como João Paulo afirma em seu artigo). Se essa contagem fosse válida, ao removermos a divisória em um processo reversível, todas as propriedades do gás permaneceriam as mesmas, mas a entropia diminuiria, violando a segunda lei da Termodinâmica.

Gibbs descobriu que precisaria dividir o número de microestados pelo fatorial do número de partículas (N!) para poder chegar à expressão correta da função M(A) que coloquei na fórmula acima. Com isso, passa-se a respeitar a segunda lei da Termodinâmica e mantém-se o caráter de variável extensiva que a entropia precisa ter (a entropia do todo é igual à soma das entropias das partes).

Isso não fazia sentido na Física Clássica, em que apenas trabalhamos com fenômenos macroscópicos. A origem da necessidade desse fator ficou clara quando se descobriu a Mecânica Quântica e ela foi usada como legítimo suporte para a Mecânica Estatística. Com isso, as expressões que definem a entropia nesse contexto geram os resultados corretos naturalmente, sem a necessidade de hipóteses ad hoc.

E, de fato, a entropia não muda quando introduzimos uma (ou mais) divisória(s) no gás nas condições que mencionei. (E foi dito no artigo de João Paulo que sei muito bem que a entropia muda nesse experimento e que eu estaria deliberadamente mentindo para o leitor. É desinformação combinada com ataque pessoal baseado em uma suposta capacidade de ler mentes e intenções.)

É necessário levar em conta um fato crucial revelado pela Mecânica Quântica: a indistinguibilidade das partículas de um mesmo tipo. Classicamente, pensamos na partícula 1 no estado A e na partícula 2 no estado B. Isso pressupõe que é possível de alguma forma marcar as partículas para poder especificar qual é a 1 e qual é a 2.

A Mecânica Quântica nos ensina que essa abordagem não funciona para partículas mais simples de um mesmo tipo: a natureza não permite que essas partículas tenham identidade. Isso significa que estamos proibidos de dizer que a partícula 1 está no estado A e a partícula 2 está no estado B. Ao invés disso, precisamos dizer que há uma partícula no estado A e uma no estado B. Pode parecer pouco, mas isso é vital para a existência da Química e, consequentemente, nossa existência.

Vejamos isso um pouquinho mais de perto. Na situação que descrevi no parágrafo anterior, temos os estados A e B ocupados. Classicamente, podemos ter a partícula 1 no estado A e a partícula 2 no estado B, mas também podemos ter a 2 em A e a partícula 1 em B. São duas possibilidades. Quanticamente, só temos uma possibilidade: estados A e B, cada um com uma partícula. Isso afeta a contagem de microestados e, consequentemente, a entropia.

Se, ao invés de 2 partículas, tivéssemos N partículas, cada uma em um estado, a contagem clássica geraria N! (fatorial de N) vezes mais microestados do que os que existem de fato, e é daí que vem a necessidade de dividir o número de estados previstos pela contagem clássica por N!, identificada por Gibbs.

Mas esse episódio ainda tem mais desdobramentos. As partículas podem ter spin do tipo n (inteiro) ou do tipo n+½ (que tem sido chamado de “semi-inteiro”). No primeiro caso, elas são classificadas como bósons; no segundo, são classificadas como férmions.

No âmbito da Mecânica Quântica, verifica-se que bósons apresentam certa preferência por ocuparem estados já ocupados por bósons do mesmo tipo, ao passo que dois férmions não ocupam o mesmo estado ao mesmo tempo (a função de onda se anula, nesse caso). Esse fato é o que gera o famoso “princípio” da exclusão de Pauli, que é essencial para que a Química exista. Note: sem indistinguibilidade, não existe “princípio” da exclusão e sem ele não existem moléculas estáveis ou reações químicas relevantes.

Isso significa que, para calcular a entropia via métodos da Mecânica Estatística, é fundamental levar em conta pelo menos duas regras do mundo quântico: a indistinguibilidade das partículas mais simples e sua classificação como bósons ou férmions.

Então, ao invés de contrariar a segunda lei da Termodinâmica, a teoria quântica é essencial para calcular corretamente a entropia e aplicar corretamente a segunda lei.

Onde entra a desordem nesse contexto?

Existem várias situações nas quais o conceito de desordem faz sentido. Imagine, por exemplo, um cristal. Nele, existe um arranjo periódico de itens (moléculas, átomos, fórmulas, etc.). Quando um cristal é aquecido além de certa temperatura (aumentando a entropia durante todo o processo), chega um momento em que a estrutura cristalina se desfaz e o material adquire uma estrutura amorfa. Para a percepção humana, essa estrutura amorfa é menos organizada do que a estrutura cristalina. Ela também possui uma entropia maior. Faz sentido então tentarmos usar a entropia para medir a desordem? Nesse caso e em vários outros, faz, dependendo dos cuidados que tivermos para amarrar os conceitos.

Nesse exemplo do cristal, existem menos arranjos microscópicos possíveis que resultem no estado cristalino do que existem arranjos que resultem em um estado amorfo. Isso significa que a entropia do material amorfo é maior do que a entropia do mesmo material na forma cristalina. Como consideramos a forma cristalina como mais organizada do que o material amorfo, então, neste caso, realmente, maior entropia corresponde a maior desordem. Neste caso, para fins didáticos, podemos usar as palavras “entropia” e “desordem” de maneira intercambiável. Lembrem-se de que esse é um recurso para ajudar a intuição, não uma nova definição de entropia.

Na próxima seção, apresentarei um exemplo no qual a confusão entre desordem e entropia leva ao engano. O importante aqui é que

  • mesmo quando o conceito de ordem/desordem está definido, raciocinar apenas nesse nível para tirar conclusões sobre a entropia não é seguro, e efetivamente leva a conclusões erradas em alguns casos (como veremos a seguir);
  • o conceito de ordem ou desordem não se aplica a todas as situações com que nos deparamos ao estudar Física e nas quais podemos usar o conceito de entropia; isso implica em que entropia e desordem não são sinônimos, apesar de se poder estabelecer uma correlação positiva entre ambos em vários casos. Correlação não é definição.

O falso problema da inversão da segunda lei

Note a seguinte declaração de João Paulo: “Cada nova descoberta científica torna ainda mais difícil a resposta sobre como um sistema tão complexo, quanto é um único átomo, pode ter surgido pela mera interação aleatória de partículas elementares submetidas às quatro forças fundamentais: a força gravitacional, a força eletromagnética, as forças nucleares forte e fraca. Percebam que em nenhum momento Lütz esclarece isso.”

Caramba! Combinação de prótons com elétrons para formar átomos de hidrogênio é um fenômeno comum, que acontece o tempo todo simplesmente porque prótons atraem elétrons. Não é preciso apelar para absurdos assim para defender design inteligente ou criacionismo. Existem argumentos reais que podem ser usados.

A afirmação sobre “cada nova descoberta científica” é falsa. Quanto à última frase, podemos resolver o problema agora mesmo. Você quer saber sobre a formação de um único átomo, não é? Então tratarei disso da forma mais didática que consigo imaginar no momento, evitando tanto quanto possível os detalhes matemáticos, que são o que realmente nos permite entender o assunto e obter resultados que batem perfeitamente com o que se observa e mede. Mas é importante perder o medo dos detalhes matemáticos que compõem as leis físicas até para poder consultar o material técnico e identificar os muitos absurdos qualitativos que circulam por aí propagando desinformação sobre Física, vários dos quais vimos nessas réplicas ao meu artigo original sobre fake news.

Como os físicos fazem para saber o que acontece em cada situação? Montam um sistema com as equações diferenciais das leis físicas relevantes ao problema e resolvem o sistema. O modelo do Big Bang é um exemplo disso, assim como os modelos que tentam explicar como a matéria se comportou nos primeiros instantes do Universo (e que não fazem parte do modelo do Big Bang). As leis da Termodinâmica sempre fazem parte dos modelos, incluindo o do Big Bang.

A aparência de inversão de leis da Termodinâmica baseia-se não em um erro elementar dos físicos, mas no fato de que a razão humana desarmada não consegue lidar corretamente com essas coisas na maioria das situações, especialmente quando se tem pouca experiência em lidar com as equações diferenciais desses modelos e também com os fenômenos quânticos envolvidos e como eles contribuem para a entropia.

Os resultados gerados por esses modelos são consequências das leis da Termodinâmica combinadas com outras, não violações delas, muito menos inversões.

Apesar de existirem processos que parecem violar a segunda lei da Termodinâmica, o conhecimento técnico das leis físicas nos permite mostrar que não há violação alguma. 

Explicarei qualitativamente (por uma questão de acessibilidade) um exemplo de formação espontânea de átomos que poderia ser vista como uma violação da segunda lei para quem só conhece a área superficialmente. E este exemplo pode ser reproduzido experimentalmente.

Então, a partir das afirmações feitas na réplica, João Paulo entende que a formação de átomos de hidrogênio a partir de um plasma desorganizado de elétrons e prótons violaria a segunda lei da Termodinâmica até por reduzir o número de partículas livres, certo? Mas essa ideia é incorreta.

Imagine uma caixa isolada de volume V e com paredes internas com reflexão total. Inicialmente temos um plasma com N elétrons e N prótons nessa caixa a uma temperatura T. Imagine que essa temperatura corresponda ao mínimo necessário para que o plasma não passe pela recombinação que geraria hidrogênio monoatômico (embora esse fenômeno comum seja considerado impossível por João Paulo, mas vamos adiante).

Imagine que essa caixa seja expandida adiabaticamente até que seu volume fique mil vezes maior (1000V). A expansão (adiabática) causa um abaixamento na temperatura: há trabalho de expansão, mas não há troca de calor com o exterior, o que reduz a energia média por partícula.

Quando a temperatura cai, não há mais densidade de energia térmica suficiente para impedir que elétrons atraídos por prótons permaneçam ligados. Pelo argumento apresentado por João Paulo, esse processo não acontece porque viola a lei segunda lei da Termodinâmica, pois um gás de hidrogênio monoatômico é mais organizado do que um plasma de prótons e elétrons. Houve redução de entropia nesse processo, pois agora temos menos partículas (de 2N passou para N, o que reduz o número de microestados), ou seja, menos desordem do que no início, certo? Errado. O que falta nesse quadro? Quando elétrons se recombinam com prótons para formar átomos de hidrogênio, fótons são criados e emitidos, o que aumenta o número de partículas.

Note ainda mais um detalhe: elétrons e prótons possuem spin ½, isto é, são férmions, o que os obriga a respeitar o “princípio” da exclusão, de Pauli. Isso significa que apenas um férmion (elétron ou próton) pode ocupar um estado quântico por vez. Isso limita o número de estados acessíveis a essas partículas (limita o número de microestados), o que limita o valor da entropia. Já os fótons têm spin 1, são bósons, que não possuem essa restrição e podem ocupar os mesmos estados já ocupados por outros fótons. Isso lhes proporciona um número de estados acessíveis muito maior, o que implica em entropia maior.

Mesmo por um raciocínio qualitativo como este, você já percebe que a entropia total do estado inicial (2N partículas com fortes restrições sobre seus estados acessíveis) é muito menor do que a entropia do estado final (2N partículas, sendo que N delas são compostas e as outras N podem ocupar todos os estados das anteriores e mais uma multidão de outros), além do fato de que o aumento de volume aumenta em muito o número de microestados correspondentes ao macroestado.

O mesmo acontece com as demais reações, incluindo as nucleares mencionadas, conforme já expliquei em outra ocasião. Se você entender direito, verá que cada um dos modelos que descrevem esses processos está em estrita harmonia com a segunda lei da Termodinâmica, mas nem sempre em harmonia com concepções equivocadas envolvendo ordem-desordem e outros itens não confiáveis.

Por curiosidade, o que acontece se você deixar hidrogênio monoatômico em um recipiente por algum tempo? A tendência é que os átomos de hidrogênio reajam entre si para formar pares ligados por uma ligação molecular, convertendo-se em gás hidrogênio. Isso reduz a entropia do sistema? Não, pois essa combinação também libera fótons, que aumentam grandemente a entropia total do sistema, mais do que a redução causada pela combinação dos átomos de hidrogênio para formar moléculas.

De novo, isso foi só para dar um exemplo qualitativo mais acessível, mas o mesmo se aplica a outras reações de formação de partículas compostas, inclusive as nucleares. Faz sentido agora?

O demônio de Maxwell

Fui acusado de tentar enganar ao apresentar o exemplo de um gás em um recipiente isolado no qual se introduzem divisórias sem alterar a entropia.

O artigo confunde introduzir paredes no recipiente com separar manualmente moléculas e usa essa distorção para afirmar que descrevi um experimento impossível que consumiria grande quantidade de energia e reduziria em muito a entropia do sistema. E ainda convidaram o demônio de Maxwell a entrar de penetra na festa.

Em primeiro lugar, note-se que não me referi a subdividir um gás com vários tipos de moléculas e então dividir as moléculas colocando cada tipo em uma divisória. Nada disso! O comentário feito no artigo de João Paulo fala como se fosse esse o caso.

Referi-me a um gás somente, não a uma mistura de gases. O gás está em um recipiente que recebe (ou perde) divisórias sem que a entropia seja alterada.

Além disso, divisórias suficientemente finas, com baixíssima massa e sem atrito com seu trilho praticamente não consumiriam energia ao serem colocadas no recipiente.

Quanto à suposta redução de entropia, o assunto aqui é justamente o paradoxo de Gibbs, que já expliquei. Lembrem-se de que esse paradoxo é resolvido pela indistinguibilidade das partículas. Resolvido esse suposto paradoxo pelo uso correto das propriedades quânticas das partículas que compõem o gás, o resultado é que a entropia é a mesma antes e depois da adição ou remoção das divisórias no recipiente.

Para complementar, note que a entropia pode parecer maior no caso do recipiente sem paredes internas por causa de uma ideia equivocada. Essa ideia consiste em imaginar-se que poderíamos intercambiar as posições de duas partículas em cantos opostos de um recipiente e isso implicaria na existência de 2 microestados correspondentes ao mesmo macroestado. Se introduzíssemos divisórias, esse intercâmbio seria impedido e isso reduziria a entropia. Esse raciocínio é falso por causa da indistinguibilidade das partículas, conforme a seção anterior.

E se tivermos uma mistura de gases? Se essa mistura de gases for homogênea, podemos ainda assim introduzir as divisórias no recipiente sem alterar a entropia.

Se alguém pensar em tentar contestar a indistinguibilidade das partículas do mesmo tipo, lembremos mais uma vez: sem indistinguibilidade de partículas, não existe o “princípio” da exclusão de Pauli e, sem este, não existe Química — todos os elétrons ocupariam o subnível 1s de todos os átomos exceto por breves momentos logo após serem excitados. Não haveria moléculas estáveis ou reações químicas relevantes. A vida seria impossível.

E por que abordamos este assunto mesmo? Porque comentei, na resposta a Eberlin, que a formação de hádrons a partir de um plasma de quarks submetido a expansão volumétrica não implica em redução de entropia, antes pelo contrário. A divisão do plasma em si em partes menores não afeta a entropia, ao passo que a expansão implica em um enorme aumento de entropia.

Fez sentido agora? Se João Paulo ainda acha que tento enganar alguém com essas explicações, procure informar-se pelo estudo de livros didáticos de Mecânica Estatística e confira o que eu disse.

Problemas basilares de teorias quânticas?

João Paulo afirma que “todas as teorias quânticas apresentam os mesmos problemas basilares:

  • “nenhuma delas leva em consideração a Força Gravitacional em seus modelos matemáticos;
  • “nenhuma delas explica realmente como a Segunda Lei da Termodinâmica foi invertida para que fosse possível ocorrer a auto-organização dos sistemas complexos no universo.”

Vou resistir à tentação de comentar sobre o conceito de gravidade como uma força. Vamos ao que interessa.

Primeiro, note-se a referência a “todas as teorias quânticas”. Quando se faz esse tipo de afirmação, basta um contraexemplo para provar a falsidade da alegação.

A M-Theory é um exemplo de teoria quântica que leva em conta a gravitação de maneira coerente com os demais efeitos quânticos. Isso prova que o primeiro item é falso. Eu poderia seguir adiante e mostrar como essa alegação é falsa para modelos matemáticos que tratam do mundo quântico em geral, inclusive os que publiquei em revistas especializadas de Física, mas um exemplo já é suficiente.

Quanto ao segundo item, já expliquei que se trata de um erro conceitual básico que pode ser resolvido com um pouco de estudo na área de Mecânica Estatística. Note que é possível deduzir todas as leis da Termodinâmica a partir da Mecânica Quântica e da Teoria Quântica de Campos, como fazemos no domínio da Mecânica Estatística. Esta teoria, reproduz a partir de leis do mundo microscópico (leis quânticas) tudo o que a Termodinâmica diz, mas não para por aí e dá resultados que transcendem ao que a Termodinâmica é capaz de dizer sobre o mundo físico. Em diversas questões para as quais a Termodinâmica fica sem respostas, a Mecânica Estatística brilha, mas no domínio em que ambas se interceptam, elas concordam.

Além disso, depois de tudo o que expliquei, já deve ter ficado evidente que o segundo item é falso. Se não ficou, procure livros didáticos de Mecânica Estatística e estude para conferir o que eu disse. Esse é um assunto bem básico e de domínio público.

Para completar, os modelos usados na Física para estudar possibilidades sobre o que teria ocorrido com a energia e a matéria logo após a criação incluem as leis da Termodinâmica em seu sistema de equações. A alegação de violação é falsa e só convence quem não tem conhecimentos técnicos na área e não tirou tempo para estudar os detalhes matemáticos do assunto.

Processos não dirigidos?

É importante frisar que existem regras que regem a realidade física, leis físicas. Então não se pode falar em processos não-dirigidos. Leis físicas dirigem. Além disso, segundo a Bíblia, as leis físicas vêm de Deus, ou seja, correspondem às regras usadas por Deus para manter a realidade existindo e funcionando. É importante eliminar essa falsa dicotomia (mais uma falácia): processo guiado por Deus intencionalmente ou processo que decorre das leis físicas? O segundo é um caso particular do primeiro.

Não temos só a palavra da Bíblia: temos a confirmação de que os ensinamentos bíblicos sobre Deus como Criador e Mantenedor da realidade física implicam no princípio da ação mínima do qual deduzimos as leis físicas e vemos que os resultados que obtemos são tão exatos quanto as aproximações que fazemos durante os cálculos.

É importante destacar que os modelos com que realmente trabalhamos não tratam da criação espontânea do universo. Por outro lado, existem, sim, processos espontâneos, como os exemplos que mencionei e que podem parecer violar a segunda lei da Termodinâmica para quem só conhece conceitos qualitativos vagos.

Por outro lado, há modelos que tratam de formação de núcleons (prótons e nêutrons) a partir de plasma de quarks. Esses modelos são meras aplicações de leis físicas, inclusive as da Termodinâmica. Quem quiser apontar erros em algum deles, fique à vontade, mas faça isso em um nível técnico, mostrando exatamente onde estão os erros de cálculo, não meramente com base em “acho que isso viola a segunda lei da Termodinâmica porque o estado final parece mais organizado do que o inicial”. Isso não é argumento válido. Se quiser contestar, vá aos detalhes técnicos.

Combatendo espantalhos

Um dos inúmeros problemas causados por erros conceituais é o de formular argumentos para combater ideias que não existem (argumento do espantalho), como os que temos visto nesse debate. Eu costumava imaginar que essas distorções provavelmente originavam-se em simples ignorância, mas depois do que vi neste debate em termos de distorções grotescas do que escrevi e com afirmações categóricas de que tenho más intenções, já questiono se esses erros são mesmo cometidos em boa fé ou se são estratégias de pessoas manipuladoras e sem compromisso com a verdade para conseguir adeptos e cancelar toda a resistência.

As teorias quânticas e relativistas, bem como os modelos bem fundamentados nelas (sem hipóteses mirabolantes), não dizem que a realidade surgiu espontaneamente, apesar de existir uma discussão filosófica paralela a respeito disso. O Big Bang, por exemplo, não dá pista alguma sobre como teria sido a criação do universo, muito menos é capaz de dar qualquer pista sobre a causa desse fenômeno. Não faz sentido algum tentar argumentar contra essas coisas para estabelecer teses criacionistas.

Infelizmente, ainda temos muitos erros conceituais para cobrir.

Colapso gravitacional

Usei a expressão “colapso gravitacional” com referência a modelos de formação das primeiras estrelas. Esses modelos, que não considero realistas, tratam de colapso espontâneo de partes mais densas de nuvens de hidrogênio e hélio na fase escura do universo. Isso não corresponde ao que acredito ter causado a criação das primeiras estrelas. Já comentei sobre isso mais de uma vez, mas insistem em repetir essas distorções.

Mas uma vez, o texto da réplica tenta colocar palavras em minha boca, dando um falso testemunho a meu respeito, como se já não bastassem as demais falácias.

Por outro lado, são conhecidas várias situações em que o colapso gravitacional acontece (não me refiro aqui ao que gera buracos negros). Se uma nuvem de gás ultrapassar certa densidade crítica (tipicamente por causa de um fator externo), a gravidade vence. Isso não é tão difícil de prever pelas leis físicas (as de verdade, não essas fantasias qualitativas que alguns têm usado) e pode ser visto na prática em inúmeros exemplos.

É interessante lembrar mais uma vez os sistemas planetários se formando até mesmo nas nossas vizinhanças galácticas. Há muitos exemplos, cada um em um estágio diferente do processo, exatamente como vemos nas simulações (que são resoluções de sistemas de equações de leis físicas dadas condições iniciais).

De novo, isso não é ir contra o criacionismo, apenas a constatação de que existe muita coisa ao nosso redor que é o produto da ação contínua das leis físicas (ou seja, ação contínua de Deus). Não precisamos crer que cada pedrinha que encontramos à borda de um riacho foi esculpida de maneira especial pela mão de Deus na semana da criação. A erosão produz essas coisas.

Por outro lado, todas as estimativas que fazemos sobre probabilidades de surgimento espontâneo (ou via leis físicas apenas) resultam em probabilidades inimaginavelmente pequenas, muito além do limite do que aceitamos como impossível. Mas esse não é o caso de objetos astronômicos, antes pelo contrário.

Se restar alguma dúvida, podemos tratar disso um pouquinho mais de perto como fiz no caso da formação de átomos e moléculas de hidrogênio a partir de plasma.

O problema da antimatéria que falta

Esse tem sido um dos argumentos ingênuos mais usados contra o Big Bang. Ingênuo porque não tem a ver com o modelo em si e porque o apresentam como se causasse algum embaraço.

Vou repetir até que parem de errar nesse ponto: o modelo do Big Bang não diz coisa alguma sobre a criação da matéria, nem sobre sua estrutura ou suas transformações. Ele só diz que o espaço se expande com o tempo desde a criação do espaço-tempo (universo), concordando com Hebreus 1:2 e 11:3 que diz que Deus criou o tempo. Ele implica em que o universo foi criado, mas não dá pistas de como teria sido o processo, muito menos oferece qualquer sugestão sobre a causa da criação.

Mas o problema da antimatéria existe e é estudado por profissionais da área. Porém, a forma como ele tem sido mencionado por defensores do universo jovem induz ideias incorretas. Tempos atrás, assisti uma breve entrevista concedida por um ativista do universo jovem que tem por hábito falar sobre temas fora de sua especialidade (com as consequências que seriam de se esperar) e mencionando uma versão espantalho (muito distorcida mesmo) de uma explicação minha sobre esse problema. Então vale a pena esclarecer esse ponto.

O princípio da ação mínima, deduzido a partir de ensinamentos bíblicos, nos permite deduzir as leis físicas por diferentes caminhos. Um deles é o método de Euler-Lagrange. Outro é o de Hamilton. Porém, no contexto da antimatéria “sumida”, o método mais relevante é o de Nöther.

Na segunda década do século XX, Emmy Nöther provou um teorema importantíssimo: o princípio da ação mínima implica em que cada simetria da natureza gera uma lei de conservação. Mais precisamente, a cada simetria diferenciável correspondente a ações locais, corresponde uma corrente conservada. Em trabalhos subsequentes, esse teorema foi provado para situações ainda mais gerais do que o escopo usado por Nöther inicialmente. Eu mesmo já trabalhei nessa área.

Um exemplo de simetria da natureza é a translação no tempo: as leis físicas não mudam com a passagem do tempo. É por isso que existe a primeira lei da Termodinâmica, a da conservação da energia.

Outro exemplo é o da translação no espaço: as leis físicas são as mesmas em toda parte, o que gera a lei da conservação do momentum.

Na verdade, conservação de energia e momentum são aspectos de uma mesma lei (conservação de energia-momentum-tensões), pois essas coisas são componentes de um tensor em 4 dimensões. Por causa da proporcionalidade entre massa inercial e energia, a lei da conservação de energia implica na lei da conservação de massa inercial.

As leis físicas também não dependem da orientação no espaço, o que gera a conservação de momentum angular.

A conservação de carga emerge do que pode ser representado como simetria em relação à fase da função de onda (𝜓, função que representa o estado quântico de um sistema).

A lista prossegue, mas o fato é que várias simetrias existem e geram essas leis.

Agora vamos ao outro lado da moeda. Essas simetrias passaram a existir em algum momento após a criação. A simetria de translação no tempo, por exemplo, obviamente não é válida no início do universo, pois o tempo acabara de nascer e não existe um “antes” disso, o que quebra a simetria. Em outras palavras, a lei da conservação da energia não era válida ainda quando o tempo (universo) nasceu.

Isso significa que encontramos uma explicação naturalista para a origem da energia no universo? Não, apenas que a criação de energia no início do universo é compatível com a base das leis físicas, sem violação alguma.

Há também outra relação entre energia e tempo (uma dualidade que posso mostrar quando for útil) que induz criação de energia diante da criação do tempo.

No âmbito criacionista, acreditamos que Deus criou e mantém o espaço-tempo com suas leis básicas e essa criação induziu a criação de energia, da qual inúmeros processos decorrem em função das leis físicas (as de verdade, não os espantalhos qualitativos que circulam por aí e induzem argumentos falsos).

Mas como esse assunto se relaciona com a antimatéria “sumida”? Primeiro, temos que entender de onde vem a ideia de sumiço.

Em um ambiente com energia suficiente, partículas são constantemente criadas e destruídas, mas esses processos precisam obedecer às leis de conservação. Quando não é possível respeitar todas as leis de conservação em algum processo, ele não acontece.

Se um fóton gama com a energia certa passa suficientemente próximo do núcleo de algum átomo pesado, o suficiente para transferir parte de seu momentum, ele pode ser aniquilado e, em seu lugar, surge um par elétron-antielétron. Não pode ser um elétron apenas porque essa reação não conservaria a carga, nem o número leptônico e nem o spin. Para que todas as leis sejam respeitadas, a criação desse elétron vem acompanhada da criação de um antielétron.

Pode-se pensar no processo com a excitação do vácuo pelo fóton, e que o vácuo então produz um par elétron-antielétron. Intuitivamente, isso pode parecer estranho, mas isso que vemos nas regras matemáticas que regem esses fenômenos.

Isso é verdade não apenas para a criação de elétrons mas também para outras partículas. 

Vejamos agora um exemplo diferente: um nêutron isolado eventualmente converte-se em um próton mais um elétron (para conservação de carga) e mais um antineutrino do elétron (para conservação do número leptônico e do spin). Nesse caso, a criação de um elétron não exigiu a criação de um antielétron. Estou omitindo detalhes intermediários da reação aqui, mas o que mencionei está certo em termos de reagentes e produtos finais. Neste caso, não temos criação de elétrons e antielétrons, ou de prótons e antiprótons.

Mas vamos supor que todas as reações a partir das partículas iniciais fossem tais que obrigassem a produção de pares partícula-antipartícula. Nesse cenário, seria de se esperar que houvesse uma quantidade igual de matéria e antimatéria no universo. O problema é que temos muito mais matéria do que antimatéria. Para onde teriam ido todas as antipartículas?

Por mais absurdo que possa parecer, essa questão tem sido colocada por ativistas do universo jovem como uma evidência contra a expansão do espaço ao longo do tempo (Big Bang)! Para conseguir essa proeza, usam uma versão espantalho (fake) do Big Bang, como se fosse uma “teoria” que tenta explicar a origem da matéria no universo e falhasse na questão da antimatéria “sumida”.

Ok, isso pode não ser um problema para o Big Bang, mas é um problema a ser resolvido. O que sabemos sobre isso?

Esta é uma área ativa da pesquisa em Física de Partículas e o problema não está resolvido oficialmente. Porém, lembremos que a esperada simetria entre matéria e antimatéria se baseia, entre outras coisas, na hipótese de que todas as simetrias atuais já estavam presentes no universo quando as partículas atuais foram criadas.

Conforme já expliquei, não faz sentido esperar-se que a simetria de translação no tempo já existisse quando o tempo nasceu, e temos bons motivos para crer que outras simetrias também não existiam, o que significa que as correspondentes leis de conservação ainda não estavam em vigor.

Sem as leis de conservação que forçam que matéria e antimatéria sejam criadas em quantidades iguais, elas podem ser criadas em quantidades diferentes. Se tivéssemos, por exemplo, 1000 unidades de matéria e 999 unidades de antimatéria, 999 unidades de uma seriam aniquiladas juntamente com 999 da outra e sobraria apenas 1 unidade de matéria.

O fato é que temos mais matéria do que antimatéria na região visível do universo e isso intriga os físicos da área, que estão estudando o assunto.

Tudo indica que o problema está em utilizar-se alguma hipótese equivocada sobre as condições iniciais do universo, principalmente a validade de todas as simetrias atuais.

E sempre há pessoas que imaginam que essas coisas (aparecimento de energia, desaparecimento de antimatéria) sejam indícios de que o universo sempre existiu, nunca foi criado. Outros tomam esses argumentos do universo eterno e os usam como se apoiassem o universo jovem, por mais contraditório que isso seja.

Cada um tem liberdade de acreditar na desinformação ou informação que quiser.

No próximo artigo da série, vamos tratar de mais alguns problemas conceituais do artigo de João Paulo.

(Eduardo Lütz é bacharel em Física e mestre em Astrofísica Nuclear pela Universidade Federal do Rio Grande do Sul)

terça-feira, maio 09, 2023

As três mensagens angélicas e o criacionismo

Uma reflexão oportuna em complemento à lição da Escola Sabatina desta semana ("Adorando o Criador")


As três mensagens angélicas de Apocalipse 14:6-12 resumem a missão do povo de Deus no tempo do fim. Essas mensagens referem-se à forma como o evangelho eterno deve ser apresentado nesta época.

A primeira mensagem estabelece os dois fundamentos da missão:

  1. Temei a Deus e dai-Lhe glória, pois é chegada a hora do Seu juízo.
  2. Adorai Aquele que fez o céu, a terra, o mar e as fontes das águas.

O primeiro fundamento refere-se ao período profético atual e sua conexão com o plano da salvação, bem como com a questão da norma do juízo e a correta relação entre fé e obras. Essa parte tem sido bastante bem explorada na teologia adventista, exceto por um ponto que depende do segundo fundamento.

O segundo fundamento é a mensagem criacionista, que tem sido vista de maneira simplista e distorcida. Destaco então alguns dos pontos mais importantes.

1. No tempo do fim, o inimigo estaria muito experiente, eficiente e especialmente empenhado em enganar.
2. Deus proveu duas armas principais para combater os enganos do inimigo e para proporcionar um grande aprofundamento no conhecimento:
  • A primeira arma é uma motivação para que a Bíblia fosse estudada de maneira mais sistemática e profunda. A Reforma Protestante proporcionou o ambiente para isso. O estudo das profecias foi grandemente beneficiado.
  • A segunda arma é uma metodologia de estudo que permite superar as limitações da razão humana: a revolução científica apresentou um novo significado para a palavra “ciência” a partir de uma cosmovisão criacionista: a ideia foi a de que Deus é perfeito, sistemático e criou tudo o que existe usando padrões matemáticos de Seu próprio caráter; por outro lado, a razão humana tem-se mostrado insuficiente e não confiável para lidar com certos aspectos da realidade; propôs-se, então, encontrar e utilizar padrões matemáticos usados por Deus na criação e manutenção do Universo e usá-los para ler o que está escrito no livro da natureza, ao invés de apenas admirar suas gravuras; a metodologia matemática que se obtém dessa forma foi chamada de Ciência e está intimamente ligada à missão criacionista.
3. O inimigo contra-atacou de duas maneiras:
  • Criando viés e empecilhos ao estudo da Bíblia, de maneira a obscurecer ensinamentos importantes;
  • Induzindo um conceito racionalista de ciência, uma contrafação que fosse compatível com o humanismo; por exemplo, o chamado “método científico” (que é essencialmente tentativa e erro) faz parte dessa contrafação.

A mente humana é incapaz de lidar corretamente com domínios que estejam longe do cotidiano. Essa limitação é herdada pela Filosofia, que é a forma mais organizada do entendimento coletivo humano. A ciência humana, que é uma construção social, possui a mesma limitação, pois está subordinada à Filosofia. O método científico, por exemplo, depende de hipóteses que podemos imaginar.

Por outro lado, a verdadeira Ciência não está sujeita e essas limitações e apresenta as seguintes características principais:

  1. Permite penetrar em áreas inacessíveis a qualquer outra abordagem.
  1. Permite lidar corretamente com assuntos que não fazem sentido para a razão humana. Isso inclui fenômenos físicos contraintuitivos, mas não se limita a eles. A razão humana pura, quando consegue opinar sobre esses assuntos, chega frequentemente a conclusões falsas.
  1. Permite prever, até em detalhes quantitativos finos, fenômenos nunca antes observados ou sequer imaginados; fenômenos que desafiam a razão humana e mesmo a imaginação.

Apesar de os conceitos da ciência humana haverem predominado na literatura, inclusive na criacionista, foi a tradição de pesquisa e metodologia que veio do conceito de Ciência como metodologia matemática que causou, direta e indiretamente, o aumento exponencial do conhecimento humano nos últimos séculos bem como o desenvolvimento sem precedentes da tecnologia, graças a um conhecimento profundo de leis físicas e de como lidar com relações matemáticas mais complexas.

Entre os primeiros e mais importantes resultados do uso da verdadeira Ciência, estão conhecimentos sobre a natureza e universalidade da lei de Deus, em seus aspectos físicos (como a realidade funciona) e morais (como agir para maximizar a saúde, a felicidade, e assim por diante).

A perfeição do caráter divino, que também se manifesta na forma de amor, implica em que tudo o que Ele faz é perfeito, o que significa que as leis físicas são otimizadas em todo o Universo e em qualquer outro universo que por acaso exista. Isso nos dá uma poderosa ferramenta matemática para estudar leis físicas: algo que tem sido chamado de princípio da ação mínima, descoberto no século 18. Esse princípio nos permite obter equações que descrevem as leis físicas de maneira muito mais abrangente do que palavras poderiam fazê-lo.

As leis físicas estabelecem relações de causa e efeito, entre outras coisas. Isso significa que nossas ações (incluindo pensamentos) têm consequências. Muitas dessas consequências induzem sofrimento, injustiça e morte. Outras consequências melhoram a qualidade de vida, a felicidade, o convívio e assim por diante. As regras que nos ajudam a tomar as decisões que levam às melhores consequências chamam-se leis morais.

O sofrimento, a injustiça e a morte entraram neste mundo pela desobediência a leis morais, mas Deus tem um plano para restaurar a Terra e garantir a vida eterna a todos os que aceitarem Seu plano. O preço da salvação foi integralmente pago na cruz. Nada do que fizermos pode acrescentar um centavo a esse pagamento. Porém, nossa adesão a esse plano inclui aceitar ser transformados para conseguir viver em harmonia com as leis morais a fim de que, no futuro, não tornemos a trazer o mal de volta à existência. É por isso que a norma do juízo divino é a lei moral e nossa aceitação do plano que nos coloca novamente em harmonia com essa lei.

A Bíblia traz informação suficiente para entendermos o essencial e aceitarmos o plano da salvação. Mesmo assim, referências que ela faz a assuntos que transcendem ao cotidiano humano tendem a ser mal-entendidas por causa de limitações da intuição. Porém, foi a Bíblia que forneceu as informações que levaram à descoberta da Ciência como metodologia matemática, que é a única ferramenta que nos permite ir além do nível trivial no estudo das leis de Deus.

Conhecimentos científicos nessa área são importantes para entendermos temas ligados ao plano da salvação e à hora do juízo na qual vivemos. Isso também faz parte da missão criacionista.

A missão criacionista consiste no uso dos métodos matemáticos da verdadeira Ciência para o estudo mais profundo tanto da revelação escrita quanto da revelação natural a fim de que se possa apresentar com propriedade a Deus como Criador de todas as coisas e como justo Juiz cujo tribunal está em sessão neste momento.

Ao tomar nossa parte nessa missão, nos deparamos com “estranhas formas de erros religiosos e filosóficos combinados cuja exposição requer conhecimento de verdades científicas como também bíblicas” (Conselhos aos Pais, Professores e Estudantes, p. 514).

(Eduardo Lütz é bacharel em Física e mestre em Astrofísica Nuclear pela Universidade Federal do Rio Grande do Sul)