O que parecem ser borrões são os próprios átomos se sacudindo - eles nunca param. [Imagem: Zhen Chen et al. - 10.1126/science.abg2533]
Microscópio de maior resolução
Em 2018, pesquisadores da Universidade de Cornell, nos EUA, criaram um microscópio eletrônico que bateu o recorde mundial de resolução, mostrando não apenas os átomos, mas também as ligações atômicas.
A solução envolveu um novo tipo de detector de imagens e um processo computadorizado chamado pticografia, que funciona escaneando padrões sobrepostos de espalhamento da luz em uma amostra de material e procurando por mudanças na região de sobreposição. Isso permitiu triplicar a resolução dos microscópios eletrônicos.
Mas nem tudo é perfeito, e o microscópio pticográfico só conseguia trabalhar com amostras muito finas, com poucos átomos de espessura.
Agora, a mesma equipe superou essa deficiência, batendo um novo recorde de resolução que é nada menos do que o dobro do anterior.
A resolução é tão bem ajustada que o único borrão que resta na imagem é a oscilação térmica dos próprios átomos - é como uma foto tremida porque os personagens, os átomos, de fato nunca ficam totalmente parados.
A técnica agora permite observar amostras espessas, incluindo material biológico preparado previamente. [Imagem: Zhen Chen et al. - 10.1126/science.abg2533]
Recorde definitivo de resolução?
O avanço foi possível melhorando os dois elementos da pticografia: o sensor e os algoritmos de reconstrução das imagens. Esta nova versão da pticografia eletrônica permite localizar átomos individuais em todas as três dimensões na amostra, átomos que ficam ocultos usando outros métodos de imageamento.
Curiosamente, a equipe descobriu que é melhor deixar o detector ligeiramente desfocado; isso borra a imagem, mas permite capturar a maior gama de dados possível. Esses dados são então reconstruídos por meio dos algoritmos melhorados, resultando em uma imagem com precisão de picômetros (10-12 metro).
"Isso não apenas estabeleceu um novo recorde. Chegamos a um regime que efetivamente será o limite final para a resolução. Basicamente, agora podemos descobrir onde os átomos estão de uma maneira muito fácil," disse o professor David Muller, coordenador da equipe.
Eventualmente a equipe poderá melhorar seu recorde, usando um material com átomos mais pesados, que chacoalham menos, ou resfriando a amostra. Mas, mesmo na temperatura mais baixa que se pode alcançar, os átomos ainda terão flutuações quânticas, então a melhoria não seria muito grande - de fato, quando falamos de temperatura, estamos medindo justamente esse chacoalhar dos átomos.
Mas a maior melhoria que se espera é tornar o método mais rápido e menos intensivo em computação.
Imagine edifícios inteiros capazes de armazenar energia, como uma bateria gigante, no próprio concreto de que ele é feito. [Imagem: Yen Strandqvist/Chalmers University of Technology]
Armazenar energia no concreto
Imagine usar a própria estrutura da sua casa, de prédios inteiros, e mesmo de construções como pontes e viadutos, para armazenar energia, transformando a construção toda em uma bateria gigantesca.
Essa visão começou a tomar forma, graças ao trabalho de Emma Zhang e Luping Tang, da Universidade Chalmers de Tecnologia, na Suécia.
Os dois pesquisadores estão construindo os primeiros protótipos de um tipo inédito de bateria: uma bateria recarregável de cimento.
Assim como em outra demonstração recente, na qual o cimento tornou-se capaz de conduzir eletricidade e gerar calor, a técnica começa com a adição de pequenas fibras de carbono ao cimento (0,5% em volume), para melhorar sua condutividade elétrica - com um ganho adicional de uma maior resistência à flexão.
Fazer uma bateria recarregável, contudo, exige mais do que simplesmente conduzir eletricidade. Para isso, a dupla incorporou ao cimento uma malha de fibra de carbono revestida de metal. Depois de uma série de experimentações, eles obtiveram os melhores resultados usando ferro para o anodo e níquel para o catodo.
Protótipo da bateria de cimento construída pelos pesquisadores. [Imagem: Chalmers University of Technology]
Bateria recarregável de cimento
Os primeiros protótipos da bateria recarregável à base de cimento alcançaram uma densidade de energia média de 7 watts por metro quadrado (Wh/m2), ou 0,8 watts por litro (Wh/L).
A densidade de energia ainda é baixa em comparação com as baterias comerciais, mas essa limitação pode ser superada graças ao grande volume no qual a bateria pode ser construída quando usada em edifícios - a densidade de energia é usada para expressar a capacidade de uma bateria, e uma estimativa conservadora indica que o desempenho da nova bateria pode ser mais de 10 vezes superior.
"Os resultados dos primeiros experimentos investigando a tecnologia de bateria de concreto mostraram um desempenho muito baixo, então percebemos que tínhamos que pensar fora da caixa, para chegar a outra maneira de produzir os eletrodos. Esta ideia particular que desenvolvemos - que também é recarregável - nunca foi explorada antes. Agora temos uma prova de conceito em escala de laboratório," contou Emma Zhang.
Mesmo que os desenvolvimentos futuros não atendam às expectativas dos pesquisadores, eles acreditam que já se pode pensar na tecnologia em aplicações como iluminação a LED, disponibilização de conexões sem fio ou mesmo na criação do que eles chamam de "concreto funcional", no qual a tecnologia de armazenamento de energia traria uma proteção catódica contra a corrosão.
"Também poderia ser acoplada a painéis de células solares, por exemplo, para fornecer eletricidade e se tornar a fonte de energia para sistemas de monitoramento em rodovias ou pontes, onde sensores operados por uma bateria de concreto poderiam detectar rachaduras ou corrosão," acrescentou Zhang.
Esquema de funcionamento da bateria de cimento. [Imagem: Zhang/Tang - 10.3390/buildings11030103]
Durabilidade
É preciso reconhecer, porém, que ideia ainda está em um estágio muito inicial. As questões técnicas que ainda precisam ser resolvidas antes de se pensar na comercialização das baterias de cimento incluem o aumento da vida útil da bateria, o aumento do número de ciclos de carga e descarga e o desenvolvimento de técnicas de reciclagem do concreto ao fim da vida útil.
"Como a infraestrutura de concreto geralmente é construída para durar cinquenta ou até cem anos, as baterias precisariam ser refinadas para corresponder a isso, ou para serem mais fáceis de trocar e reciclar quando sua vida útil terminar. Por agora, isso oferece um grande desafio do ponto de vista técnico," reconheceu Zhang.
Pesquisador alerta que se o desmatamento continuar, todo o esforço para reduzir as emissões de gases de efeito estufa no Brasil será em vão
Foto: Felipe Werneck | Ibama
O aumento do desmatamento ilegal na Amazônia põe em risco as metas de redução das emissões de gases de efeito estufa (GEE) estabelecidas na Contribuição Nacionalmente Determinada (NDC) do Brasil em 2015, por ocasião da assinatura do Acordo de Paris, e revisadas em dezembro de 2020.
A derrubada de floresta para conversão em pastagens no bioma amazônico tem impulsionado as emissões de GEE do país e se tornou, desde 2017, a principal fonte de geração no Brasil desses gases que contribuem para o aquecimento global, apontaram pesquisadores participantes do webinário “Contribuição Nacionalmente Determinada (NDC) Brasileira: metas nos setores estratégicos – florestas, agricultura e energia”, realizado pelo Programa FAPESP de Pesquisa sobre Mudanças Climáticas Globais (PFPMCG) na terça-feira (11/05).
“Se o desmatamento continuar, todo o esforço para reduzir as emissões de gases de efeito estufa no Brasil será em vão”, disse Eduardo Assad, pesquisador da Embrapa Informática Agropecuária, durante o evento.
De acordo com dados apresentados pelo pesquisador, até 2016, o setor agropecuário era responsável por 33,2% das emissões de GEE do Brasil e as mudanças de uso da terra, lideradas pelo desmatamento, por 27,1%. A partir de 2017 essa situação mudou e o desmatamento passou a ser a principal fonte de emissões de GEE no país.
Em 2019, as mudanças no uso da terra foram responsáveis por 44% das emissões de GEE do Brasil, contra 28% do setor agropecuário, 19% do energético, 5% dos processos industriais e 4% de resíduos. As mudanças no uso da terra também respondem pelo aumento de 23% nas emissões totais de GEE do país.
O desmatamento causou 94% dessas emissões brutas pelas mudanças no uso da terra e a maior parte (87%) ocorreu na Amazônia, apontou Ane Alencar, pesquisadora do Instituto de Pesquisa Ambiental da Amazônia (Ipam), com base em dados do Sistema de Estimativas de Emissões e Remoções de Gases de Efeito Estufa (SEEG), do Observatório do Clima, publicados no final de 2020.
“As emissões de gases de efeito estufa decorrentes do desmatamento na Amazônia vêm subindo nos últimos anos”, afirmou Alencar.
Imagem aérea de área preparada para monocultura ou pecuária, próximo a Porto Velho. Foto Bruno Kelly | Amazônia Real
Mais de 50% do desmatamento na Amazônia tem ocorrido em terras públicas, compostas por áreas de floresta não destinadas, terras devolutas, unidades de conservação e terras indígenas.
Nos últimos dois anos, tem ocorrido não só um aumento bastante expressivo de desmatamento como também de registros de Cadastro Ambiental Rural (CAR) nas áreas de florestas públicas não destinadas, que representam aproximadamente 57 milhões de hectares, equivalente a 14% da extensão do bioma, afirmou a pesquisadora.
“O aumento do registro de CAR nessas áreas é um forte indício de grilagem [falsificação de documentos para tomada ilegal de terras devolutas]”, apontou Alencar.
“A maior parte do desmatamento que ocorre dentro das florestas públicas não destinadas também acontece em áreas de CAR”, afirmou.
Na avaliação da pesquisadora, seria possível combater, pelo menos, metade do desmatamento na Amazônia, que ocorre justamente em terras públicas.
Algumas das ações necessárias para isso são tornar a fiscalização efetiva, destinar as florestas públicas para conservação e produção florestal sustentável e cancelar CAR sobrepostas nessas áreas. Já para proteger os 50% restantes da floresta seria preciso consolidar áreas protegidas e apoiar economias de base florestal, apoiar a conservação de ativos florestais privados com incentivos econômicos e ajudar economicamente e prover assistência técnica para a produção sustentável nos assentamentos.
Metas tímidas
Na opinião dos pesquisadores, as metas da NDC brasileira estabelecidas em 2015 e revisadas em 2020 para mudanças de uso da terra são muito tímidas em relação à participação do setor nas emissões de GEE do país.
A primeira NDC brasileira apresentou a meta de reduzir as emissões de GEE em 37% em 2025 e 43% em 2030 em relação a 2005, o que significaria metas de emissão de 1,38 gigatons de dióxido de carbono (CO2) em 2025 e 1,25 gigatons de CO2 em 2030.
Na revisão da NDC, publicada no final de 2020, esses percentuais foram mantidos, mas têm como linha de base estimativas de emissões de GEE mais altas do que as utilizadas na NDC original, em 2005. Dessa forma, mesmo com o atual nível de desmatamento na Amazônia, o Brasil conseguiria cumprir sua NDC em 2030.
“Para ser coerente com os recálculos, a meta de redução de emissões de GEE em 2030 deveria ser de, no mínimo, 55%”, avaliou Assad.
As metas da NDC brasileira para o setor agropecuário também são muito conservadoras, afirmou o pesquisador.
Algumas delas são a restauração até 2030 de 15 milhões de áreas de pastagem degradadas e o incremento também nesse período de cinco milhões de hectares de sistema integrado de lavoura, pecuária e floresta.
Porém, estudos do Laboratório de Processamento de Imagens e Geoprocessamento (Lapig), da Universidade Federal de Goiás (UFG), indicam que há 45 milhões de hectares de pastagem severamente degradados e 25 milhões moderadamente no país.
“Temos a possibilidade de reduzir quatro vezes mais as áreas de pastagem degradadas no país em comparação com o número acordado na NDC brasileira em 2015”, disse Assad.
Custo da NDC brasileira
O custo da NDC brasileira seria menor se outros setores, além do agropecuário, energético e florestal, fossem incluídos por meio da precificação e o estabelecimento de um mercado de créditos de carbono resultantes de projetos com foco na redução de emissões, indicou estudo realizado por Ângelo Costa Gurgel, professor da Fundação Getúlio Vargas (FGV), e em colaboração com outros pesquisadores.
“A opção sempre mais barata é estabelecer mercado de troca de permissões, em que todos os setores da economia participam do esforço da redução de emissões de gases de efeito estufa”, afirmou Gurgel.
Os pesquisadores também estimaram qual seria o preço do carbono nesse cenário de mercado amplo, em que todos os setores econômicos contribuem para redução das emissões. Os resultados dos cálculos indicam que o preço do carbono em 2030 seria de US$ 3 por tonelada.
“Se for mantido o atual modelo da NDC brasileira, em que apenas alguns setores da economia precisam fazer algum esforço para redução das emissões, essa política se torna muito cara no longo prazo”, disse Gurgel.
O financiamento da transição para uma economia de baixo carbono representa um desafio global, mas o Brasil apresenta algumas dificuldades particulares nessa questão, apontou Annelise Vendramini Felsberg, professora da FGV.
Uma dessas dificuldades é a atual situação macroeconômica do país, que deve dificultar muito a destinação de recursos públicos para essa agenda, avaliou a pesquisadora.
“Não há muito espaço fiscal no Brasil para o investimento público pesado na redução de emissões de gases de efeito estufa. Vamos ter que contar muito mais com recursos privados se quisermos avançar nessa agenda”, afirmou.
Uma das limitações nesse sentido, contudo, é que os investidores privados preferem os setores de energia e transporte e tendem a evitar o florestal, em razão do alto risco e da demora em obter o retorno do investimento, explicou Felsberg.
“O Brasil perdeu o grau de investimento e é percebido pelos investidores como um país difícil para se investir. E quando pensamos em restauração e conservação estamos olhando para um horizonte longo, de pelo menos sete anos, o que para o investidor é muito arriscado”, disse.
A combinação de um macroambiente político e econômico instável com deficiências importantes em questões legais, como o atraso na implementação do Código Florestal, aumenta a percepção de risco dos investidores no setor florestal no país, avaliou Felsberg.
“Se tivéssemos o Código Florestal e os PRAs [Programas de Regularização Ambiental] totalmente implantados nos Estados, metade desses problemas de financiamento seria superada”, estimou a pesquisadora.
Série de webinários
O evento foi o primeiro da série de seminários on-line “COP26: Discutindo a NDC Brasileira”, promovida pela FAPESP.
Nos eventos, serão analisadas áreas estratégicas e ações municipais e estaduais como esforços subnacionais para o atingimento das metas nacionais. Ao final de cada webinar, será elaborado um material com as principais conclusões para divulgação à sociedade científica e ao público geral.
“Escolhemos esses três temas para o primeiro evento – florestas, agricultura e energia –, porque representam desafios enormes para o Brasil. Não será fácil para a economia brasileira e a sociedade lidarem com esses três aspectos”, avaliou Paulo Artaxo, professor do Instituto de Física da USP e membro da coordenação do PFPMCG.
A atividade faz parte da implementação do Plano Estratégico 2020-2030 do Programa Mudanças Climáticas FAPESP.
“É fundamental que a sociedade se engaje nas discussões dos problemas associados a essas metas climáticas porque, no fim das contas, elas impactam nosso dia a dia e as futuras gerações”, disse Luiz Eugênio Mello, diretor científico da FAPESP, na abertura do evento.
O planeta Marte segue como o destino mais certo das futuras missões de exploração espacial, sobretudo quando se pensa nas instalações para colônias humanas. Em um trabalho desenvolvido pela parceria entre a ABIBOO Studio e a Sustainable Offworld Network (SONet), um grupo de cientistas e engenheiros desenvolveu o conceito de uma cidade sustentável no Planeta Vermelho, chamada Nüwa e planejada para abrigar cerca de 250.000 habitantes.
A capital marciana Nüwa foi selecionada como finalista do concurso de projetos de assentamentos viáveis, realizado no ano passado pela Mars Society. O projeto da cidade futurística é liderado pelo astrofísico Guillem Anglada, responsável também por comandar a descoberta do exoplaneta Proxima b. O local pensado para a instalação desta base é a região de Tempe Mensa; trata-se de um terreno íngreme que oferece a oportunidade de criar uma cidade vertical, usando as rochas como protetores da radiação e de eventos meteoritos, e também com acesso indireto à luz solar.
Concepção artística da cidade Nüwa, na região de Tempe Mensa (Imagem: Reprodução/ABIBOO Studio/SONet)
O número da população inicial seria de cerca de 250.000 pessoas, divididas em cinco outros locais onde serão instaladas pequenas cidades. Por exemplo, a cidade de Abalos estará localizada ao polo norte de Marte — para agilizar o acesso ao gelo de água desta região —, enquanto a cidade chamada Marineris fica no maior cânion do Sistema Solar, no Valle Marineris. O ponto central do projeto é o conceito de autossustentabilidade, ou seja, o assentamento precisa ser capaz de obter todos os recursos no próprio local. Segundo a equipe da ABIBOO, acredita-se que a construção da capital possa começar já em 2054 — realizando a primeira leva de habitantes até 2100.
Em entrevista ao portal Space.com, Anfredo Munoz, arquiteto internacionalmente conhecido envolvido no projeto da cidade de Nüwa, explicou que o conceito foi elaborado por cientistas renomados de diversos campos de conhecimento, combinando as soluções técnicas e científicas com as ideias arquitetônicas inovadores. ”Como podemos criar ambientes atraentes para as pessoas de forma que criem um senso de identidade e pertencimento? Vai além da beleza. É sobre o bem-estar emocional das pessoas que vão curtir e viver naquele espaço”, acrescentou Munoz.
A equipe do projeto pensa palenajam ambientes confortáveis, que garantam também uma experiência psicológica positiva para os futuros moradores (Imagem: Reprodução/ABIBOO Studio/SONet)
A cidade Nüwa, nome que faz referência à deusa mitológica chinesa que é protetora dos humanos, terá as principais atividades desenvolvidas no interior do penhasco de Tempe Mensa, nos chamados “macro edifícios”. Estas estruturas serão escavadas no interior das rochas, incluindo a abertura de túneis, onde serão instalados os módulos residenciais e de trabalho — tudo interligado por uma rede tridimensional de túneis. No ponto mais alto da falésia, será instalado a infraestrutura necessária para a produção de alimentos e geração de energia, pois as instalações agrícolas dependem do acesso direto à luz solar.
Na base do penhasco, ficarão grandes pavilhões pensados para a interação social no vale. Serão estruturas transparentes, de maneira a permitir que seus habitantes contemplem as paisagens marcianas, protegendo-os da radiação externas. Outras estruturas como hospitais, escolas e universidades, além de locais para prática esportiva e culturais, comerciais e até mesmo estações de trens serão construídas no Valle Marineris. Segundo Munoz, o uso da inteligência artificial e robótica será crucial para antes e durante a construção da base. “Do jeito que está a indústria de robótica, em mais de 20 anos estaremos mais do que prontos para ter o know-how para iniciar a construção”, disse.
(Imagem: Reprodução/ABIBOO Studio/SONet)
Mesmo com a cidade toda montada em Marte, será necessário que um serviço regular de ônibus espacial seja capaz de dar conta da grande demanda, aproveitando a janela de lançamento ideal para o planeta vizinho a cada 26 meses. A passagem de ida para Nüwa garantirá uma unidade residencial com tamanho de 25 a 32 metros quadrados, e também acesso total às instalações comuns, bem como os serviços de suporte à vida e de alimentação. Ao chegar lá, o novo morador assinará um contrato para que dedica entre 60% a 80% do seu tempo de trabalho em funções atribuídas pela cidade.
A seguir, você confere o conceito das instalações futurísticas da megacidade Nüwa em Marte:
Desde o Big Bang, o Universo vem se expandindo — saber o quão rápido isso está acontecendo pode nos dizer seu tamanho e idade
Vamos começar dizendo que o universo é grande. Estima-se que, se olharmos em qualquer direção, suas regiões visíveis mais distantes estão a cerca de 46 bilhões de anos-luz de distância.
Isso significa ter um diâmetro de 540 sextilhões de milhas (ou 54 seguido por 22 zeros).
Mas este é, na verdade, nosso melhor palpite: ninguém sabe exatamente o quão grande o universo realmente é.
Isso se deve ao fato de que só podemos ver a distância percorrida pela luz (ou, mais precisamente, a radiação de micro-ondas lançada a partir do Big Bang) desde sua origem.
Desde que o universo surgiu há cerca de 13,8 bilhões de anos, ele vem se expandindo.
Mas, como tampouco sabemos sua idade precisa, é difícil determinar até que ponto ele se estende além dos limites do que podemos ver.
No entanto, os astrônomos tentaram usar uma propriedade para descobrir, um número conhecido como constante de Hubble.
"É uma medida de quão rápido o universo está se expandindo agora", diz Wendy Freedman, astrofísica da Universidade de Chicago, nos EUA, que dedica sua carreira a fazer estas medições.
"A constante de Hubble estabelece a dimensão do universo, tanto seu tamanho quanto sua idade", acrescenta.
Pense no universo como um balão que infla.
À medida que as estrelas e galáxias, pontos na superfície de um balão, se separam mais rapidamente, maior é a distância entre elas.
Da nossa perspectiva, isso significa que quanto mais longe uma galáxia está de nós, mais rápido ela se afasta.
Infelizmente, quanto mais os astrônomos calculam esse número, mais ele parece desafiar as previsões baseadas em nossa compreensão do universo.
Um método de medir diretamente nos dá um certo valor, enquanto outra medição, que se baseia na nossa compreensão de outros parâmetros sobre o universo, diz algo diferente.
Ou as medidas estão incorretas ou há algo de errado na maneira como pensamos que nosso universo funciona.
Nossa galáxia, a Via Láctea, está se afastando de outras ao seu redor conforme o Universo se expande
Mas os cientistas acreditam que agora estão mais perto de encontrar uma resposta, graças em grande parte a novos experimentos e observações destinadas a descobrir o que é exatamente a constante de Hubble.
"O que enfrentamos como cosmologistas é um desafio de engenharia: como medimos essa quantidade da forma mais precisa e exata possível?", afirma Rachael Beaton, astrônoma que trabalha na Universidade de Princeton, nos EUA.
Para enfrentar este desafio, diz ela, não só é preciso obter os dados para poder medir, como também verificar as medidas de todas as maneiras possíveis.
"Da minha perspectiva como cientista, isso é mais como montar um quebra-cabeça do que estar dentro de um mistério no estilo Agatha Christie."
A primeira medição da constante de Hubble, feita em 1929 pelo astrônomo Edwin Hubble, que deu nome a ela, foi de 500 km por segundo por megaparsec (km/s/Mpc).
O megaparsec é uma unidade de distância usada em astronomia equivalente a 3,26 milhões de anos-luz.
O valor calculado pelo cientista indica que para cada megaparsec mais longe da Terra que você olha, as galáxias que você vê estão se afastando de nós 500 km/s mais rápido do que aquelas que estão a um megaparsec mais perto.
Mais de um século após a primeira estimativa de Hubble da taxa de expansão cósmica, esse número foi revisto várias vezes.
As estimativas de hoje variam entre 67 e 74 km/s/Mpc.
Parte do problema é que a constante de Hubble pode ser diferente dependendo de como é medida.
A maioria das descrições da discrepância da constante de Hubble diz que há duas maneiras de medir seu valor.
Uma delas observa a velocidade com que as galáxias próximas estão se afastando de nós, enquanto a segunda usa a radiação cósmica de fundo em micro-ondas (CMB, na sigla em inglês) — vestígios de luz do Big Bang.
Ainda podemos ver essa luz hoje, mas como as partes distantes do universo estão se afastando de nós, a luz se estendeu em ondas de rádio.
Esses sinais de rádio, descobertos por acidente na década de 1960, nos dão uma ideia de como era o universo nos tempos mais remotos.
Duas forças concorrentes, a atração da gravidade e a pressão para fora da radiação, fizeram um cabo de guerra cósmico com o universo em sua infância.
Isso criou distúrbios que ainda podem ser vistos na radiação cósmica de fundo em micro-ondas como pequenas diferenças de temperatura.
Usando essas perturbações, é possível medir quão rápido o universo estava se expandindo logo após o Big Bang — e isso pode ser aplicado ao Modelo Padrão de Cosmologia para deduzir a taxa atual de expansão.
Este Modelo Padrão é uma das melhores explicações que temos de como o Universo começou, do que ele é feito e o que vemos ao nosso redor hoje.
Mas há um problema.
CRÉDITO,NASA/JPL/ESA-PLANCK
Legenda da foto,
Pequenos distúrbios nos primórdios do universo podem ser vistos em flutuações na radiação cósmica de fundo em micro-ondas
Quando os astrônomos tentam medir a constante de Hubble observando como as galáxias próximas estão se afastando de nós, eles obtêm um valor diferente.
"Se o Modelo [Padrão] está correto, então você imaginaria que os dois valores, o que você mede hoje localmente e o valor que você deduz das primeiras observações, estariam alinhados", diz Freedman.
"E não estão."
Quando o satélite Planck da Agência Espacial Europeia (ESA, na sigla em inglês) mediu as discrepâncias na CMB, primeiro em 2014 e depois novamente em 2018, o valor obtido para a constante de Hubble foi de 67,4 km/s/Mpc.
Mas esse número é cerca de 9% menor do que o valor que astrônomos como Freedman mediram ao observar galáxias próximas.
Outras medições da CMB em 2020 usando o Telescópio de Cosmologia do Atacama se correlacionam com os dados do satélite Planck.
"Isso ajuda a descartar que houve um problema sistemático com o Planck a partir de algumas fontes", diz Beaton.
Se as medições de CMB estiverem corretas, restam apenas duas possibilidades: ou as técnicas usando luz de galáxias próximas não funcionam ou o Modelo Padrão de Cosmologia precisa ser alterado.
A técnica usada por Freedman e seus colegas é baseada em um tipo específico de estrela chamada variável cefeida.
CRÉDITO,NASA/ESA/HUBBLE HERITAGE TEAM
Legenda da foto,
Estrelas pulsantes chamadas variáveis cefeidas, como esta, podem ser usadas para medir distâncias no Universo e revelar quão rápido ele está se expandindo
Descobertas há cerca de 100 anos por uma astrônoma chamada Henrietta Leavitt, essas estrelas mudam seu brilho, pulsando mais fraco ou com mais intensidade ao longo de dias ou semanas.
Leavitt descobriu que quanto mais brilhante a estrela, mais tempo leva para se iluminar, depois escurecer e então brilhar novamente.
Agora, os astrônomos podem dizer exatamente o quão brilhante uma estrela realmente é, estudando esses pulsos de brilho.
Ao medir o quão brilhante ela nos parece da Terra e sabendo que a luz diminui em função da distância, esta técnica proporciona uma maneira precisa de medir a distância até as estrelas.
Freedman e sua equipe foram os primeiros a usar variáveis cefeidas em galáxias vizinhas à nossa para medir a constante de Hubble utilizando dados do Telescópio Espacial Hubble.
Em 2001, eles calcularam 72 km/s/Mpc.
Desde então, o valor obtido a partir do estudo de galáxias locais tem girado em torno do mesmo ponto.
Usando o mesmo tipo de estrela, outra equipe utilizou o Telescópio Espacial Hubble em 2019 e chegou a 74 km/s/Mpc.
Apenas alguns meses depois, outro grupo de astrofísicos usou uma técnica diferente envolvendo a luz proveniente de quasares e obteve um valor de 73 km/s/Mpc.
Se essas medidas estiverem corretas, então é possível pensar que o universo poderia crescer mais rápido do que as teorias do Modelo Padrão de Cosmologia permitem.
Isso pode significar que esse modelo, e com ele nossa melhor tentativa de descrever a natureza fundamental do universo, precisa ser atualizado.
No momento, não dá para responder ao certo. Mas, se for esse o caso, as implicações podem ser profundas.
CRÉDITO,NASA/DESIREE STOVER
Legenda da foto,
O espelho de 18 segmentos do Telescópio Espacial James Webb vai capturar a luz infravermelha de algumas das primeiras galáxias que se formaram
"Isso pode nos indicar que está faltando alguma coisa em nosso Modelo Padrão", diz Freedman.
"Ainda não sabemos por que isso está acontecendo, mas é uma oportunidade de avançar em direção a uma descoberta."
Se o Modelo Padrão estiver errado, uma das primeiras coisas que pode significar é que nossos modelos de do que o universo é feito, as quantidades relativas de matéria bariônica ou "normal", matéria escura, energia escura e radiação, não estão muito certas.
Além disso, se o universo está realmente se expandindo mais rápido do que pensamos, ele poderia ser muito mais jovem do que os 13,8 bilhões de anos que atualmente acredita-se que tenha.
Uma explicação alternativa para a discrepância é que a parte do universo em que vivemos é de alguma forma diferente ou especial em comparação com o resto do universo, e essa diferença está distorcendo as medidas.
"Está longe de ser uma analogia perfeita, mas você pode pensar em como a velocidade ou aceleração do seu carro muda conforme você sobe ou desce uma colina, mesmo se você estiver aplicando a mesma pressão no pedal do acelerador", diz Beaton.
"Acho pouco provável que seja a causa principal da discrepância na constante de Hubble que vemos, mas também acho importante não ignorar o trabalho desses resultados."
Mas os astrônomos acreditam que estão mais perto de determinar qual é a constante de Hubble e qual das medidas está correta.
"O que é empolgante é que acredito que realmente vamos resolver isso em um período de tempo bastante curto, seja em um, dois ou três anos", afirma Freedman.
"Há tantas coisas vindo no horizonte e que vão melhorar a precisão com que podemos fazer essas medições que acho que vamos chegar ao fundo disso."
Uma dessas coisas é o observatório espacial Gaia da ESA, que foi lançado em 2013 e tem medido as posições de cerca de 1 bilhão de estrelas com alto grau de precisão.
Os cientistas o estão usando para calcular as distâncias até as estrelas com uma técnica chamada paralaxe.
À medida que este observatório espacial orbita ao redor do Sol, seu ponto de vista no espaço muda, assim como se você fechasse um olho e olhasse para um objeto, e depois olhasse com o outro olho, o objeto parece estar em um lugar ligeiramente diferente.
Portanto, ao estudar objetos em diferentes épocas do ano durante sua órbita, Gaia permitirá aos cientistas calcular com precisão a velocidade com que as estrelas estão se afastando do nosso próprio Sistema Solar.
Outro recurso que ajudará a responder qual é o valor da constante de Hubble é o Telescópio Espacial James Webb, que será lançado no fim de 2021
Ao estudar os comprimentos de onda infravermelhos, permitirá melhores medições que não serão obscurecidas pela poeira existente entre nós e as estrelas.
No entanto, se descobrirem que a diferença na constante de Hubble persiste, será a hora de uma nova física.
E embora muitas teorias tenham sido apresentadas para explicar a diferença, nenhuma se encaixa perfeitamente com o que vemos ao nosso redor.
Cada teoria possível tem um inconveniente.
Por exemplo, pode ser que houvesse outro tipo de radiação no início do universo, mas medimos a CMB com tal precisão que não parece provável.
Outra opção é que a energia escura pode mudar com o tempo.
"Parecia uma linha de estudo promissora a seguir, mas agora existem outras limitações sobre quanto a energia escura pode mudar em função do tempo", afirma Freedman.
"Teria que ser feito de uma forma realmente artificial e isso não parece muito promissor."
Uma alternativa é que havia energia escura presente no universo primitivo que simplesmente desapareceu, mas não há nenhuma razão óbvia para que isso acontecesse.
Tudo isso obrigou os cientistas a vislumbrar novas ideias que poderiam explicar o que está acontecendo.
"As pessoas estão trabalhando muito, é empolgante", acrescenta Freedman.
"Só porque ninguém ainda descobriu o que [a explicação] é, não significa que uma boa ideia não aparecerá."
Dependendo do que esses novos telescópios revelem, Beaton e Freedman podem se ver em meio a um mistério digno de um romance de Agatha Christie.