Cientistas desenvolvem a maior simulação do universo até agora

Jônatas Ribeiro

Na era de revolução tecnológica em que vivemos, o tratamento de dados e os modelos matemáticos ganham cada vez mais importância. Ideias voltadas à análise e visualização de informação por estatística passaram a ser muito utilizadas em vários setores da economia. Não à toa, as profissões de analista, engenheiro e cientista de dados crescem cada vez mais. Para os cientistas, por sua vez, a estatística é, há muito tempo, uma velha aliada. Mais do que isso, indispensável. Ao lado dela, e também relacionadas a ela, estão as simulações.

typhoon
Imagem: Wikimedia Commons

Uma simulação ou modelo não é um quadro totalmente verdadeiro da realidade. Pode ser, porém, uma boa aproximação. Utiliza de informações empíricas, isto é, observadas na natureza, para prever ou demonstrar algum tipo de comportamento. Podemos, assim, encontrar respostas e formular novas perguntas com um certo grau de confiança a partir do que já sabemos sobre algo. Em tempos de preocupação crescente com o aquecimento global, modelos climáticos são importantes para entendermos o futuro, por exemplo. E ainda podemos até mesmo desenvolver modelos de coisas distantes de nós. Por exemplo, a evolução do Sol. A quantidade de dados, contudo, se torna cada vez maior quanto mais complexo é o que vai ser modelado. Consegue imaginar, então, como seria um modelo do universo?

Os modelos na astrofísica

Simulações são muito importantes na astrofísica. Isso porque não temos contato direto com os objetos de estudo. As informações, portanto, são extraídas a partir de métodos engenhosos de observação. Pela espectroscopia, por exemplo, conseguimos entender melhor a composição química dos astros. Pela análise do movimento dos corpos, por sua vez, podemos ter informações sobre suas massas e distâncias. A estatística, em sua forma mais tradicional, contudo, trabalha com repetições. E como repetir o que acontece numa estrela distante? Na astronomia, não há ambientes controlados. O tamanho de uma amostra, em muitos casos, corresponde a poucos ou até mesmo um só dado.

Nos modelos, porém, podemos alterar parâmetros. Construir novos cenários. E explorar múltiplas versões de um objeto ou fenômeno. Uma aplicação conhecida são os problemas de N-corpos. Neles, se estuda o movimento de um sistema com muitos corpos celestes a partir da força gravitacional entre eles. A solução parece simples. Pelo fato, contudo, de que todo par de corpos interage entre si com alguma intensidade, a matemática pode ficar bastante complexa adicionando mais e mais objetos. Foi a partir de um problema assim que cientistas criaram uma nova simulação do universo. E os dados, acredite, cabem na memória de um computador.

aglomerado de galáxias
Imagem: Dark Energy Survey/DOE/FNAL/DECam/CTIO/NOIRLab/NSF/AURA Acknowledgments: T.A. Rector (University of Alaska Anchorage/NSF’s NOIRLab), M. Zamani (NSF’s NOIRLab) & D. de Martin (NSF’s NOIRLab)

O universo na palma da mão

O trabalho publicado na Monthly Notices of the Royal Astronomical Society e disponível na base de artigos ArXiv não foca na formação e evolução de estrelas. Isso porque a ênfase é mais ampla. A maior simulação demonstrada, chamada Uchuu, considera cerca de 2.1 trilhões de partículas massivas de matéria escura espalhadas por mais de 9 bilhões de anos-luz. Isso porque, até onde sabemos, o que chamamos de matéria escura compõe a maior parte do universo. Logo, é fundamental para a formação e aglomeração de galáxias. A resolução das simulações é tão alta que é possível distinguir os aglomerados dos halos de matéria escura que acreditamos encobrirem as galáxias. Uma simulação como essa pode ser bem útil para astrofísicos trabalhando com grandes quantidades de dados. Até agora, é também a maior já desenvolvida.

O grande feito não vem sem um custo computacional, contudo. Foram necessários 40 mil núcleos e 20 mil horas de processamento para gerar 3 petabytes de dados. Em termos mais comuns, isso seria equivalente a mais de 3 milhões de gigabytes. Usando alta compressão, contudo, a memória ocupada pôde ser reduzida para cerca de 100 terabytes. E já existem SSDs (um tipo de memória de computador) com essa quantidade de armazenamento. O preço ainda não é acessível para usuários comuns, mas previsões estimam que estarão mais presentes entre nós em um futuro próximo. Por enquanto, para a maioria de nós, podemos nos contentar em acessar os dados pela Internet.

Compartilhar