Cômputo raro na Terra

por Alessandro Mancio de Camargo

[Abstract] In order to quit of any denials about climate change, how quantum computing can lead a new Earth beat? Based thereon, the posting remark technological products, such as those obtained from rare earth elements used as raw material in nanotechnological components, which are fundamental for the new data processing machines to solve in seconds, and not in years, complex climate problems.

O clima na Terra segue alterado de forma sem precedentes em milhares de anos na história da natureza, senão a centenas de milhares de anos. E algumas dessas mudanças postas em movimento – como o aumento contínuo do nível do mar – são irreversíveis ao longo das próximas centenas a milhares de anos [1].

O alerta faz parte de um primeiro rascunho do AR6 (Sexto Relatório de Avaliação do Painel Intergovernamental sobre Mudanças Climáticas) divulgado no início de agosto pelo IPCC. Publicado para discussão entre os formuladores de políticas públicas, o documento antecipa dados da versão final do trabalho, a ser divulgada em fevereiro de 2022.

Para os especialistas, a estabilização do clima exigirá reduções fortes, rápidas, sustentadas nas emissões de gases de efeito estufa (especialmente o metano). Isso é necessário para alcançar emissões líquidas zero de CO2, tendo em vista obter os reais benefícios tanto para a saúde quanto para o clima e mitigar os riscos da mudança climática.

A divulgação de um rascunho preliminar, com ampla repercussão na mídia, é só uma das críticas feitas ao IPCC entre quem nega a crise climática [2]. Desde a fundação deste painel intergovernamental, os críticos dizem que as únicas certezas que se têm sobre o IPCC são quanto à produção e divulgação sem parar de rascunhos de relatórios, e documentos que não podem provar as hipóteses levantadas. Além disso, tais materiais sempre recorrem ao chamado Princípio da Precaução para sustentar argumentos que atraiam a opinião pública a seu favor, mesmo sem certeza sobre as catástrofes anunciadas.

De fato, o chamado Princípio da Precaução existe para dirimir certos conflitos e levar a sociedade a agir com base no desconhecido ou apenas em hipóteses. Em outras palavras, ativar certas tomadas de decisões em função de acontecimentos possíveis, futuros, que trarão consequências maléficas se o alerta hipotético não for atendido. Postula-se agir no presente sobre algo grave, mas incerto, independentemente do custo disso [3].

No entanto, com o avanço da ciência, está em curso uma nova forma de processar os dados da natureza. Logo, asseverar as consequências climáticas das ações humanas no futuro tornar-se-á mais fácil, rápido, seguro – espera-se.

Esse movimento científico, respaldado pelo advento da computação quântica, prescindirá da precaução em favor de Princípios como o da Incerteza de Heisenberg [4] – aquele mesmo que, gestado no campo da Física Quântica, já levou a sociedade a perder a fé nos métodos e nos valores científicos, em 1929.

Naquela época, grosso modo, o Princípio da Incerteza mostrava que a ciência estabelecida até então não podia prever como as coisas funcionavam no universo atômico. Não mais. Com o surgimento de novas formas de saber e tecnologias, em vez de precaução poderá haver mais certeza para sufocar o negacionismo climático.

É desse modo que a pesquisa avança

Há cerca de 80 anos, nos laboratórios da Bell Telephone, os pesquisadores chegaram a uma solução, o transistor, que revolucionou a comunicação digital. Este invento, entre outras conquistas, acelerou a corrida em torno do processamento de dados, da transmissão de informação e conhecimento, e da diminuição do tamanho dos componentes eletrônicos, em substituição às válvulas [5].

Os transistores usados na construção dos microchips já estão próximos do limite físico, devido a restrições para redução contínua de tamanho impostas pela matéria-prima deles, silício, que assim como outros elementos é obtido das chamadas terras raras, componentes críticos para o desenvolvimento dos produtos tecnológicos. Outros elementos foram descobertos, porém, para resolver isso. As alternativas potenciais incluem materiais como grafeno, e outras terras raras, essenciais na montagem dos componentes empregados na fabricação dos computadores quânticos.

Antes de avançar cabe uma advertência, já reproduzida em outras postagens de TransObjeto (vide Securitização da Mente), sobre como a atividade de mineração, também usada para extrair as terras raras presentes nos microchips e nas baterias dos produtos eletrônicos, dilapida a natureza e estimula poluição, guerras [6].

De todo modo, busca-se com a computação quântica, que não prescinde dos elementos das terras raras, explorar a habilidade de partículas subatômicas existirem em mais de um estado ao mesmo tempo para resolver problemas complexos ou demorados para os computadores tradicionais.

IBM e outras Big Techs desenvolvem computadores quânticos com base nessas propostas [7]. Em comum, apoiam-se na chamada nanotecnologia. Embora os debates em torno disso não sejam largamente divulgados, desde 1961 o tema ganha espaço na pesquisa científica devido à apresentação nos Estados Unidos da palestra There’s Plenty of Room at the Bottom proferida pelo físico Richard Feynman [8].

Em linhas gerais, o trabalho seminal de Feynman abriu nossos olhos para as inúmeras possibilidades da manipulação de estruturas atômicas ou moleculares minúsculas, nano, cuja unidade de medida, nanômetro, é um milhão de vezes menor que um milímetro. Para se ter uma noção exata do universo nano, um ser humano de 1,80 metro de altura possui um bilhão e 800 milhões de nanômetros.

Com tais características aparentemente raras e/ou incertas, a nanotecnologia apresenta possibilidades promissoras para o design de materiais, componentes miniaturizados, computação. As empresas que investem em pesquisa em nanoeletrônica buscam dominar as propriedades dos materiais em nível micro, e vencer desafios como mantê-los resfriados mesmo sob taxas sem precedentes da velocidade de processamento, que são competências necessárias para produzir e usufruir dos nanocomponentes.

Grosso modo, a mecânica quântica usada tanto para compreender o comportamento das nanopartículas quanto para desenvolver os computadores quânticos surgiu como alternativa às limitações da mecânica clássica de Newton, cujas equações seguem válidas para descrever precisamente o que se observa no mundo visível, a olhos nu, entretanto não esclarece o que ocorre em escala nano, atômica.

Ao passo que 1 bit de informação contido num transistor de silício pode representar bilhões de átomos interligados, porém sempre lidos como 0 ou 1, o qubit (também conhecido como bit quântico ou q-bit) consegue, por meio do entrelaçamento de estados em nível atômico, processar simultaneamente qualquer possível combinação de 0, 1, ou uma superposição de ambos.

É como dizer que um gato, colocado dentro de uma caixa, pode estar vivo e morto ao mesmo tempo, conforme o paradoxo lançado em 1935 por Schrödinger para apontar que, diferentemente do determinismo da física clássica, na quântica pode-se pressupor uma sobreposição de estados e tirar proveito dessa dúvida. O qubit, portanto, não equivale a ter só mais velocidade de processamento, comparativamente aos microchips transistorizados. Mas a ter uma maneira de computar questões complexas antes impossíveis, como calcular se há um felino morto/vivo na caixa.

Que diferença isso pode trazer para a humanidade?

Um estudante ou profissional que usa processador de texto não obterá benefícios com um computador quântico. Logo, a nova tecnologia não se aplica diretamente aos usuários domésticos.

Mas se ainda é impossível simular tudo o que ocorre nos sistemas naturais – previsões climáticas em tempo real, levando em conta todas as variáveis possíveis –, ou operações que levariam um tempo muito grande para ser realizadas com precisão, como obter evidência incontroversa de que bastaria mesmo 2°C de aquecimento global para os extremos de calor alcançarem os limites de tolerância críticos à agricultura e à saúde, com o bônus de se saber quando e como isso vai ou não ocorrer; bem, esses e outros dilemas da humanidade poderão ser resolvidos em segundos por meio do cômputo quântico.

A complexidade disso ultrapassa a capacidade de os microchips transistorizados realizar o processamento de dados. Por outro lado, simplificar ou simular as variáveis envolvidas num cálculo sobre o comportamento do clima compromete o resultado. Por isso, o IPCC ainda lança mão do criticado Princípio da Precaução, citado no início desta postagem. Os críticos que põem em dúvida a mudança climática notam isso, mas com o advento dos computadores quânticos, possivelmente, perderão esse último argumento.

Referências

[1] Disponível em: https://www.ipcc.ch. Acesso em: 3 set. 2021.

[2] Disponível em: https://bit.ly/3thDi9J . Acesso em: 5 set. 2021.

[3] Disponível em: https://bit.ly/3jHBhAx. Acesso em: 3 set. 2021.

[4] Disponível em: https://bit.ly/3jJdAaY. Acesso em: 3 set. 2021.

[5] Disponível em: https://bit.ly/3Bz5urE. Acesso em: 3 set. 2021.

[6] Disponível em: https://glo.bo/3zLLPV1. Acesso em: 5 set. 201.

[7] Disponível em: https://ibm.co/2VdKZ4h. Acesso em: 3 set. 2021.

[8] Disponível em: https://bit.ly/3yCv25v. Acesso em: 3 set. 2021.

Deixe um comentário