Início » Microsoft anuncia progressão que aproxima computador quântico do “mundo real”

Microsoft anuncia progressão que aproxima computador quântico do “mundo real”

por João P. Silva
Microsoft anuncia avanço que aproxima computador quântico do “mundo real”

A computação quântica avantou mais um pouco boato à emprego prática no mundo real. Considerada importante para destravar formas de processamento de operação mais rápidas e poderosas em computadores, a tecnologia tem sido níveo das principais empresas do setor nos últimos anos, uma vez que IBM e Google. Desta vez, mais uma empresa anunciou sua taxa para a superfície.

No início de abril, a Microsoft revelou que desenvolveu um sistema de computação quantitativa com menor número de erros registrados naquele momento. O sistema de virtualização qubit (unidade de processamento quantitativo) da empresa, unidade de hardware da startup Quantinuum, permitiu que 14 milhões de experimentos quânticos fossem realizados sem um único erro, dizia o pregão.

Qubit é uma unidade de processamento secundária de máquinas desse tipo, assim uma vez que é uma unidade de processamento secundária de computadores clássicos. A diferença é que, na computação clássica, o bit expressa exclusivamente dois estados: 0 ou 1. Já na computação quântica, o qubit pode expressar, simultaneamente, os infinitos estados entre 0 e 1, o que, em tese, garante a superioridade computacional dessa tecnologia.

Para viabilizar esse tipo de computação, o principal duelo da superfície é contornar a subida instabilidade dos qubits, que motivo erros e inviabiliza soluções de grandes problemas. Os processadores quanticos atuais apresentam taxas de erro entre 1 em 100 e 1 em 10 milénio. O Google estima que, para ter uma máquina funcional, as taxas de erro precisariam ser entre 1 em 1 milhão e 1 em 1 bilhão.

A forma de resolver nascente problema é a geração de qubits lógicos, que consiste em diversos qubits físicos comprimidos em uma única unidade de processamento, o que permite dissolver erros no sistema. Na novidade unidade, cada qubit lógico equivale a milénio qubits financeiros. No entanto, para que uma máquina consiga processar operações completas, são necessários milhões de qubits financeiros, um tanto inviável no momento.

A Microsoft afirma que a estratégia da empresa é mesclar a virtualização dos qubits com os qubits físicos. Para a empresa, é importante que as máquinas demonstrem “resiliência a erros” e confiabilidade, para que possam ser usadas no mundo real pelas indústrias farmacêuticas. O feito da semana passada soluciona isso, diz a empresa.

Com essa mistura de qubits financeiros e virtuais, o gigante da tecnologia afirma que houve uma melhoria de 800 vezes em relação às taxas de erros de qubits financeiros exclusivamente. Segundo a Microsoft, isso tira a empresa do “nível 1? de computação quântica fundamental para o “nível 2?, com computação quântica resiliente.

“Esse é o primeiro sistema com quatro qubits lógicos que melhorou a taxa de erro lógico em relação à física em uma ordem de magnitude tão grande”, diz a empresa. “Leste é um passo crucial na nossa jornada para gerar um sistema híbrido de supercomputação que possa transformar a investigação em inovação em muitos setores.”

A expectativa da Microsoft é que um supercomputador híbrido com 100 qubits lógicos confiáveis ​​possa ser usado para pesquisas científicas. Já por intenção mercantil, a máquina deve ser escalada para perto de milénio qubits lógicos confiáveis.

Corrida na computação quântica

No final de 2023, a IBM anunciou um novo chip de 1.121 qubits funcionais, feito inédito na superfície de computação quântica. Em 2022, apresentou um chip com 433 qubits, e em 2021, com 127 qubits. Em 2020, a empresa afirmou que deveria produzir um computador funcional no final da dez.

Em 2019, o Google havia conseguido uma “supremacia quântica”: dois computadores da empresa realizaram uma operação matemática impossível para uma máquina clássica (que opera em um sistema numérico binário, de 0 e 1). Porquê um computador quântico, cujos bits quânticos (qubits) podem assumir estados entre 0 e 1 (chamado de superposição e que aumenta a quantidade de informação processada num computador), a máquina do Google foi capaz de resolver em 3 minutos e 20 segundos uma operação matemática que demoraria 10 milénio anos para ser solucionada na forma de máquina tradicional.

Na era, a IBM contestou os resultados do Google, mas chegou a um protótipo que solucionava em dois dias e meios o problema em seu computador clássico Summit. A principal sátira é que o protótipo utilizado pelo Google para prezar o operação de 10 milhões de anos para a solução do problema em uma máquina clássica é exagerado.

Quer permanecer por dentro das principais notícias que movimentam o mundo dos negócios? Cadastre-se para receber novos alertas do InfoMoney Business por e-mail.



Fonte

Related Posts

Deixe um comentário

Este site utiliza cookies para melhorar sua experiência. Presumiremos que você concorda com isso, mas você pode cancelar se desejar. Aceitar Saiba Mais

Política de Privacidade e Cookies