quinta-feira, 10 de dezembro de 2020

New Microsoft Spear-Phishing Attack Uses Exact Domain Spoofing Tactic

Por David Bisson em 10/12/2020 no site The State of Security.




Security researchers detected a new spear-phishing attack that’s using an exact domain spoofing tactic in order to impersonate Microsoft.

On December 7, IRONSCALES revealed that it had spotted the campaign targeting Office 365 users. Those users primarily worked in the financial services, healthcare, insurance, manufacturing, utilities and telecom industries.

The email security provider took a deep dive into the campaign and found that it was using an exact domain spoofing technique. This means that the campaign’s attack emails used a fraudulent domain that was an exact match to the spoofed entity’s domain.

For the attack, malicious actors disguised the attack emails so that they appeared to have originated from “Microsoft Outlook” at the email no-reply@microsoft[dot]com.

A screenshot of one of the attack emails. (Source: IRONSCALES)

Those emails used the lure of quarantined messages to trick recipients into clicking on a malicious link. If they complied, the campaign redirected the recipients to a fake login page designed to steal their Office 365 credentials.

Notwithstanding their spoofing techniques, the attack emails failed their Sender Policy Framework (SPF) check. This means that the messages were able to bypass the email gateway and land in users’ inboxes.

IRONSCALES investigated this issue and arrived at an explanation. As quoted in its blog post:

Our research found that Microsoft servers are not currently enforcing the DMARC protocol, meaning these exact domain spoofing messages are not being rejected by gateway controls, such as Office 365 EOP and ATP…. It remains unknown as to why Microsoft is allowing a spoof of their very own domain against their own email infrastructure. 

News of this campaign highlights the need for organizations to defend themselves against phishing attacks. One of the ways they can do this is by educating their workforce about some of the most common types of phishing attacks and techniques that are in circulation today. This resource is a good place to start.

segunda-feira, 7 de dezembro de 2020

Por que as empresas estão mudando do TensorFlow para o PyTorch

Por Scott Carey em 04/12/2020 no site Computerworld 


Foto: Adobe Stock


Uma subcategoria do aprendizado de máquina, o aprendizado profundo (também conhecido como deep learning) usa redes neurais em várias camadas para automatizar em escala tarefas que ainda são realizadas com bastante dificuldade por máquinas, como reconhecimento de imagem, processamento de linguagem natural (NPL) e tradução automática. 

TensorFlow, que surgiu do Google em 2015, tem sido a estrutura de aprendizado profundo de código aberto mais popular para pesquisa e negócios. Mas o PyTorch, que surgiu do Facebook em 2016, rapidamente alcançou essa solução, graças às melhorias conduzidas pela comunidade na facilidade de uso e implantação para uma gama cada vez maior de casos de uso. 

O PyTorch está tendo uma adoção particularmente forte na indústria automotiva — onde ele pode ser aplicado em sistemas de direção autônoma de empresas como Tesla Lyft, no nível 5 de autonomia automotiva. A estrutura também está sendo usada para classificação de conteúdo e recomendação em empresas de mídia e para ajudar a robôs de suporte em aplicações industriais. 

Joe Spisak, líder de produto de inteligência artificial no Facebook AI, disse à InfoWorld que, embora tenha ficado satisfeito com o aumento na adoção do PyTorch pelas empresas, ainda há muito trabalho a ser feito para obter uma adoção mais ampla da indústria. 

“A próxima onda de adoção virá com a habilitação do gerenciamento do ciclo de vida do produto, melhorias no MLOps e pipelines Kubeflow, além da [participação da] comunidade em torno disso”, disse ele. “Para aqueles no início da jornada, as ferramentas são muito boas, usando serviços gerenciados e com código aberto, como o SageMaker da AWS ou Azure ML para começar.” 

Disney: identificando rostos animados em filmes 

Desde 2012, engenheiros e cientistas de dados da gigante de mídia Disney vem construindo o que a empresa chama de Genoma de Conteúdo, um gráfico de conhecimento que reúne metadados de conteúdo para alimentar aplicativos de pesquisa e personalização. Tudo feito com base no aprendizado de máquina de toda a enorme biblioteca de conteúdo da Disney. 

“Esses metadados aprimoram as ferramentas usadas pelos contadores de histórias da Disney para produzir conteúdo; inspirar criatividade iterativa na narração de histórias; melhorar as experiências do usuário através de mecanismos de recomendação, navegação digital e descoberta de conteúdo; e possibilitar a inteligência de negócios ”, escreveram os desenvolvedores da Disney Miquel Àngel Farré, Anthony Accardo, Marc Junyent, Monica Alfaro e Cesc Guitart em postagem de blog feita em julho. 


Antes que isso pudesse acontecer, a Disney teve que investir em um vasto projeto de anotação de conteúdo, recorrendo a seus cientistas de dados para treinar um pipeline de marcação automatizado. Ao utilizar modelos de aprendizagem profunda para reconhecimento de imagem, ele é capaz de identificar grandes quantidades de imagens de pessoas, personagens e locais. 

Os engenheiros da Disney começaram experimentando vários frameworks, incluindo TensorFlow, mas decidiram consolidar em torno de PyTorch em 2019. Os engenheiros mudaram de um descritor de recurso de histograma convencional de gradientes orientados (HOG) e o popular modelo de máquinas de vetor de suporte (SVM) para uma versão de arquitetura de detecção de objetos apelidada de regiões com redes neurais convolucionais (R-CNN). Este último foi mais propício para lidar com as combinações de live action, animações e efeitos visuais comuns no conteúdo da Disney. 

“É difícil definir o que é um rosto em um desenho animado, então mudamos para métodos de aprendizagem profunda usando um detector de objetos e usamos a aprendizagem por transferência”, explicou a engenheira de pesquisa da Disney, Monica Alfaro, à InfoWorld.

Depois que apenas alguns milhares de faces foram processadas, o novo modelo já estava identificando faces amplamente em todos os três casos de uso. Ele entrou em produção em janeiro de 2020. 

“Estamos usando apenas um modelo para os três tipos de rosto e isso é ótimo para um filme da Marvel como Vingadores, onde é necessário reconhecer o Homem de Ferro e Tony Stark, ou qualquer personagem usando uma máscara”, disse ela. 

Como os engenheiros estão lidando com grandes volumes de dados de vídeo para treinar e executar o modelo em paralelo, eles também queriam rodar em GPUs caras e de alto desempenho ao entrar em produção. 

A mudança das CPUs permitiu que os engenheiros treinassem novamente e atualizassem os modelos com mais rapidez. O modelo também acelerou a distribuição dos resultados para vários grupos da Disney, reduzindo o tempo de processamento de cerca de uma hora para um filme de longa-metragem, para obter resultados entre cinco e dez minutos. 

“O detector de objetos TensorFlow trouxe problemas de memória na produção e era difícil de atualizar, enquanto o PyTorch tinha o mesmo detector de objetos e Faster-RCNN, então começamos a usar o PyTorch para tudo”, disse Alfaro. 

Essa mudança de uma estrutura para outra foi surpreendentemente simples para a equipe de engenharia. “A mudança [para PyTorch] foi fácil porque é tudo integrado, você apenas conecta algumas funções e pode começar rápido, então não é uma curva de aprendizado íngreme”, disse Alfaro. 

Quando eles encontraram quaisquer problemas ou gargalos, a vibrante comunidade PyTorch estava à disposição para ajudar. 

Blue River Technology: robôs matadores de ervas daninhas 

Blue River Technology projetou um robô que usa uma combinação inebriante de digital wayfinding  (aquela tecnologia de painéis eletrônicos de shopping que te indica uma direção), câmeras integradas e visão computacional para pulverizar ervas daninhas com herbicida sem incomodar as plantações em tempo quase real, ajudando os agricultores a economizar herbicidas caros e potencialmente prejudiciais ao meio ambiente. 

A empresa de Sunnyvale, na Califórnia, chamou a atenção da fabricante de equipamentos pesados John Deere em 2017, quando foi adquirida por US$ 305 milhões, com o objetivo de integrar a tecnologia aos seus equipamentos agrícolas. 

Os pesquisadores da Blue River experimentaram várias estruturas de aprendizado profundo enquanto tentavam treinar modelos de visão computacional para reconhecer a diferença entre ervas daninhas e plantações, um grande desafio quando você está lidando com plantas de algodão, que têm uma lamentável semelhança com ervas daninhas. 

Agrônomos altamente treinados foram designados para realizar tarefas manuais de rotulagem de imagens e treinar uma rede neural convolucional (CNN) usando PyTorch "para analisar cada quadro e produzir um mapa preciso de pixels de onde estão as plantações e ervas daninhas", afirmou Chris Padwick, diretor de informática visão e aprendizado de máquina na Blue River Technology, em postagem

“Como outras empresas, testamos o Caffe, TensorFlow e, em seguida, PyTorch”, disse Padwick à InfoWorld. “Para nós, funciona praticamente sozinho. Não tivemos nenhum relatório de bug ou um bug de bloqueio. Em computação distribuída, ele realmente brilha e é mais fácil de usar do que TensorFlow, que era muito complicado para paralelismos de dados.” 

Padwick diz que a popularidade e a simplicidade da estrutura PyTorch dão ao framework uma vantagem quando se trata de conseguir novas contratações rapidamente. Dito isso, Padwick sonha com um mundo onde “as pessoas se desenvolvam naquilo com que se sentem confortáveis. Alguns gostam de Apache MXNet ou Darknet ou Caffe para pesquisa, mas o desenvolvimento tem que estar em um único idioma e o PyTorch tem tudo o que precisamos para ter sucesso.” 

Datarock: análise de imagem baseada em nuvem para a indústria de mineração 

Fundada por um grupo de geocientistas, a startup australiana Datarock está aplicando tecnologia de visão computacional à indústria de mineração. Mais especificamente, seus modelos de aprendizado profundo estão ajudando geólogos a analisar imagens de amostra de núcleo de perfuração mais rápido do que antes. 

Normalmente, um geólogo examinaria essas amostras centímetro a centímetro para avaliar a mineralogia e a estrutura, enquanto os engenheiros procurariam por características físicas como falhas, fraturas e qualidade da rocha. Esse processo é lento e sujeito a erros humanos. 

“Um computador pode ver rochas como um engenheiro faria”, disse Brenton Crawford, COO da Datarock à InfoWorld. “Se você pode ver na imagem, podemos treinar um modelo para analisá-lo tão bem quanto um humano.” 

Semelhante ao Blue River, a Datarock usa uma variante do modelo RCNN em produção, com os pesquisadores voltando-se para técnicas de aumento de dados de forma a reunir dados de treinamento suficientes nos estágios iniciais. 

“Após o período de descoberta inicial, a equipe começou a combinar técnicas para criar um fluxo de trabalho de processamento de imagem para imagens de núcleo de perfuração. Isso envolveu o desenvolvimento de uma série de modelos de aprendizagem profunda, que poderiam processar imagens brutas em um formato estruturado e segmentar as informações geológicas importantes ”, escreveram os pesquisadores em post

Usando a tecnologia da Datarock, os clientes podem obter resultados em meia hora, ao contrário das cinco ou seis horas levadas para registrar as descobertas manualmente. Isso libera os geólogos das partes mais trabalhosas, disse Crawford. No entanto, “quando automatizamos coisas que são mais difíceis, obtemos alguma resistência e temos que explicar que eles fazem parte deste sistema para treinar os modelos e fazer com que o ciclo de feedback gire”. 

Como muitas empresas que treinam modelos de visão computacional de aprendizagem profunda, a Datarock começou com o TensorFlow, mas logo mudou para o PyTorch. 

“No início, usamos o TensorFlow e ele travava conosco por motivos misteriosos”, disse Duy Tin Truong, líder de aprendizado de máquina da Datarock à InfoWorld. “PyTorch e Detecton2 foram lançados naquela época e se ajustavam bem às nossas necessidades. Então, após alguns testes, vimos que era mais fácil depurar e trabalhar e ocupava menos memória, então convertemos”, disse ele. 

A Datarock também relatou uma melhoria de 4x no desempenho de inferência do TensorFlow para PyTorch e Detectron2 ao executar os modelos em GPUs - e 3x em CPUs. 

Truong citou a crescente comunidade de PyTorch, interface bem projetada, facilidade de uso e melhor depuração como motivos para a troca e observou que, embora “sejam bastante diferentes do ponto de vista da interface, se você conhece o TensorFlow, é muito fácil trocar, especialmente se você conhece Python. ” 

quinta-feira, 12 de novembro de 2020

Emotet e Trickbot voltam a atacar “em força” e estão na origem do aumento de incidentes com ransomware

 Por Francica Andrade em 06/11/2020 no site Sapotek

Emotet e Trickbot voltam a atacar “em força” e estão na origem do aumento de incidentes com ransomware
Adicionar legenda


 

De acordo com o mais recente Índice Global de Ameaças da Check Point Research, os tojans Trickbot e Emotet afirmam-se como os tipos de malware mais prevalentes e são responsáveis pelo aumento de ataques de ransomware que têm como “alvo” hospitais e serviços de saúde a nível global.

A Check Point Research explica que, em outubro, o número de ataques de ransomware contra organizações de saúde e hospitais registou um aumento de 36% na região EMEA (Europa, Oriente Médio e África).

A tendência verificou-se um pouco por todo o mundo, com a região APAC (Ásia-Pacífico) a registar um aumento de 33%. Os investigadores detalham que, nos Estados Unidos, o setor de saúde foi o mais atacado por ransomware, registando uma subida de 71% em relação ao mês anterior.

Em outubro, o Emotet, o trojan bancário que evoluiu de outros tipos de malware ou de campanhas maliciosas, liderou o Índice da Check Point, com um impacto de 14% nas organizações internacionais e de 36% nas nacionais.

Já o Trickbot, o trojan bancário que está constantemente a ser atualizado com novas capacidades, funcionalidades e vetores de distribuição, apresenta um impacto internacional e nacional na ordem dos 4%.

A fechar o top 3 está o Hiddad, um malware Android que reutiliza apps legítimas, lançando-as em lojas de terceiros. Os investigadores indicam que a principal função do software malicioso é a exibição de anúncios, mas pode também conceder acesso a detalhes da chave de segurança do sistema operativo. O malware registou um impacto internacional de 4% e nacional de 0,11%.

No que toca às ameaças que afetam o panorama nacional, destacam-se também o Dridex, com um impacto de 7%, e o Zloader, um malware bancário de roubo de informações com um impacto de 6% no conjunto de organizações portuguesas.

Quais são as cinco ciberameaças mais críticas para a segurança de smartphones e tablets?

Os especialistas indicam que entre o top 3 de famílias de malware em dispositivos móveis conta com o xHelper e com o Lotoor. O primeiro é uma aplicação Android maliciosa usada para descarregar outras apps do género e exibir anúncios fraudulentos, sendo capaz de contornar os programas de antivírus e de se reinstalar caso o utilizador a apague. O segundo é uma ferramenta de ataque que explora vulnerabilidades em sistemas operativos Android com o objetivo de aceder a dispositivos móveis comprometidos.

A “MVPower DVR Remote Code Execution” é a vulnerabilidade mais frequentemente explorada, afetando 43% das organizações a nível internacional. Um atacante pode explorá-la remotamente para executar um código arbitrário no router afetado através de um pedido de solicitação de acesso.

Seguem-se a “Dasan GPON Router Authentication Bypass” e a “HTTP Headers Remote Code Execution (CVE-2020-13756)”, ambas responsáveis por um impacto mundial de 42%. A primeira permite que os atacantes consigam aceder a um sistema infetado e obter informação sensível. A segunda permite a passagem de informações adicionais com uma solicitação HTTP e, através dela, um atacante remoto pode correr qualquer código no dispositivo da vítima.

 

How Can I Help Remote Workers Secure Their Home Routers?

 Por John Bock em 11/02/20 no site The Edge (Darkreaging).

(Image: Oleksandr Delyk via Adobe Stock)

 

 Question: How can I help my remote workers secure their home routers?

John Bock, senior research scientist at Optiv Security: With so many organizations' employees working remotely due to the pandemic, what security teams can do to help secure their home routers/firewalls is getting renewed attention. Why should we view an employee's home router as any different than one at a coffee shop or hotel network? Well, for one, it's a more static and predictable location for an attacker, especially if we are including Wi-Fi access points, common to all-in-one gateway devices. These days, the home router also likely includes a home network with a variety of entertainment and home automation devices, all of which could have their own vulnerabilities.

Related Content:

Firmware Flaw Allows Attackers to Evade Security on Some Home Routers

Teach Your Employees Well: How to Spot Smishing & Vishing Scams

How Can I Help My Users Spot Disinformation?

Most organizations will manage this situation with a focus on hardening the endpoint to operate in an assumed hostile environment, which aligns with modern best practices for host defense.

Without good public examples of extending enterprise vulnerability management down to the personal home network, the most direct route is with employee security education that focuses on basic home gateway maintenance and avoids advanced configuration topics. Our technical users are likely ahead of the curve when it comes to home security issues anyway, and it's the users who have never logged into their home routers who cause the most concern.

Here's a basic set of guidance to tell your users:

  • Log in to your router, check for firmware updates, and upgrade if one is available. Set up a monthly task, maybe alongside bill paying, as a reminder to log in to see whether any new versions are available.
  • Verify that "Remote Administration" or "Administration from WAN/Internet" are disabled. If enabled, they allow access to the management UI from the Internet.
  • Review firewall settings for any open or proxied ports. If you're unsure of the origin of a particular entry, disable it.
  • Check Wi-Fi network settings, if applicable, and verify you're using WPA3 Wi-Fi security standard – if your devices support it – or, at least, WPA2.
  • Make sure your network password is complex and not related to the network name.
  • Review your attached devices list for anything suspicious, and verify the identity of unknown hosts.

 

John Bock is senior research scientist at Optiv. Prior to this role, John was vice president of threat research, and before that he was the leader of Optiv's application security practice, which provided application pen testing and other software security services. With more ... View Full Bio

 

domingo, 11 de outubro de 2020

55 Apple vulnerabilities risked iCloud account takeover, data theft

 Por SudaisAsif em 09/10/2020 no site HackHead





Bug bounty programs happen to be effective as they offer independent ethical hackers the motivation to help companies find vulnerabilities.

A recent case is a testimony to this where a team of cyber security researchers has succeeded in finding a total of 55 vulnerabilities in Apple’s networks over a course of 3 months. The names and Twitter handle of researchers participated in Apple’s bug bounty program are:

Meanwhile, the 55 vulnerabilities were classified as the following:

  • 11 as critical due to the extreme threat they posed of user data theft and access to Apple’s main network
  • 29 as high severity
  • 13 as medium severity
  • 2 as low severity 

All of these distributively include remote code execution, memory leaks, SQL injections & cross-site scripting (XSS) attacks, the details of which are available on the researchers’ official blog post.

Elaborating a bit on the consequences of the vulnerabilities, there were many. First, the iCloud accounts of users could be accessed using a worm leading to a serious privacy breach and potential phishing attacks.

Secondly, not only could Apple’s proprietary source code of its projects be exposed but the user sessions of Apple employees could also be taken over resulting in the attacker’s control “management tools and sensitive resources”.

Thirdly, Apple uses industrial control warehouse software which would also have been compromised. The following list comprises of first 10 vulnerabilities reported by the researchers:

  • Remote Code Execution via Authorization and Authentication Bypass
  • Authentication Bypass via Misconfigured Permissions allows Global Administrator Access
  • Command Injection via Unsanitized Filename Argument
  • Remote Code Execution via Leaked Secret and Exposed Administrator Tool
  • Memory Leak leads to Employee and User Account Compromise allowing access to various internal applications
  • Vertica SQL Injection via Unsanitized Input Parameter
  • Wormable Stored XSS allows Attacker to Fully Compromise Victim iCloud Account
  • Wormable Stored XSS allows Attacker to Fully Compromise Victim iCloud Account
  • Full Response SSRF allows Attacker to Read Internal Source Code and Access Protected Resources
  • Blind XSS allows the Attacker to Access Internal Support Portal for Customer and Employee Issue Tracking.

The full list of vulnerabilities and technical details are available on the researchers’ blog post.

Currently, the security researchers have been paid a total of $288,500 but more payments are expected to come in which may go up to $500,000.

On the other hand, all the disclosed vulnerabilities have been fully fixed by 6th October which can put users at ease as their data is no more at risk. Nevertheless, credit also goes to Apple since they responded to every vulnerability report in a time span of 4-48 hours which shows a sense of responsibility by the tech giant.

For the future, other companies should learn from this incident and implement vulnerability disclosure and bug bounty programs along with dedicated cybersecurity professionals to handling such reports. This can go a long way in mitigating the effects of such an incident.

domingo, 26 de julho de 2020

Finalmente uma memória universal para computadores?

Redação do Site Inovação Tecnológica - 28/06/2019

Finalmente uma memória universal para computadores?
Esquema da "memória universal", que usa poços quânticos duplos de InAs (azul) com barreiras triplas de AlSb (cinza) e GaSb (vermelho).
[Imagem: 10.1038/s41598-019-45370-1]

Um novo tipo de memória eletrônica, com seu consumo de energia ultrabaixo, promete dar vida nova a computadores e aparelhos eletrônicos portáteis em geral.

Ofogh Tizno e seus colegas da Universidade Lancaster, no Reino Unido, afirmam que sua "memória universal" pode reduzir o consumo de energia das centrais de dados em um quinto, além de permitir que os computadores deem boot instantâneo, já que ela não perde os dados na ausência de eletricidade.

"Uma memória universal, que armazena dados de forma robusta e que podem ser facilmente alterados, é amplamente considerada inviável ou até mesmo impossível, mas este dispositivo demonstra suas propriedades contraditórias," disse o professor Manus Hayne, coordenador da equipe.

Fazer o impossível envolveu usar a mecânica quântica para resolver o dilema de escolher entre armazenamento de dados estável e de longo prazo e a gravação e apagamento de dados usando pouca energia.

Memória universal

Embora a gravação de dados nas memórias DRAM atuais seja rápida e gaste pouca energia em cada operação, os dados são voláteis e devem ser continuamente atualizados para evitar que sejam perdidos - como isso ocorre a cada poucos nanossegundos, a conta de energia sobe rapidamente. As memórias do tipo flash, por sua vez, armazenam dados de forma robusta, mas consomem muita energia e se deterioram, além de a gravação e o apagamento serem lentos, tornando-as inadequadas para funcionar como memória de trabalho.

"O ideal é combinar as vantagens de ambos sem seus inconvenientes, e é isso que demonstramos. Nosso dispositivo tem um tempo de armazenamento de dados intrínseco que é previsto para exceder a idade do Universo, mas pode gravar ou excluir dados usando 100 vezes menos energia do que a DRAM," disse o professor Hayne.

O protótipo, construído com uma combinação de três semicondutores - arseneto de índio (InAs), antimoneto de gálio (GaSb) e antimoneto de alumínio (AlSb) - alcançou uma retenção de dados de 104 segundos e operou a uma tensão abaixo dos 2,6 volts.

O entusiasmo da equipe com sua "memória universal" tem fundamento: Várias empresas de semicondutores já manifestaram interesse em licenciar a patente do novo componente.

Por outro lado, "memórias universais" têm sido anunciadas há mais de uma década, incluindo versões "revolucionárias" como as memórias de conteúdo endereçável e, mais recentemente, as memórias antiferromagnéticas e as memórias com três bits por célula.

Bibliografia:

Artigo: Room-temperature Operation of Low-voltage, Non-volatile, Compound-semiconductor Memory Cells
Autores: Ofogh Tizno, Andrew R. J. Marshall, Natalia Fernández-Delgado, Miriam Herrera, Sergio I. Molina, Manus Hayne
Revista: Nature Scientific Reports
Vol.: 9, Article number: 8950
DOI: 10.1038/s41598-019-45370-1

Qutrit torna computador quântico exponencialmente mais rápido

Redação do Site Inovação Tecnológica - 08/07/2019

Qutrit é exponencialmente melhor do que qubit

Nos últimos anos, vários grupos de físicos vêm demonstrando que os qudits são melhores que os qubits para conter os dados dos computadores quânticos.

Qudit é uma referência genérica a um bit quântico de "d" dimensões, onde o termo dimensões refere-se aos múltiplos dados que podem ser guardados numa única célula de memória quântica.

Nas demonstrações anteriores, as vantagens dos qudits em relação aos qubits vinham resultando apenas em ganhos por fatores constantes.

Pranav Gokhale e seus colegas da Universidade de Chicago, nos EUA, usaram um qutrit - um qudit com três níveis de energia - para demonstrar que ir além dos tradicionais qubits resulta em ganhos logarítmicos, aumentando ainda mais o poder computacional esperado dos computadores quânticos.

Além do binário

O trabalho se enquadra no contexto de uma busca de equilíbrio comum na ciência da computação: Os programas podem ser acelerados usando mais memória ou, alternativamente, os programas podem reduzir requisitos de memória incorrendo em tempos de execução mais longos.

Mas, no contexto da computação quântica, com fortes limitações de memória e tempos de execução, nenhuma dessas compensações é aceitável.

Felizmente, os dados em um computador quântico pertencem a um espectro infinito, de modo que o qubit é meramente uma "escolha" de usar somente dois estados do sistema quântico que representa o bit. "Embora a lógica binária faça sentido para a física liga-desliga subjacente aos computadores convencionais, o hardware quântico não é inerentemente binário," reforça Gokhale.

Qutrit é exponencialmente melhor do que qubit
Os ganhos foram avaliados com dois tipos de hardware quântico já em desenvolvimento.
[Imagem: Pranav Gokhale et al. (2019)]

Qutrits

De fato, ao usar três estados - via qutrits - uma das operações fundamentais na computação quântica é exponencialmente mais rápida, sem a necessidade de memória adicional. A equipe verificou sua descoberta com simulações executadas sob condições de ruído realistas.

A seguir, eles ajustaram seus algoritmos quânticos baseados em qutrits usando trabalhos já realizados por outras equipes com bits quânticos supercondutores e iônicos, duas das versões preferidas das equipes trabalhando com hardware quântico real.

"Os qutrits vêm com um custo, já que a presença de um estado adicional implica em mais possíveis fontes de erro," disse Gokhale. "No entanto, nossas simulações demonstram que os qutrits têm uma vantagem convincente, com confiabilidade de duas a dez vezes maior do que os algoritmos de apenas qubits para benchmarks de curto prazo".

"Ao adaptar os algoritmos para aproveitar os recursos exclusivos do hardware quântico, percebemos ganhos de eficiência ocultos por trás das barreiras de abstração entre hardware e software. Nesse caso, nossa modelagem de hardware nos levou a revisitar e desafiar a sabedoria convencional de que a operação binária é a melhor para a computação," completou o professor Frederic Chong.

Bibliografia:

Artigo: Asymptotic Improvements to Quantum Circuits via Qutrits
Autores: Pranav Gokhale, Jonathan M. Baker, Casey Duckering, Natalie C. Brown, Kenneth R. Brown, Frederic T. Chong
Revista: arXiv
DOI: 10.1145/3307650.3322253
Link: https://arxiv.org/abs/1905.10481