Mostrando postagens com marcador Site Inovação tecnológica. Mostrar todas as postagens
Mostrando postagens com marcador Site Inovação tecnológica. Mostrar todas as postagens

domingo, 26 de julho de 2020

Finalmente uma memória universal para computadores?

Redação do Site Inovação Tecnológica - 28/06/2019

Finalmente uma memória universal para computadores?
Esquema da "memória universal", que usa poços quânticos duplos de InAs (azul) com barreiras triplas de AlSb (cinza) e GaSb (vermelho).
[Imagem: 10.1038/s41598-019-45370-1]

Um novo tipo de memória eletrônica, com seu consumo de energia ultrabaixo, promete dar vida nova a computadores e aparelhos eletrônicos portáteis em geral.

Ofogh Tizno e seus colegas da Universidade Lancaster, no Reino Unido, afirmam que sua "memória universal" pode reduzir o consumo de energia das centrais de dados em um quinto, além de permitir que os computadores deem boot instantâneo, já que ela não perde os dados na ausência de eletricidade.

"Uma memória universal, que armazena dados de forma robusta e que podem ser facilmente alterados, é amplamente considerada inviável ou até mesmo impossível, mas este dispositivo demonstra suas propriedades contraditórias," disse o professor Manus Hayne, coordenador da equipe.

Fazer o impossível envolveu usar a mecânica quântica para resolver o dilema de escolher entre armazenamento de dados estável e de longo prazo e a gravação e apagamento de dados usando pouca energia.

Memória universal

Embora a gravação de dados nas memórias DRAM atuais seja rápida e gaste pouca energia em cada operação, os dados são voláteis e devem ser continuamente atualizados para evitar que sejam perdidos - como isso ocorre a cada poucos nanossegundos, a conta de energia sobe rapidamente. As memórias do tipo flash, por sua vez, armazenam dados de forma robusta, mas consomem muita energia e se deterioram, além de a gravação e o apagamento serem lentos, tornando-as inadequadas para funcionar como memória de trabalho.

"O ideal é combinar as vantagens de ambos sem seus inconvenientes, e é isso que demonstramos. Nosso dispositivo tem um tempo de armazenamento de dados intrínseco que é previsto para exceder a idade do Universo, mas pode gravar ou excluir dados usando 100 vezes menos energia do que a DRAM," disse o professor Hayne.

O protótipo, construído com uma combinação de três semicondutores - arseneto de índio (InAs), antimoneto de gálio (GaSb) e antimoneto de alumínio (AlSb) - alcançou uma retenção de dados de 104 segundos e operou a uma tensão abaixo dos 2,6 volts.

O entusiasmo da equipe com sua "memória universal" tem fundamento: Várias empresas de semicondutores já manifestaram interesse em licenciar a patente do novo componente.

Por outro lado, "memórias universais" têm sido anunciadas há mais de uma década, incluindo versões "revolucionárias" como as memórias de conteúdo endereçável e, mais recentemente, as memórias antiferromagnéticas e as memórias com três bits por célula.

Bibliografia:

Artigo: Room-temperature Operation of Low-voltage, Non-volatile, Compound-semiconductor Memory Cells
Autores: Ofogh Tizno, Andrew R. J. Marshall, Natalia Fernández-Delgado, Miriam Herrera, Sergio I. Molina, Manus Hayne
Revista: Nature Scientific Reports
Vol.: 9, Article number: 8950
DOI: 10.1038/s41598-019-45370-1

Qutrit torna computador quântico exponencialmente mais rápido

Redação do Site Inovação Tecnológica - 08/07/2019

Qutrit é exponencialmente melhor do que qubit

Nos últimos anos, vários grupos de físicos vêm demonstrando que os qudits são melhores que os qubits para conter os dados dos computadores quânticos.

Qudit é uma referência genérica a um bit quântico de "d" dimensões, onde o termo dimensões refere-se aos múltiplos dados que podem ser guardados numa única célula de memória quântica.

Nas demonstrações anteriores, as vantagens dos qudits em relação aos qubits vinham resultando apenas em ganhos por fatores constantes.

Pranav Gokhale e seus colegas da Universidade de Chicago, nos EUA, usaram um qutrit - um qudit com três níveis de energia - para demonstrar que ir além dos tradicionais qubits resulta em ganhos logarítmicos, aumentando ainda mais o poder computacional esperado dos computadores quânticos.

Além do binário

O trabalho se enquadra no contexto de uma busca de equilíbrio comum na ciência da computação: Os programas podem ser acelerados usando mais memória ou, alternativamente, os programas podem reduzir requisitos de memória incorrendo em tempos de execução mais longos.

Mas, no contexto da computação quântica, com fortes limitações de memória e tempos de execução, nenhuma dessas compensações é aceitável.

Felizmente, os dados em um computador quântico pertencem a um espectro infinito, de modo que o qubit é meramente uma "escolha" de usar somente dois estados do sistema quântico que representa o bit. "Embora a lógica binária faça sentido para a física liga-desliga subjacente aos computadores convencionais, o hardware quântico não é inerentemente binário," reforça Gokhale.

Qutrit é exponencialmente melhor do que qubit
Os ganhos foram avaliados com dois tipos de hardware quântico já em desenvolvimento.
[Imagem: Pranav Gokhale et al. (2019)]

Qutrits

De fato, ao usar três estados - via qutrits - uma das operações fundamentais na computação quântica é exponencialmente mais rápida, sem a necessidade de memória adicional. A equipe verificou sua descoberta com simulações executadas sob condições de ruído realistas.

A seguir, eles ajustaram seus algoritmos quânticos baseados em qutrits usando trabalhos já realizados por outras equipes com bits quânticos supercondutores e iônicos, duas das versões preferidas das equipes trabalhando com hardware quântico real.

"Os qutrits vêm com um custo, já que a presença de um estado adicional implica em mais possíveis fontes de erro," disse Gokhale. "No entanto, nossas simulações demonstram que os qutrits têm uma vantagem convincente, com confiabilidade de duas a dez vezes maior do que os algoritmos de apenas qubits para benchmarks de curto prazo".

"Ao adaptar os algoritmos para aproveitar os recursos exclusivos do hardware quântico, percebemos ganhos de eficiência ocultos por trás das barreiras de abstração entre hardware e software. Nesse caso, nossa modelagem de hardware nos levou a revisitar e desafiar a sabedoria convencional de que a operação binária é a melhor para a computação," completou o professor Frederic Chong.

Bibliografia:

Artigo: Asymptotic Improvements to Quantum Circuits via Qutrits
Autores: Pranav Gokhale, Jonathan M. Baker, Casey Duckering, Natalie C. Brown, Kenneth R. Brown, Frederic T. Chong
Revista: arXiv
DOI: 10.1145/3307650.3322253
Link: https://arxiv.org/abs/1905.10481

domingo, 23 de fevereiro de 2020

Processadores vencerão Limite de Landauer para consumir menos

Processadores poderão vencer Limite de Landauer e consumir menos
Operações de computador produzem calor, pontos quentes que influenciam outras partes do circuito. Com uma temporização inteligente, o gasto de energia pode ser reduzido.
[Imagem: Jan Klaers]

Processando sem Landauer
miniaturização tem garantido que a energia necessária para executar cada cálculo computacional venha diminuindo ano a ano. Mas, como a pressão por mais miniaturização continua, logo os aparelhos digitais atingirão o limite teórico para a energia mínima necessária para uma única operação lógica.
Em 1961, muito antes de os computadores se disseminarem, o físico alemão Rolf Landauer (1927-1999), que trabalhava na IBM, publicou o artigo que o tornaria famoso. Seu estudo mostrava a quantidade mínima de energia necessária para apagar um bit de informação, isto é, passá-lo do estado '1' para o estado '0'.
Esta quantidade mínima de energia, de acordo com o "Princípio do Apagamento de Landauer", é dependente da temperatura, o que conecta as leis da termodinâmica com as da teoria da informação. Muitos anos depois, em 2012, finalmente experimentos confirmaram o princípio de Landauer.
Para a geração atual de computadores esse limite não incomoda porque o consumo típico de energia de uma operação lógica ainda é cerca de mil vezes maior do que ele. Mas isso certamente mudará nas próximas décadas.
Será então que a computação atingirá um limite fundamental?
Jan Klaers, da Universidade de Twente, na Holanda, garante que não há motivo para pânico. Ele propõe vencer o Limite de Landauer fazendo um gerenciamento criterioso para sincronizar a operação do processador e a temperatura. Desta forma, será possível diminuir a energia necessária para o apagamento de cada bit, levando-o até mesmo abaixo do limite de Landauer.
Estados térmicos espremidos
Quando se observa as muitas operações lógicas que ocorrem em um processador, o perfil de temperatura é complexo. Por exemplo, quando um bit muda de estado em uma determinada porta lógica, a mudança de temperatura será sentida também nas portas vizinhas.
Apesar da complexidade, Klaers notou que há um elo entre a temperatura e o consumo de energia do processador: Ambos têm o mesmo ritmo que o relógio do processador. Estes chamados "estados térmicos espremidos" mostram que, em determinados momentos, a temperatura e o gasto de energia são menores para as mesmas operações.
Logo, sincronizar as operações lógicas com esses momentos - operando em uma temperatura efetivamente mais fria - levará a um consumo de energia menor do que o limite de Landauer.
Klaers chegou a esta conclusão analisando um modelo mecânico minimalista, semelhante ao que Landauer usou para sua teoria, representando uma memória de um bit.
Agora será necessário demonstrar que o mesmo resultado pode ser alcançado em sistemas de computação reais. A expectativa é que isso não leve os mais de 50 anos que demorou para a demonstração prática do Princípio de Landauer, uma vez que já há pesquisas tentando explorar o Limite de Landauer para resfriar os computadores.
Bibliografia:

Artigo: Landauer s Erasure Principle in a Squeezed Thermal Memory
Autores: Jan Klaers
Revista: Physical Review Letters
Vol.: 122, 040602
DOI: 10.1103/PhysRevLett.122.040602

Coloque seus joelhos para gerar eletricidade e carregar seu gadgets

Coloque seus joelhos para gerar eletricidade e carregar seu gadgets
Os testes para aferir os esforços foram rigorosos - não pesa nada, garantem os pesquisadores.
[Imagem: Fei Gao et al. - 10.1063/1.5098962]

Joelho gerador
Dessa os jogadores de Pokemon Go vão gostar: um aparelho que carrega o celular pelo simples andar.
"Dispositivos GPS autoalimentados [também] atrairão a atenção de alpinistas e montanhistas," acrescenta o pesquisador Wei-Hsin Liao, da Universidade Chinesa de Hong Kong.
Liao criou um dispositivo de colheita de energia que é acoplado ao joelho do usuário, gerando 1,6 microwatt de energia sem aumento no esforço para caminhar. Essa energia é suficiente para alimentar pequenos aparelhos eletrônicos, como equipamentos de monitoramento de saúde e dispositivos GPS.
O equipamento é baseado em um material de macrofibras disponível comercialmente e bastante usado em projetos de nanogeradores por gerar eletricidade a partir de qualquer tipo de flexão. Liao criou então um mecanismo deslizante, semelhante ao que aciona um motor.
O joelho foi escolhido devido à grande amplitude de movimento da articulação, em comparação com a maioria das outras articulações humanas.
Devido ao contínuo vai-e-vem ao qual o material é submetido quando o usuário caminha, toda vez que o joelho flexiona o dispositivo se dobra e gera eletricidade.
Energia sem custo adicional
O protótipo pesa 307 gramas e foi testado em seres humanos andando em velocidades de 2 a 6,5 quilômetros por hora.
Os pesquisadores compararam os padrões de respiração dos usuários com e sem o dispositivo e determinaram que a energia necessária para caminhar não foi alterada, o que significa que o aparelho está gerando energia sem custo sensível para o ser humano.
"Equipamentos com autoalimentação permitirão que os usuários se livrem das inconvenientes recargas diárias," disse Liao. "Este coletor de energia pode incentivar o desenvolvimento de aparelhos de vestir autoalimentados."
Bibliografia:

Artigo: Macro fiber composite-based energy harvester for human knee
Autores: Fei Gao, Gaoyu Liu, Brendon Lik-Hang Chung, Hugo Hung-Tin Chan, Wei-Hsin Liao
Revista: Applied Physics Letters
Vol.: 115, 033901
DOI: 10.1063/1.5098962

terça-feira, 10 de setembro de 2019

A música que você ouve pode carregar dados embutidos

Dados embutidos em músicas
Qualquer aparelho dotado de um microfone consegue entender os dados, mas sua presença é imperceptível ao ouvido humano.
[Imagem: ETH/Colourbox]

Dados embutidos em músicas
Pesquisadores do Instituto Federal de Tecnologia de Zurique (ETH) desenvolveram uma técnica que permite incorporar dados em músicas e transmiti-las como stream ou arquivos para um celular ou computador.
Como os dados incorporados são imperceptíveis para o ouvido humano, esse "cavalo de troia" de informações não afeta a experiência de ouvir a música, que toca da mesma forma que a original. E qualquer aparelho dotado de um microfone consegue entender os dados.
Testes realizados em condições ideais mostraram uma capacidade de transferir até 400 bits por segundo sem que o ouvinte médio percebesse a diferença entre a música original e a versão modificada.
Dado que, sob condições realistas, um grau de redundância é necessário para garantir a qualidade da transmissão, a taxa de transferência provavelmente será de cerca de 200 bits - ou cerca de 25 letras - por segundo.
"Teoricamente, seria possível transmitir dados muito mais rapidamente. Mas quanto mais alta a taxa de transferência, mais cedo os dados se tornam perceptíveis como som interferente, ou a qualidade dos dados decresce," disse Simon Tanner, um dos criadores da técnica.
Transferência de dados acústica
O truque consiste em pegar as notas dominantes em uma música e "cobrir" cada uma delas com duas notas ligeiramente mais profundas e duas notas ligeiramente mais altas, que são mais silenciosas do que a nota dominante. Também são utilizados os harmônicos (uma ou mais oitavas mais altas) da nota mais forte, igualmente inserindo notas ligeiramente mais profundas e mais altas. São essas notas adicionais que carregam os dados.
Embora o microfone de um celular seja capaz de receber e analisar esses dados, o ouvido humano não consegue distinguir as notas adicionais. "Quando ouvimos uma nota alta, não notamos notas mais baixas com uma frequência um pouco maior ou menor," explicou o pesquisador Manuel Eichelberger. "Isso significa que podemos usar as notas altas e dominantes em uma música para esconder a transferência de dados acústica."
Também significa que as músicas ideais para esse tipo de transferência de dados devem ter muitas notas dominantes - músicas pop, por exemplo. Músicas tranquilas são menos adequadas.
"Em muitos lugares públicos, como lojas, estádios, estações de trem e restaurantes, alto-falantes tocam música de fundo. Nossa técnica abre o potencial para uma rota de comunicação fácil dos alto-falantes para microfones sem requisitos de hardware adicional ou qualquer configuração. A taxa de dados de várias centenas bits por segundo é suficiente para várias aplicações," escreveu a equipe.
Bibliografia:

Artigo: Imperceptible Audio Communication
Autores: Manuel Eichelberger, Simon Tanner, Gabriel Voirol, Roger Wattenhofer
Revista: 44th ICASSP Proceedings
Link: https://tik-old.ee.ethz.ch/file/8a61c16532c1d4f9021d3aaf06f4f381/imperceptible_audio_communication.pdf

Algoritmo identifica 569 moléculas para uma economia sem resíduos

Algoritmo identifica 569 moléculas para economia circular

Moléculas estratégicas
Em um exemplo definitivo do poder da ciência baseada em megadados, um programa de computador identificou as 569 substâncias mais promissoras para impulsionar uma economia circular, onde o lixo se torna matéria-prima para novos materiais.
Chamadas de "moléculas estratégicas", essas substâncias podem viabilizar a transformação do que hoje são resíduos em compostos valiosos, indo muito além da reciclagem tradicional.
"Hoje, se você tiver um fluxo de resíduos e quiser produzir um produto final de alto valor, há muita incerteza sobre o que fazer e por quais rotas," explicou Jana Marie Weber, da Universidade de Cambridge, no Reino Unido, que desenvolveu o algoritmo em conjunto com seus colegas Pietro Lió e Alexei Lapkin.
O programa fez uma mineração de dados em mais de meio milhão de compostos e quase um milhão de reações químicas e reuniu tudo em uma gigantesca rede química. Em seguida, o algoritmo identificou as moléculas com mais conexões e as posições mais centrais nas reações de múltiplas etapas.
"Nós direcionamos nossa busca para moléculas estratégicas e, depois, a partir das moléculas estratégicas, para alguns passos de reação para algum produto final desejado. Fazendo desse jeito, podemos reduzir o tempo computacional em duas ordens de grandeza," acrescentou Weber.
Entre as moléculas estratégicas estão muitos intermediários comuns e sabidamente "estratégicos" nesse sentido químico, como água, dióxido de carbono, metanol, ácido acético e fenol, o que ajudou a validar os resultados. Mas também há compostos importantes para ramos específicos da indústria, como o peróxido de benzoíla - um iniciador para polimerização - o precursor farmacêutico piceol e o bloco supramolecular de construção tetrafeniletileno.
Química automatizada
O programa em si não sabe nada de química. Mas o simples fato de classificar os itens - de forma parecida como o Google classifica os resultados das pesquisas - revelou metade dos compostos que foram nomeados como blocos de construção químicos essenciais em um relatório do Laboratório Nacional de Energia Renovável dos EUA, relatório este compilado por químicos humanos.
Mas o programa não consegue fazer tudo. Ele não consegue, por exemplo, avaliar se as rotas de síntese parciais identificadas são quimicamente viáveis. Isso os químicos humanos terão que fazer por eles mesmos.
"O principal resultado do nosso trabalho é que podemos nos concentrar nos estágios iniciais do processo de desenvolvimento na montagem de todas as possíveis rotas," disse Weber.
Bibliografia:

Artigo: Identification of Strategic Molecules for Future Circular Supply Chains Using Large Reaction Networks
Autores: Jana Marie Weber, Pietro Lió, Alexei A. Lapkin
Revista: Reaction Chemistry and Engineering
DOI: 10.26434/chemrxiv.8488934.v1
Link: https://chemrxiv.org/articles/Identification_of_Strategic_Molecules_for_Future_Circular_Supply_Chains_Using_Large_Reaction_Networks/8488934/1

quarta-feira, 19 de junho de 2019

Rede neural aprende usando apenas luz, sem nenhum componente eletrônico

Rede neural aprende usando apenas luz, sem nenhum componente eletrônico
Este "hardware" surpreendente, sem nenhum componente eletrônico, aprendeu a identificar imagens com precisão. [Imagem: Ozcan Lab/UCLA]
Rede neural de luz
No ano passado, uma equipe do MIT apresentou um chip que usa luz em vez de eletricidade para fazer os cálculos usados por sistemas de inteligência artificial conhecidos como "aprendizagem profunda", um tipo de rede neural artificial que imita a forma como o cérebro aprende acumulando exemplos.
Agora, Xing Lin e Aydogan Ozcan, da Universidade da Califórnia em Los Angeles, criaram um sistema de processamento fotônico ainda mais simples: os cálculos com luz são feitos usando folhas fabricadas por uma impressora 3D, sem nenhum componente eletrônico.
E não se deixe enganar pela simplicidade: A rede de aprendizagem profunda óptica permite que os algoritmos computacionais sejam executados à velocidade da luz.
A vantagem é que esta é uma maneira mais barata, escalável e eficiente de criar sistemas de inteligência artificial, que estão acelerando as fronteiras da ciência, por exemplo, na análise de imagens médicas, tradução de idiomas, classificação de imagens e muito mais.
Neurônios artificiais de luz
O processador é formado por uma série de superfícies opticamente difrativas, impressas em 3-D e superpostas em camadas, que trabalham em conjunto para processar as informações.
Batizada de Rede Neural Profunda Difrativa (D2NN: Diffractive Deep Neural Network), o sistema funciona conforme cada ponto em uma determinada camada transmite ou reflete uma onda de luz que chega.
Desta forma, cada ponto funciona como um neurônio artificial, que é conectado a outros neurônios das camadas seguintes por difração óptica - a difração é o redirecionamento, ou espalhamento, da onda quando ela encontra um obstáculo.
Pode-se ajustar cada neurônio artificial - o modo como ele trata a informação - alterando-se a fase e a amplitude da onda de luz que o atinge.
Rede neural aprende usando apenas luz, sem nenhum componente eletrônico
Esquema de funcionamento da Rede Neural Profunda Difrativa. [Imagem: Ozcan Lab/UCLA]
Aprendizado profundo
Como demonstração, Li treinou o sistema expondo-o a 55.000 imagens de dígitos manuscritos - imagens do zero até o nove.
Após o treinamento, a D2NN conseguiu reconhecer esses números com 91,75% de precisão, e Li já vislumbra meios de aumentar ainda mais a precisão acrescentando camadas neurais adicionais.
A equipe também destaca que este sistema pode ser facilmente ampliado usando diferentes métodos de fabricação 3D, outros componentes ópticos e outros mecanismos de detecção e redirecionamento da luz.
Bibliografia:

All-optical machine learning using diffractive deep neural networks
Xing Lin, Yair Rivenson, Nezih T. Yardimci, Muhammed Veli, Yi Luo, Mona Jarrahi, Aydogan Ozcan
Science
DOI: 10.1126/science.aat8084

quarta-feira, 17 de abril de 2019

Continuamos sem saber como a inteligência artificial funciona

Como a inteligência artificial funciona? Não sabemos
Como a inteligência artificial funciona? Não sabemos.[Imagem: CC0 Creative Commons]
Como a inteligência artificial funciona?
Os cientistas da computação sabem em termos gerais - bem gerais - como as redes neurais se desenvolvem. Afinal, são eles que escrevem os programas de treinamento que direcionam os chamados "neurônios artificiais" dos computadores para se conectarem a outros neurônios - tem havido grandes avanços na computação com hardware neuromórfico, mas, na inteligência artificial atual, tudo são funções matemáticas.
Cada neurônio analisa uma informação, e cada neurônio se baseia nas informações dos nós anteriores. Com o tempo, as conexões evoluem. Elas vão de aleatórias a reveladoras, e a rede "aprende" a fazer coisas como detectar indícios de câncer muito antes que ele seja visível para um radiologista humano, identificam rostos na multidão, dirigem carros e por aí vai.
Essas são as boas notícias.
A notícia desconcertante é que, à medida que a inteligência artificial desempenha um papel cada vez mais importante na vida dos humanos, seus processos de aprendizado estão se tornando cada vez mais obscuros. Justamente quando realmente precisamos confiar neles, eles se tornaram inescrutáveis, tornaram-se o que os próprios cientistas da computação chamam de uma "caixa preta", mas uma caixa preta que não revela seus dados, na verdade esconde-os de qualquer entendimento.
Isso é um grande problema.
"Quanto mais confiamos nos sistemas de inteligência artificial para tomar decisões, como dirigir carros de forma autônoma, filtrar notícias ou diagnosticar doenças, mais importante é que os sistemas de inteligência artificial possam ser responsabilizados," defende o professor Stan Sclaroff, da Universidade de Boston, nos EUA.
Como a inteligência artificial funciona? Não sabemos
Algo que já sabemos é que a inteligência artificial pode desenvolver preconceitos por conta própria. [Imagem: CC0 Creative Commons]
Criador que não compreende a criatura
Quem se propôs a tentar desvencilhar-se desse vexame que é o criador não compreender como sua criatura funciona, foi a professora Kate Saenko, que teve uma ideia: Ela pediu para que humanos olhassem dezenas de fotos que descrevem os passos que o computador pode ter tomado em seu caminho para uma decisão, e então tentassem identificar o caminho mais provável que o programa tomou para chegar à sua conclusão.
Os humanos deram respostas que faziam sentido, mas surgiu um problema: faziam sentido para os seres humanos, e os humanos, ressalta Saenko, têm preconceitos. De fato, os humanos nem sequer entendem como eles mesmos tomam decisões. Como então eles poderiam descobrir como uma rede neural, com milhões de neurônios e bilhões de conexões, toma decisões?
Saenko então partiu para um segundo experimento, usando computadores em vez de pessoas, para ajudar a determinar exatamente qual é o "roteiro cognitivo" que as máquinas usam para aprender.
"Desta vez não tivemos humanos no circuito. Em vez disso, colocamos outro programa de computador para avaliar as explicações do primeiro programa.
"O experimento funciona assim: O primeiro programa, a rede neural, fornece uma explicação de por que tomou a decisão destacando partes da imagem que usou como evidência. O segundo programa, o avaliador, usa isso para obscurecer as partes importantes e alimenta a imagem obscurecida de volta no primeiro programa.
"Se o primeiro programa não puder mais tomar a mesma decisão, então as partes obscurecidas foram realmente importantes, e a explicação é boa. No entanto, se ainda tomar a mesma decisão, mesmo com as regiões obscuras, então a explicação é julgada insuficiente," detalhou a pesquisadora.
Como a inteligência artificial funciona? Não sabemos
Já existem grupos de pesquisa concentrados na chamada inteligência artificial do bem porque, segundo eles, a inteligência artificial precisa ser socialmente responsável. [Imagem: CC0 Creative Commons/Pixabay]
Cognição de máquina
A equipe ainda não chegou ao roteiro cognitivo da inteligência artificial. Na verdade, o problema é tão complexo que eles pararam para discutir qual método é melhor para explicar o processo de tomada de decisão de uma rede neural - o humano ou o software?
Saenko ainda está relutante em escolher um vencedor: "Eu diria que não sabemos o que é melhor porque precisamos dos dois tipos de avaliação. O computador não tem preconceitos humanos, então é um melhor avaliador nesse sentido. Mas continuamos a fazer a avaliação com humanos no circuito porque, no final, sabemos como os humanos interagem com a máquina."
Então estamos realmente fadados a confiar em programas de computador que não compreendemos como funcionam?
Saenko prefere se concentrar em aspectos mais práticos, destacando outras questões: "Esse tipo de avaliação aumenta a confiança humana nas redes neurais? Se você tivesse um carro autônomo e pudesse explicar por que ele está dirigindo de certa forma, isso realmente faria alguma diferença para você?"
"Eu responderia 'sim'. Mas eu também diria que precisamos de muito mais pesquisas," concluiu.


Bibliografia:

Explainable Neural Computation via Stack Neural Module Networks
Ronghang Hu, Jacob Andreas, Trevor Darrell, Kate Saenko
arXiv
https://arxiv.org/abs/1807.08556

Proposta uma nova forma de inteligência artificial

Proposta uma nova forma de inteligência artificial
O Sistema SP não sofre de nenhum dos pontos fracos identificados no aprendizado profundo.[Imagem: J. Gerard Wolff]
Inteligência artificial com menos problemas
Apesar do grande sucesso, na prática e na mídia, tem havido uma preocupação crescente com as deficiências da inteligência artificial, sobretudo com falhas das técnicas do chamado aprendizado profundo.
Vasile Palade (Universidade Coventry) e Gerry Wolff (Cognition Research), acreditam que já é possível começar a desenvolver um novo modelo de inteligência artificial que supere as deficiências dos sistemas atuais.
Eles chamam a atenção para limitações da aprendizagem profunda, como o "esquecimento catastrófico", o que significa que, quando um sistema de aprendizagem profunda aprende algo novo, esse novo aprendizado pode eliminar tudo o que o sistema aprendeu antes. Isso tem levantado uma preocupação crescente sobre se a aprendizagem profunda seria mesmo o caminho para o desenvolvimento de uma inteligência artificial que consiga competir com a inteligência humana.
A dupla propõe uma outra rota: a Teoria da Inteligência SP, desenvolvida para combinar a simplicidade (S) em sua estrutura e em seu funcionamento com o poder (P) descritivo e explicativo em uma gama relativamente ampla de áreas da inteligência artificial.

Teoria da Inteligência SP
Em termos gerais, um sistema SP é um sistema tipo cerebral que captura informações novas através de seus "sentidos" e armazena algumas ou todas elas como "informações velhas", o que deixa o sistema sempre aberto ao novo, sem se esquecer do passado.
Uma alternativa à aprendizagem profunda, a Teoria da Inteligência SP está em desenvolvimento desde 1987 usando modelos de computador como meio de expressar a teoria, testá-la e demonstrar o que ela pode fazer.
Proposta uma nova forma de inteligência artificial
Essa inteligência artificial tipo cerebral nunca se esquece. [Imagem: J. Gerard Wolff]
Ela ainda não consegue aprender xadrez ou Go, mas, em comparação com o aprendizado profundo, tem pontos fortes e potenciais em uma área mais ampla, incluindo como o sistema aprende, vários tipos de raciocínio, reconhecimento de padrões, recuperação de informações armazenadas, processamento de linguagem natural, fazer planos e resolver problemas.
A dupla afirma que, ao menos em termos de teoria da inteligência e modelo computacional, o Sistema SP não sofre de nenhum dos vários pontos fracos identificados na aprendizagem profunda.

Máquina SP
Com a teoria fundamentada e um sistema já elaborado, falta agora partir para a prática, para uma máquina de inteligência artificial SP.
"A máquina SP será desenvolvida inicialmente como uma máquina virtual de software com altos níveis de processamento paralelo, hospedada em um computador de alto desempenho. O sistema deverá ajudar os usuários a visualizar estruturas de conhecimento e processamento," diz a dupla.
Com sua proposta, eles esperam agora entusiasmar outros pesquisadores para que se possa formar um consórcio para o desenvolvimento das primeiras máquinas SP.
"Como o equipamento necessário é agora bastante acessível, equipes de pesquisadores em outros lugares, ou indivíduos, podem cooperar no desenvolvimento da Máquina SP," afirmam.

Bibliografia:

A Roadmap for the Development of the SP Machine for Artificial Intelligence
Vasile Palade, J. Gerard Wolff
The Computer Journal
Vol.: bxy126
DOI: 10.1093/comjnl/bxy126

Introduction to the SP theory of intelligence
J. Gerard Wolff
https://arxiv.org/abs/1802.09924

quarta-feira, 27 de dezembro de 2017

Estados magnéticos exóticos abrem caminho para redes neurais em hardware

Estados magnéticos exóticos abrem caminho para redes neurais em hardware
As setas coloridas indicam as polarizações norte e sul - o maior interesse está nas conjunções dessas polarizações, que criam estados exóticos nunca antes vistos.[Imagem: Gartside et al. - 10.1038/s41565-017-0002-1]
Além do binário
Virtualmente toda a computação depende do armazenamento dos dados em memórias magnéticas. Cada bit é essencialmente definido com a direção em que estão apontando ímãs microscópicos - se ele aponta para o norte é 0, se para o sul é 1.
Agora, Jack Gartside e seus colegas do Imperial College de Londres descobriram como gravar qualquer padrão magnético em nanofios - gravar diferentes padrões magnéticos significa que os sistemas de armazenamento, como os discos rígidos, podem não ficar mais limitados a 0 ou 1.
Mais do que isso, a equipe demonstrou que sua técnica funciona como base para processadores neuromórficos, um hardware que funciona de forma mais parecida com o cérebro humano, e para as redes neurais artificiais.
Redes neurais em hardware
A novidade consiste no aproveitamento de estados magnéticos exóticos, como o ponto onde três pólos sul se encontram. Essa junção representa um sistema complexo, que pode ser usado para emular muitos sistemas complexos encontrados na natureza, como a forma como nossos cérebros processam informações.
Sistemas de computação projetados para processar informações como o cérebro são conhecidos como redes neurais artificiais. Já existem poderosas redes neurais baseadas em software, mas o interesse maior tem sido sua criação em hardware, com ganhos de eficiência incalculáveis.
"Com este novo método de escrita, nós abrimos a possibilidade de treinar esses nanofios magnéticos para que eles resolvam problemas úteis. Se tivermos sucesso, isso trará as redes neurais em hardware mais próximas da realidade," disse Gartside.
Além das aplicações em computação, o método pode ser usado para estudar aspectos fundamentais dos sistemas complexos, criando estados magnéticos que estão longe de serem ótimos - como três polos iguais juntos - e ver como o sistema responde.
A demonstração ainda é complicada do ponto de vista prático, dependendo da ponta de um microscópio de força atômica, mas não há em tese nada que impeça a automação do processo, como se fosse a cabeça magnética de um disco rígido.

Bibliografia:

Realization of ground state in artificial kagome spin ice via topological defect-driven magnetic writing
Jack C. Gartside, Daan M. Arroo, David M. Burn, Victoria L. Bemmer, Andy Moskalenko, Lesley F. Cohen, Will R. Branford
Nature Nanotechnology
DOI: 10.1038/s41565-017-0002-1