quarta-feira, 28 de dezembro de 2016

Computerworld - O fim da computação nuvem está próximo, prevê especialista

Será este o futuro? Alayon.

27 de Dezembro de 2016 - 17h33

Para Peter Levine, sócio do fundo de capital de risco Andreessen Horowitz, a nuvem será substituída, em breve, pela computação de borda
Eis uma previsão incomum nos dias atuais, mas feita de forma categórica: A computação em nuvem, tal como a conhecemos hoje, será obsoleta dentro de poucos anos. A conjectura é de ninguém menos que Peter Levine, sócio do fundo de capital de risco Andreessen Horowitz, que investe em empresas de tecnologia como o Groupon, Lyft, BuzzFeed, Skype, entre outras.
Ele acredita que o maior poder computacional dos dispositivos inteligentes da Internet das coisas, combinado com tecnologias de aprendizagem de máquina cada vez mais precisas, substituirão em grande parte as infraestruturas de nuvem pública (IaaS, na sigla em inglês).
"A nuvem hoje é baseada em um modelo muito centralizado de computação”, disse Levine. "Informações são enviadas para a nuvem, onde são armazenadas e processadas. Muitas aplicações vivem na nuvem e os data centers estão sendo migrados para isso", acrescentou.
O executivo da Andreessen Horowitz diz que já estamos começando a ver, no entanto, dispositivos de Internet das coisas substituindo algumas aplicações de computação em nuvem, tais como máquinas, autômatos, robôs, eletrodomésticos e carros inteligentes. "Cada um desses dispositivos coleta de dados em tempo real. [Dada] a latência da rede e a quantidade de informação, em muitos desses sistemas, não é o ideal que essa informação volte para a nuvem central para ser processada," diz Levine. Ele argumenta que a borda da rede [sistemas que ficam nas extremidades da rede e executam as aplicações] será forçada a se tornar mais sofisticada. E acrescenta: "Esta mudança vai transformar a nuvem como a conhecemos."
Levine cita o exemplo do carro autônomo. "Ele precisa ser capaz de identificar um sinal de pare ou um pedestre e agir, instantaneamente, com base nessas informações. Não posso esperar por uma conexão de rede para acessar a nuvem para que ela diga o que fazer."
Este novo mundo não eliminará a necessidade de uma nuvem centralizada, diz, contudo, Levine. A nuvem, segundo ele, ainda será onde a informação vai ser descarregada e armazenada por longos períodos de tempo, e onde algoritmos de aprendizado de máquina acessarão vastas coleções de dados para análise das mesmas.

udo isso é um momento "de volta para o futuro", observa Levine. Ele recorre à própria evolução da computação para sustentar sua tese. "A computação começou com um modelo centralizado, focado no mainframe. Depois veio o mundo distribuído cliente-servidor. A nuvem tem direcionado a computação de volta para uma plataforma centralizada. Essa guinada para a inteligência de borda mais uma vez vai estremecer o mundo da computação, levando-o de volta aos sistemas distribuídos."A ideia de dar mais poder à borda de rede não é original. A Cisco, por exemplo, cunhou o termo fog computing (computação em névoa), que é a ideia de analisar e agir, em tempo real, sobre dados sensíveis na borda da rede.


*Reportagem de Brandon Butler, editor sênior da Networkworld USA.

terça-feira, 27 de dezembro de 2016

Inovação Tecnológica - Construção de computador quântico é radicalmente simplificada

Construção de computador quântico é radicalmente simplificada
Um computador quântico de íons aprisionados consistiria em uma série de junções X com bits quânticos formados por íons aprisionados acima da superfície do chip (mostrado em cinza). Os bits quânticos individuais são manipulados simplesmente ajustando as tensões, simples como sintonizar um rádio em estações diferentes. Uma tensão V1 não gera nenhuma operação (zonas azuis), enquanto uma tensão V2 resulta em uma operação quântica em um único qubit (zonas verdes). Já uma tensão V3 resulta no entrelaçamento de dois qubits, que passam a compartilhar o mesmo valor (zonas vermelhas). [Imagem: University of Sussex]
Armadilhas de laser
"Vamos construir um computador quântico em grande escala aqui na Universidade usando esta nova tecnologia."
Foi assim que o professor Winfried Hensinger, da Universidade de Sussex, no Reino Unido, deu uma dimensão da importância da técnica inovadora que ele e sua equipe acabam de desenvolver.
Em termos simples, a técnica coloca a construção de computadores quânticos em grande escala ao alcance da tecnologia atual.
Não havia nada, em princípio, que impedisse a construção dos computadores quânticos universais. Mas os desafios tecnológicos pareciam ainda grandes demais - pelo jeito, até agora.
Floresta de lasers
Uma das principais abordagens para a computação quântica em pequena escala, como ela vem sendo testada em laboratório, usa íons (átomos carregados) aprisionados por feixes de laser, sendo que os feixes devem ser alinhados para cada íon individual - cada íon constitui um bit quântico.
Contudo, um computador quântico prático, em grande escala, precisaria de milhares de bits quânticos, exigindo, portanto, milhares de lasers precisamente alinhados, todos incrivelmente próximos uns dos outros.
Chip com qubits
Em vez disso, Seib Weidt e seus colegas inventaram um método simples onde as tensões são aplicadas a um microchip, sem qualquer necessidade de alinhar os feixes de laser - e obtiveram o mesmo efeito dos qubits aprisionados.
O protótipo apresentou uma taxa de erro impressionantemente baixa para um dispositivo em escala experimental e ainda sem otimizações.
"Este desenvolvimento muda radicalmente a computação quântica, tornando-a acessível para uso industrial e governamental. Vamos construir um computador quântico em grande escala, fazendo pleno uso desta nova tecnologia," reafirmou o professor Winfried Hensinger.
"Desenvolver esta nova tecnologia foi uma grande aventura e é absolutamente incrível observar que ela realmente funcionou no laboratório," disse Seb Weidt, acrescentando que ele espera que os computadores quânticos revolucionem a sociedade de maneira semelhante à revolução gerada pela emergência dos computadores clássicos.

Bibliografia:

Trapped-ion quantum logic with global radiation fields
Seib Weidt, J. Randall, S. C. Webster, K. Lake, A. E. Webb, I. Cohen, T. Navickas, B. Lekitsch, A. Retzker, Winfried Hensinger
Physical Review Letters
Vol.: 117, 220501
DOI: 10.1103/PhysRevLett.117.220501

quarta-feira, 21 de dezembro de 2016

CIO - Atenção para a correlação entre custos e o desempenho do banco de dados

Em termos gerais, existem três maneiras pelas quais os profissionais de bancos de dados podem ter um impacto financeiro direto. 
Confira Gerardo Dada * 
Publicada em 20 de dezembro de 2016 às 07h29 - See more at: http://cio.com.br/opiniao/2016/12/20/atencao-para-a-correlacao-entre-custos-e-o-desempenho-do-banco-de-dados/#sthash.qHVpxQKl.dpuf


Quando pensamos na função de um profissional de banco de dados, costumamos não incluir “economia de custos” na lista de responsabilidades. De fato, provavelmente resumimos a atribuição com algo como, "manter os aplicativos funcionando continuamente".
Embora essa seja uma responsabilidade essencial (especialmente dada a importância dos aplicativos para a empresa moderna e, por sua vez, a importância dos bancos de dados para os aplicativos), os bancos de dados são, de modo geral, incompreendidos e subestimados. O mesmo acontece, com frequência, com os profissionais de bancos de dados.
Talvez se houvesse uma correlação mais clara entre o trabalho dos profissionais de bancos de dados e as finanças, as pessoas prestariam mais atenção. Bem, na verdade, ela existe.
O impacto financeiro de DBAs e bancos de dados
Em termos gerais, existem três maneiras pelas quais os profissionais de bancos de dados podem ter um impacto financeiro direto:

1. O gerenciamento proativo do banco de dados previne o tempo de inatividade – Se o banco de dados para de funcionar, tudo para de funcionar. Um banco de dados lento reduz a produtividade de cada usuário de um aplicativo. Quantas vezes você já ouviu um caixa de banco, recepcionista de hotel ou alguém do atendimento ao cliente dizer, "Lamento, nossos computadores estão um pouco lentos hoje"?
2. Movimentação de cargas de trabalho para alternativas de custos menores – Os profissionais de bancos de dados podem ajudar na transição de aplicativos de sistemas de DBMS com altos custos de licenças para sistemas de custos menores, ou mesmo de código aberto. Embora os custos de licenças representem apenas uma porcentagem do total de custos, no caso de alguns aplicativos, passar de um banco de dados “empresarial” para MySQL ou PostgreSQL pode resultar em uma economia significativa.
3. Melhoria do desempenho do banco de dados – Sim, os profissionais de bancos de dados também podem ter um impacto na saúde financeira de uma empresa ao melhorar o desempenho do banco de dados. Existe uma conexão direta entre os dois, mesmo que muitos ainda não estejam cientes disso.
Os dois primeiros itens mencionados não devem surpreender, mas o terceiro é bem menos compreendido. Vamos discuti-lo mais a fundo.
custo2
Melhoria do desempenho do banco de dados para reduzir custos
Para a maioria das empresas de SaaS, por exemplo, uma porcentagem significativa de seus gastos se destina a tecnologias de infraestrutura, geralmente na nuvem. Também sabemos que o componente mais importante de um aplicativo é o banco de dados. Logicamente, também é o menos compreendido.

Quando um aplicativo precisa de mais desempenho, é fácil escaloná-lo na nuvem adicionando mais hardware. Se um banco de dados está enfrentando dificuldades para atender às expectativas do usuário final, com frequência a reação padrão é provisionar um hardware maior e mais rápido. Pode-se adicionar memória, passar para uma instância do banco de dados com maior capacidade de CPU, pagar por IOPS provisionados ou mudar para o armazenamento em SSD. Na nuvem, cada uma dessas alternativas resulta em uma conta mais alta ao final do mês.
Infelizmente, essas decisões costumam ser tomadas sem um conhecimento específico de como isso pode melhorar o desempenho do banco de dados (já que poucas pessoas realmente entendem o que acontece dentro de um banco de dados) e qual é o congestionamento específico que está prejudicando o desempenho. O resultado é o aumento contínuo dos gastos com infraestrutura. A maior parte das empresas aceita esse aumento de custos como parte da condução de uma empresa baseada em tecnologia.
Nessas situações, um profissional de banco de dados pode ser o guru do desempenho, bem como a pessoa que muda o perfil financeiro da organização. Com as ferramentas e informações corretas, ele pode ver o que acontece dentro do banco de dados para direcionar consultas, remover congestionamentos e identificar com exatidão o que está desacelerando um aplicativo. O resultado é um aplicativo mais eficiente que consome menos recursos de infraestrutura e, assim, custa menos para operar, além de representar um investimento mais inteligente em geral.
Uma empresa com esse tipo de abordagem adiciona CPU apenas quando sabe que a CPU é a responsável pelo congestionamento, além de conhecer com exatidão o impacto no desempenho que pode ser esperado do investimento adicional. Da mesma forma, eles somente usam unidades SSD quando sabem que a leitura/gravação no armazenamento representa um fator significativo do desempenho. E assim por diante.
Uma empresa dessas obteve segurança quanto ao desempenho, o que significa que ela conhece o desempenho do sistema, os motivos e determinantes por trás desse desempenho e sabe que o sistema foi otimizado para funcionar em velocidade máxima enquanto consome o mínimo de recursos necessários. 
Como você pode ver, na nuvem existe uma conexão clara entre desempenho e recursos, bem como entre recursos e custos. Bem, sabe de uma coisa? A mesma conexão existe no local, mas a maneira como as empresas funcionam geralmente obscurece essa correlação. No entanto, isso não significa que essas oportunidades de economias de custos e disponibilização de recursos para os projetos que realmente precisam deles não existam.
Elas só precisam de um profissional de banco de dados proativo que as encontre e que informe a gerência sobre seu valor.

(*)Gerardo Dada é vice-presidente de marketing de produtos da SolarWinds
- See more at: http://cio.com.br/opiniao/2016/12/20/atencao-para-a-correlacao-entre-custos-e-o-desempenho-do-banco-de-dados/#sthash.qHVpxQKl.dpuf

terça-feira, 20 de dezembro de 2016

Canaltech - Em breve você vai poder sentir o sabor dos alimentos em realidade virtual Matéria completa: https://canaltech.com.br/noticia/ciencia/em-breve-voce-vai-poder-sentir-o-sabor-dos-alimentos-em-realidade-virtual-85898/ O conteúdo do Canaltech é protegido sob a licença Creative Commons (CC BY-NC-ND). Você pode reproduzi-lo, desde que insira créditos COM O LINK para o conteúdo original e não faça uso comercial de nossa produção.

Por Luciana Zaramela
em 14.12.2016 às 18h27


 Uma nova tecnologia vai trazer uma novidade que há muito tempo a gente busca no mundo virtual: sentir o sabor dos alimentos. Graças à realidade virtual, pesquisadores da Universidade de Tóquio criaram um dispositivo que "traduz" a sensação do paladar humano e pretende transferir para a sua língua o gosto da imagem que você vê na sua frente. Você pode até mastigar e sentir a textura. A investida faz parte do projeto Electric Food Texture Sistem. 
 A novidade chega através de um equipamento que consiste de uma placa metálica, que é estimulada por um aparelho para conseguir transferir diferentes temperaturas para a língua humana, que funciona como um sensor. A ideia é que a pessoa "prove" da tal placa, colocando-a na boca para sentir alguns sabores puros, como doce, salgado, azedo, amargo ou apimentado. 
 Durante um experimento com algumas "cobaias humanas", por assim dizer, os cientistas perceberam que algumas alterações na temperatura mimetizavam com sucesso o paladar, e os participantes envolvidos nos testes relataram que conseguiram sentir um sabor apimentado quando provaram a placa pela primeira vez. Depois, quando a placa foi levemente resfriada, eles relataram um sabor mentolado. 
 Já para simular a textura do alimento, os pesquisadores usaram um eletrodo ligado no músculo da mandíbula do testador. Através de corrente elétrica, os músculos da mastigação eram estimulados para contraírem ou relaxarem, tornando a mordida mais leve ou mais forte. Assim, era possível passar a sensação de dureza ou maciez quando eles mordiam a placa. Nos testes, os participantes realmente perceberam alterações na "textura" do alimento virtual enquanto mastigavam, o que pode fazer com que as pessoas acreditem estar mordendo um alimento mais duro, como um chocolate ou biscoito, ou mais macio, como um bolo ou marshmallow.
  No entanto, os cientistas ainda estão investigando métodos para criar a sensação a partir do nada, ou seja, sem que exista essa placa desconfortável na boca do usuário.
  Por enquanto, a tecnologia ainda está dando seus primeiros passos, mas no futuro poderá ajudar as pessoas a saciar a vontade de comer doces quando estiverem passando por um regime, por exemplo, ou controlar melhor doenças sistêmicas sensíveis ao açúcar, como diabetes e hiperglicemia.
 Imagine só quando a realidade virtual estiver madura e pudermos apreciar os mais diversos tipos de alimentos por meio de um sensor e um headset antes de comprá-los nas lojas virtuais? Ou então provarmos uma comida diferente antes de pedi-la num restaurante? Também podemos pensar em simular o sabor de um alimento em outro, por exemplo: um jiló com gosto de chocolate. As opções são inúmeras e bem bacanas, e se depender dos cientistas de Tóquio, serão possíveis em poucos anos.


Matéria completa:
https://canaltech.com.br/noticia/ciencia/em-breve-voce-vai-poder-sentir-o-sabor-dos-alimentos-em-realidade-virtual-85898/

O conteúdo do Canaltech é protegido sob a licença Creative Commons (CC BY-NC-ND). Você pode reproduzi-lo, desde que insira créditos COM O LINK para o conteúdo original e não faça uso comercial de nossa produção.

segunda-feira, 19 de dezembro de 2016

Blog Lambda3 - Minha aplicação precisa suportar mil usuários simultâneos, e agora?

Você escolheu a linguagem certa, pesquisou as melhores tecnologias, seu código tem uma cobertura de testes razoável e usou as melhores práticas de programação. Mas, quando o sistema finalmente foi para a produção, você recebe chamados sobre lentidão, bugs inexplicáveis são reportados e seu sistema cai antes mesmo de atingir a quantidade esperada de usuários. Seu cliente está uma fera, os usuários estão desistindo de seu aplicativo e você se pergunta onde errou.
Recentemente recebemos um projeto parecido. Um cliente nos buscou para entender por que o seu sistema caia toda vez que o fluxo de usuários aumentava. Suas funcionalidades eram utilizadas de forma sazonal e os problemas só eram descobertos em cima da hora. A solução adotada até o momento era aumentar a infraestrutura toda vez que o sistema não aguentava, só que a brincadeira ficou cara e ficou claro que não dava mais pra continuar assim.
Teste de carga é uma forma de prevenir os problemas citados. Ele tem como objetivo verificar o comportamento de sua aplicação com diferentes quantidades de usuários a utilizando. Ele pode te oferecer diversos insightssobre os pontos de melhoria, salientar os pontos de falhas e problemas que só ocorreriam quando as funcionalidades da sua aplicação fossem estressadas conjuntamente e com determinadas quantidades de usuários.
Benefícios
Quando realizamos testes de carga estamos verificando os limites de nossa aplicação. Esse conhecimento sobre nosso sistema complementa as noções que obtemos em testes de código ou testes funcionais, gerando informações como:
  • A estimativa da quantidade de carga que o hardware pode suportar antes que os limites de utilização de recursos sejam excedidos.
  • Detecção de problemas causados pela concorrência de usuários.
  • Detecção de erros em funcionalidades que só ocorrem caso o sistema seja estressado com determinadas cargas.
  • A estimativa de quantos usuários o aplicativo pode manipular antes de seu desempenho ser comprometido.
  • A identificação de pontos de melhorias de performance.
Requisitos
Para reduzir as incertezas nos resultados do teste, é importante nos atentarmos para simular da melhor forma o ambiente de produção, reproduzindo a infraestrutura e o volume de dados manuseados pela aplicação.
Precisamos criar cenários de utilização, que serão executados pelos usuários virtuais durante o teste. Eles devem ser concebidos e validados com cuidado para evitar desperdícios em cobrir cenários que não sejam representativos.
É importante que nos atentemos para o ritmo de utilização que vamos simular no nosso teste, a fim de nos aproximarmos o máximo da realidade. Ressaltando que os cenários de utilização serão  executados a nível de requisições HTTP, ou seja, o teste não manipulará os elementos do client e se comunicará diretamente com o servidor.  
É interessante que sua aplicação seja instrumentada com coletores de telemetria tais como o Application Insights , para ter uma visão detalhada sobre os pontos que apresentaram maior problema durante a utilização e mapear suas causas com mais facilidade.

Exemplo de gráficos gerados a partir da telemetria do Application Insights

Também é recomendável que você se atente aos dados coletados das máquinas dos usuários simulados, a fim de analisar como a aplicação é processada nelas.
Processo
Uma abordagem interessante para a realização do teste é aumentar gradativamente a carga de usuários até uma quantidade desejada enquanto se monitora indicadores como: tempo de resposta, a utilização de hardware, quantidade de requisições com falhas, entre outros.
Durante a simulação, os coletores fornecerão dados sobre o desempenho do sistema. Nessa abordagem, o processo do teste é dado em quatro etapas, como mostra a imagem a seguir:

Processo do teste de carga

  1. Aquecimento (warm up) : período em que o teste irá rodar sem coletar dados de indicadores de performance (utilizado para a preparação completa do ambiente de teste e do sistema sob testes).
  2. Incremento de usuários: período em que os usuários estarão sendo adicionados no teste.
  3. Período de medição com carga especificada: tempo em que a aplicação está com o número máximo de usuários estipulados no teste de carga.
  4. Cool-down: período de resfriamento do teste. Durante este período, os testes não finalizados podem continuar até serem concluídos ou até o final do período.
Nossa equipe optou pela abordagem acima para resolver o problema do nosso cliente. Ao final de cada rodada dos testes de carga, os principais pontos de melhoria eram levantados e trabalhados dentro da aplicação. Com as melhorias realizadas, o teste de carga era executado novamente, os resultados eram documentadas e o ciclo recomeçava.
Essa é uma de muitas possíveis formas de construir um teste de performance. Os testes de performance são uma atividade ampla e complexa que podem assumir várias formas, lidar com diversos riscos e fornecer uma ampla gama de valor.
Mais informações
É importante compreender os diferentes tipos de testes de desempenho, a fim de  reduzir riscos, minimizar custos e saber quando aplicar o teste apropriado. Esse artigo sobre os tipos de teste de performance pode ajudar a entender qual é o mais adequado para sua necessidade:  https://msdn.microsoft.com/en-us/library/bb924357.aspx .
Caso você tenha se interessado por testes de performance e tenha vontade de conhecer mais tipos e tangibilizar os conceitos que eu passei hoje, esse artigo da MSDN pode tirar algumas dúvidas de como fazer isso no ambiente da Microsoft: https://msdn.microsoft.com/en-us/library/dd293540(v=vs.110).aspx .
Tenho tido bastante contato com Testes de carga no ambiente Microsoft utilizando Visual StudioVSTS e o Azure. Pretendo escrever mais conteúdos sobre o tema futuramente aqui no blog.
Mas, caso você não esteja familiarizado com o ambiente Microsoft ou gostaria de explorar outras ferramentas, existem opções como o  Apache JMeter , um software open source desenvolvido para criar e executar testes de performance.


Publicado emCategoriasALMDesenvolvimentoTags

CIO - 2017 será o ano das extorsões via e-mails empresariais

Da Redação Publicada em 09 de dezembro de 2016 às 10h44


Em 2017, a indústria de segurança cibernética vai aterrissar em um território completamente novo, tendo em vista que o cenário de ameaças digitais de 2016 abriu novas portas que poderão ser exploradas para uma série de ataques, afirma Raimund Genes, diretor de Tecnologia da Trend Micro.
A companhia acaba de divulgar seu relatório anual de previsões de segurança, "The Next Tier – 8 Security Predictions for 2017", e as conclusões não são nada animadoras. Visando lucrar cada vez mais, os cibercriminosos contarão com diferentes táticas para arquitetar novos golpes, inseridos em um cenário tecnológico em plena transformação.
O número de novas famílias de ransomware deve permanecer o mesmo, com um crescimento de apenas 25%. No entanto os criminosos irão expandir os horizontes para ataques: atingindo dispositivos da Internet das Coisas e terminais de computação não-desktop, como sistemas de POS ou caixas eletrônicos. Novos métodos de ataque direcionados irão focar na evasão de técnicas modernas de detecção com o intuito de ter diferentes organizações como alvo.
Além disso, os ataques de Business Email Compromise (BEC) permanecerão como uma ferramenta útil para extorquir empresas por meio de funcionários desavisados.
Confira as oito previsões da companhia.
1. Crescimento de ransomware se estabilizará, mas métodos de ataque serão mais diversificadosApesar dos ransomware terem tido um aumento exponencial em 2016, o crescimento deste tipo de ataque está deixando de ser sustentável. Sendo assim, os atacantes vão encontrar novas formas de usar as famílias existentes de malware, diversificando plataformas e alvos.
A Internet das Coisas também abrirá novas portas, dando aos criminosos superfícies extras de ataque, e as mudanças nos softwares poderão levar os criminosos a encontrar diferentes tipos de falhas.
De acordo com o estudo, os ataques se tornarão mais profundos e amplos, tendo como alvo, usuários de dispositivos móveis, terminais nondesktop e sistemas de ponto de venda (PoS). A Trend Micro estima um crescimento de 25% no número de novas famílias de ransomware em 2017, o equivalente a quinze novas famílias descobertas por mês.
2.  A Internet das Coisas terá papel de destaque em ataques DDoSA Internet das Coisas (IoT) e a Internet das Coisas na Indústria (IoTI) irão desempenhar um papel de maior destaque nos ataques direcionados em 2017. Com o crescente uso de dispositivos móveis, a tendência é o aumento da exploração de vulnerabilidades nos sistemas de segurança das empresas e também em ambientes industriais, representando ameaças para as organizações.
Webcams, roteadores, sistemas de transporte público, ar-condicionado, aquecedores domésticos, carros conectados à Internet: todos estes sistemas sofreram ataques remotos de cibercriminosos no ano de 2016. A Trend Micro prevê grande possibilidade de ataques massivos DDoS em 2017 por meio da IoT.
Da mesma forma, a migração para a Internet das Coisas Industriais mostra uma diversidade no cenário de ataques. Conhecido como BlackEnergy – cavalo de Troia projetado para lançar ataques de negação de serviço – existe uma grande chance de grupos de espionagem se aproveitarem de empresas distribuidoras de energia, visando o roubo de dados bancários.
O aumento significativo no número de vulnerabilidades do sistema SCADA (30% do número total de vulnerabilidades encontradas pela TippingPoint em 2016), irão introduzir perigos e riscos sem precedentes para organizações e consumidores.

3. Business Email Compromise (BEC) irão aumentar o número de ataques direcionados envolvendo scamsO Comprometimento de E-mails Corporativos (BEC) e o Comprometimento de Processos Corporativos (BPC) continuarão a crescer, tendo em vista que são uma forma eficaz e relativamente simples de extorsão, levando um funcionário desprevenido a transferir dinheiro para a conta de um criminoso, podendo render até a 140 mil dólares. De forma alternativa, hackear diretamente um sistema de transação financeira, apesar de ser mais trabalhoso, pode render muito mais para os cibercriminosos - chegando até a US$ 81 milhões.
Executivos C-levels, como CEO’s, serão o foco mais atrativo do ataque. O golpe é fácil e rentável, não exigindo tanto em termos de infra-estrutura. Em dois anos, a perda total estimada por meio do golpe BEC foi de US $ 3 bilhões. Baseado em pesquisas da Trend Micro, atacantes foram capazes de extorquir US$ 75 milhões em apenas seis meses. 
4. O  Business Process Compromise (BPC) ganhará força entre os cibercriminosos que procuram atingir o setor financeiro e as máquinas POSO Business Process Compromise (BPC) também ganhará força entre os cibercriminosos que buscam atingir o setor financeiro. Possíveis cenários incluem o hacking de sistemas onlines de compra, para que os criminosos cibernéticos possam receber pagamentos destinados a vendedores reais ou a transferências não autorizadas de fundos.
5. Adobe e Apple ultrapassarão a Microsoft em termos de descobertas de vulnerabilidades Adobe ultrapassou a Microsoft pela primeira vez em 2016 em termos de descobertas de vulnerabilidades. Entre as vulnerabilidades divulgadas pela Iniciativa Zero-Day (ZDI), até agora em 2016, havia 135 vulnerabilidades nos produtos Adobe e 76 na Microsoft. 
A descoberta de vulnerabilidades da Adobe invariavelmente levará ao desenvolvimento de malware que podem ser integrados em exploit-kits. A Trend Micro aconselha aos usuários de produtos Apple e Adobe que protejam os terminais e dispositivos móveis contra malware que explorem essas vulnerabilidades.
6. Cyberpropaganda será extremamente difundidaAté o momento, cerca de metade da população mundial (46%) tem acesso à Internet. Isso significa um maior alcance dos indivíduos ao fácil e rápido acesso às informações independente da credibilidade que elas contenham.
Mais recentemente, a Trend Micro mapeou o vazamento de informações em plataformas como o WikiLeaks - usadas para propaganda - com materiais altamente comprometedores a apenas uma semana das eleições nos EUA. 
No monitoramento contínuo da Trend Micro do cenário underground, foi observado também alguns anúncios dos ganhos de US$ 20 por mês, resultantes da disseminação de propagandas fake sobre candidatos eleitorais. Foram encontrados também grupos de agentes cibernéticos dedicados a publicar materiais de propaganda em sites de mídias sociais como Facebook e LinkedIn. 
Em países que a eleição está próxima como França e Alemanha além de movimentos subsequentes à retirada do Reino Unido da União Europeia (UE), também conhecida como Brexit, serão todos influenciados pelo que é compartilhado e feito por meio da utilização de meios eletrônicos. Entidades capazes de navegar na opinião pública usando a cyberpropaganda de uma forma estratégica, serão capazes de produzir resultados que as favoreçam. A conclusão da Trend Micro é que 2017, terá um uso muito mais abusivo de informações duvidosas propagadas pelas mídias sociais.  
7. A implementação e o cumprimento da GDPR aumentarão os custos administrativos entre as organizaçõesA GDPR – órgão da união europeia que regula os direitos de privacidade dos cidadãos – terá impacto em todas as entidades do mundo que capturam, processam e armazenam os dados pessoais dos cidadãos da UE. No momento em que for aplicada em 2018, as empresas podem ser multadas em até 4% do volume de negócios global por não cumprimento de compliance.
As empresas devem ficar ainda mais atentas, pois a Trend Micro está visando novos procedimentos, ferramentas e táticas para atingir diferentes tipos de alvo em diferentes países. 
8. Autores de ameaças criarão novos alvos com táticas que irão bypassar sistemas de anti-evasão Os hackers começarão a fazer uma detecção mais deliberada de sandbox para checar se a rede aceita arquivos desconhecidos. 
Soluções de segurança que utilizam machine learning poderão ser usadas para se proteger de ameaças conhecidas, enquanto tecnologias sandboxing customizadas são capazes prevenir novas versões de ameaças. A tecnologia multicamada pode também auxiliar em uma resposta proativas contra ataques direcionados e será extremamente importante na luta contra esses tipos de campanhas.
- See more at: http://cio.com.br/noticias/2016/12/09/2017-sera-o-ano-das-extorsoes-via-e-mails-empresariais/#sthash.WUIRZ07p.dpuf

sexta-feira, 16 de dezembro de 2016

CIO artigo - Conquistas de aprendizado de máquina do Google já estão ao alcance de todos

Cristina De Luca *

Publicada em 04 de dezembro de 2016 às 17h30



No mercado de nuvem, onde duas grandes empresas se destacam, AWS e Microsoft, o Google ainda vem tentando se firmar. Não como mais uma opção, no entanto, mas como aquela capaz de ter as melhores ofertas em uma área que vem superando a Infraestrutura como Serviço: Machine Learning. Na batalha para democratizar a aprendizagem de máquinas, o Google acredita ter mais do que apenas a chance de lutar.
Há anos, o Google vem trabalhando em Machine Learning dentro de seus laboratórios de Pesquisa e Desenvolvimento, como o que mantém em Belo Horizonte, no Brasil. Alguns dos avanços conquistados nessa área já encontraram seu caminho em produtos e serviços amplamente utilizados por todos nós e, desde novembro, estão ao alcance dos desenvolvedores, em todo mundo, como ferramentas disponíveis na Google Cloud Machine Learning Platform.
Na definição do Google, Machine Learning - o estudo de algoritmos de computador que melhoram com experiência - foca no desenvolvimento de programas que podem aprender sozinhos como crescer e mudar quando expostas a novos dados. É um tipo de inteligência artificial (A.I) que fornece aos computadores a capacidade de aprender sem ser explicitamente programado (por exemplo, ensinando-o a reconhecer gatos mostrando imagens rotuladas como "gato") em vez de instruí-lo linha a linha.
deeplearning
A empresa tem progredido também no uso de Deep Learning, um subconjunto do Machine Learning. No Deep Learning, a máquina aprende os padrões dos padrões dos padrões. O que, recentemente, passou a permitir à busca do Google compreender e produzir trechos em destaque nos resultados, baseado no "algoritmos de compressão de sentença". Com o Deep Learning os sistemas podem aprender padrões muito abstratos, como o que são "abraços" ou como uma "festa" se parece.
Na prática, o Google usa Machine Learning em todos os nossos produtos, para melhorar significativamente a experiência do usuário e tornar possível o que era impossível há apenas alguns anos. Nesta segunda-feira, por exemplo, a empresa anuncia novidades de ML no mensageiro Allo, baseado no Google Assistente, desde o reconhecimento de fala até uma melhor classificação da informação para responder às perguntas.
Na busca, o RankBrain, indicador de classificação que usa o aprendizado profundo para melhorar os resultados, pode adivinhar quais respostas são as mais indicadas para os usuários com, aproximadamente, 80% de precisão, segundo o Google. Medido pelo teste de usuário, o RankBrain é o 3º melhor desempenho entre todos os nossos principais sistemas de classificação.
Há aplicações também no Tradutor, no Gmail, no Chrome, no Google Fotos e por aí vai...
aplicacoesMLGoogle
A nuvem no centro
Com o aprendizado de máquina se transformando em um dos tópicos mais quentes da indústria de computação, a maioria das empresas começou a perceber que esse era um campo  espinhoso, particularmente devido aos requerimentos de capacidade de processamento e disponibilidade de dados para treinar seus sistemas. 

Na prática, a maioria das empresas não tem as habilidades técnicas para poder fazer com que os seus sistemas aprendam.  Por isso, muitos analistas consideram que o aprendizado de máquina será cada vez mais dominado pelos serviços em nuvem: ambos tratam da escala de processamento e de quantidades maciças de dados, e apenas alguns poucos gigantes terão a capacidade financeira para construir a infraestrutura necessária e ter os melhores engenheiros do mundo.
Assim como a IBM, com as soluções de computação cognitiva disponíveis no Bluemix, a Microsoft e a própria AWS, que dias atrás lançou uma série de novos recursos e produtos para ajudar as empresas a aproveitarem seus dados e acelerar as iniciativas de aprendizado de máquinas, tirando proveito de GPUs e FPGAs, o Google também intensificou este ano o acesso à mesma infraestrutura e software que usa para executar seu próprio negócio. Isso se dá através de iniciativas disponíveis através da Google Cloud Plataform.
Muitas das APIs da plataforma de nuvem do Google são agora executadas pelas TPUs (Tensor Processing Units), unidades de processamento otimizadas para executar a plataforma de aprendizagem TensorFlow, um “sistema altamente escalável de machine learning que pode ser executado em um único smartphone ou em milhares de computadores em datacenters, de acordo com o CEO da companhia, Sundar Pichai. "Nós usamos o TensorFlow para tudo, desde o reconhecimento de voz no aplicativo do Google até o Smart Reply no Inbox. Ele nos permite construir e treinar redes neurais até cinco vezes mais rápidas do que o nosso primeiro sistema de redes neurais, para que possamos usá-lo para melhorar nossos produtos muito mais rapidamente", comenta o executivo.
Desde novembro do ano passado, o Google transformou o TensorFlow em uma plataforma open source (licença Apache 2.0) para que os pesquisadores pudessem colaborar, globalmente. Rapidamente, tornou-se a ferramenta de machine learning mais popular no GitHub.  A comunidade Learning Machine está contribuindo diretamente para a base de código. Dias atrás, Derek Murray, engenheiro de software do Google, anunciou o suporte nativo para Windows. De acordo com ele, uma das primeiras solicitações  recebidas após terem liberado o TensorFlow como open source. O TensorFlow 0.12 traz um pacote TensorFlow nativo para a versões 7, 10 e Server 2016 do Windows. O que permite acelerar o treinamento do TensorFlow com qualquer GPU que execute CUDA 8.
machinelearningnuvem
Mais recentemente, a Google Cloud Platform lançou o Cloud Machine Learning, que oferece o TensorFlow como um serviço gerenciado. 
Na prática o que o Google fez? "Pegamos todo os algoritmos especializados TensorFlow e disponibilizamos na nuvem, através de APIs", explica José Papo, Gerente do Programa de Relações com Desenvolvedores para América Latina. "Além da API mais geral, que é o Cloud Machine Learning API, ou simplesmente o TensorFlow na nuvem, disponibilizamos várias APIs especializadas, para resolver questões específicas de machine learning, como a API do Google Fotos para identificação de imagens", comenta. 
Exemplos da oferta do Google incluem uma nova edição premium do API para tradução, voltada para trabalhos de grande volume, como a tradução de milhares de e-mails ou documentos, especialmente útil para empresas que precisam adotar essa tecnologia em escala. Em setembro, o Google anunciou que o Translate estava mudando para um novo sistema chamado Google Neural Machine Translation (GNMT), uma estrutura de aprendizagem de ponta a ponta que aprende com milhões de exemplos, resultando em melhorias significativas na qualidade da tradução. Ou seja, com o  sistema GNMT, em execução hoje em dia para todos os usuários do Google Translate, o tradutor do Google já está começando a errar menos.
Se formos comparar as ofertas, podemos dizer que enquanto o TensorFlow, o coração do Google Cloud Machine Learning, tem como alvo Deep Learning (que simula o pensamento e a tomada de decisões humanos), o serviço de Machine Learning da Amazon trata de tarefas menos ambiciosas como classificação e regressão.
Startups brasileiras já usam as APIs TensorFlow na nuvem
Tudo isso foi apresentado em detalhes a desenvolvedores e jornalistas em um evento realizado, semana passada, no centro de pesquisa do Google em Belo Horizonte. 

Startups que integram os programas de incentivo do Google demonstraram como já estão usando vários dos algoritmos de Deep Learning em seus produtos. Entre elas o Portal Telemedicina, especializado na emissão de laudos médicos automatizados e a Nama, desenvolvedora de ferramentas de inteligência artificial focada em linguagem natural usadas para criação de smartbots. 
Usando o framework do TensorFlow a Nama desenvolveu uma  tecnologia exclusiva  (a  N.A.I.L - Nama Artificial Intelligence Language), que aumenta o entendimento de sentenças complexas em contextos dinâmicos e mantém um diálogo com os chatbots.
Já o Portal Telemedicina, que surgiu da parceria com fabricantes de equipamentos para diagnósticos de ultima geração, usou o TensorFFlow para desenvolvimrnto do software da empresa embarcado em equipamentos como optômetros, eletrocardiógrafos, eletroencefalógrafos, espirômetros e de radiologia. O objetivo é apoiar principalmente a medicina do trabalho, unidades de atendimento emergencial, hospitais, clínicas, departamentos de radiologia, empresas e cidades do interior que buscam prevenção e diagnósticos rápidos e seguros para seus pacientes, clientes ou funcionários.
"Nossa solução possibilita reduzir o tempo de diagnóstico. O software conversa diretamente com os equipamentos e envia os resultados dos exames para os médicos especialistas parceiros responsáveis por gerar o laudo", comenta Rafael Figueroa, Fundador & CEO da Portal Telemedicina. "O grande diferencial é a comunicação com os equipamentos de exames de imagem. Hoje nosso sistema conversa com mais de 70 equipamentos usando machine learning. Os resultados ficam disponíveis online para serem consultados em qualquer plataforma.  E os algoritmos de machine learning nos permite adicionar novos equipamentos em minutos", conta o executivo. 
BW, Boticário e  Petrobrás são algumas das empresas na lista de clientes B2B do Portal Telemedicina.  A solução também será estendida ao SUS, nos próximos meses, após uma licitação na cidade de Campinas. 
Quer entender mais?
Para os especialistas do Google, o “machine learning” ainda está “na adolescência”, e seu desenvolvimento só está sendo possível graças a junção de três fatore: a grande massa de  dados disponível na internet, o aumento da capacidade computacional, com as GPUs e o TPU e da quantidade e qualidade de engenheiros de software especializados na produção de algoritmos. 

Boa parte do que já é possível fazer com as ferramentas de ML do Google está compilado em um site chamado A.I. Experiments. Lá é possível encontrar oito ferramentas web para entender os benefício da Machine Learning brincando. Já ouviu falar no Quick Draw? Pois é, o sistema que adivinha o que você está desenhando com base nas informações que os ganhos de doodles de outras pessoas está lá. Assim como o Giorgio Cam, que usa a câmera do seu smartphone ou notebook para identificar objetos, e cria uma canção em torno do que ele pensa que está vendo.

quarta-feira, 14 de dezembro de 2016

CIO - Previsões para 2017: FaaS, contêineres, TI híbrida e muito mais

Kong Yang * Publicada em 01 de dezembro de 2016 às 08H26



A cada ano que passa, fica mais interessante observar e dissecar a tecnologia, e 2016 não foi uma exceção. Mas estamos aqui para discutir a tecnologia da informação em 2017 e, na SolarWinds, esperamos que seja um ano empolgante. Isto é o que acreditamos que acontecerá.
1 - Abra espaço, SaaS: FaaS ganha velocidadeOs provedores de serviço de nuvem líderes do setor apresentaram uma nova forma de trabalhar na nuvem: Funções como serviço (FaaS). Essa nova categoria de computação em nuvem permite que os clientes desenvolvam, executem e gerenciem funcionalidades de aplicativos sem a dor de cabeça de arquitetar e supervisionar a infraestrutura de backend.
Lançado em 2014 pela AWS Lambda (embora nos últimos anos, soluções similares tenham sido oferecidas por Azure e Google Cloud Platform), o serviço é usado geralmente para criar aplicativos de microsserviços. Seu objetivo é reduzir a barreira do consumo para linguagens de programação desacoplando a arquitetura da plataforma, permitindo que profissionais de TI desenvolvam programas para realizar tarefas específicas sem infraestruturas adicionais. O surgimento de um novo capítulo na computação em nuvem sinaliza o ganho contínuo de maturidade do mercado de nuvem desde suas raízes como infraestrutura como serviço até PaaS, SaaS, FaaS e tecnologias posteriores.
Prevemos que, em 2017, mais serviços especializados, como FaaS, continuarão a proliferar, devido à eficiência direcionada que leva a uma melhor experiência e a uma estrutura de preços aprimorada. A capacidade de executar quase qualquer tipo de aplicativo ou função, sem nenhuma administração de infraestrutura pelo profissional de TI, é bastante atraente. Novos serviços provavelmente se concentrarão nesses benefícios.
2 - Clareza sobre contêineresContêineres de empresas como Google, Docker, CoreOS e Joyent continuarão a ser uma importante área de discussão no espaço da computação em nuvem. No ano passado, organizações em todos os principais setores, desde finanças até comércio eletrônico, demonstraram interesse em contêineres como um novo método empolgante de operar a virtualização de sistemas. Entretanto, esse maior conhecimento do setor levou a uma onda de adoção rápida sem a compreensão fundamental das diferenças entre contêineres e máquinas virtuais.
Apesar de muitos usuários iniciais os implementarem assim, os contêineres não são substitutos essenciais das máquinas virtuais. Em poucas palavras, um contêiner consiste em todo um ambiente de tempo de execução — um aplicativo, suas dependências, bibliotecas e outros binários e os arquivos de configuração necessários à sua execução — em um único pacote projetado para uso leve e de curto prazo. Quando implementados corretamente, os contêineres possibilitam ambientes de desenvolvimento muito mais ágeis e portáteis.
Prevemos que, em 2017, os departamentos de TI em geral finalmente compreenderão melhor os conceitos fundamentais da tecnologia de contêiner e como eles podem ser utilizados de forma realista e adequada para operações de TI ao lado da infraestrutura virtual. Por exemplo, ao empacotar cargas de trabalho em contêineres, que podem ser criados muito rapidamente em outras plataformas de fornecedor se necessário, os profissionais de TI podem reaver parte do elemento de gerenciamento e controle dos SLAs de infraestrutura de nuvem pública. Os adeptos iniciais que implementaram a conteinerização nos últimos anos, provavelmente sem uma estratégia específica em mente, também precisarão reavaliar suas implantações iniciais para determinar se estão percebendo algum benefício significativo.
A proliferação de contêineres como uma estratégia de computação nos departamentos de TI causará maiores preocupações com a segurança — como o risco de vários contêineres sofrerem ataques de hackers por meio de um único núcleo de sistema operacional de host e, de forma similar a VMs, se espalharem — e a necessidade de profissionais de TI que sejam habilidosos em codificar linguagens específicas relacionadas à conteinerização.
3 - Violações de dados em alta (novamente)Parece que violações de dados sempre nos vêm à mente em previsões para o próximo ano, mas a preocupação cresce com o passar do tempo. Só no mês passado, houve o anúncio de que, em 2014, a Yahoo! foi vítima da maior violação de dados da história, perdendo dados pessoais de usuários de quase 500 milhões de contas para os invasores. Essa tendência não mostra nenhum sinal de desacelerar.
Prevemos que, em 2017, haverá aumentos exponenciais no volume e na visibilidade das violações de dados, particularmente para grandes corporações.
No próximo ano, mais empresas também começarão a avaliar o volume e a gravidades desses ataques sobre os dados. Para combatê-los, prevemos uma nova safra de empresas de segurança de informações ingressando no mercado para fornecer orientação sobre o teste de penetração e outros conhecimentos especializados sobre segurança.
Ao mesmo tempo, esse aumento nas violações de dados obrigará as organizações a avaliarem as implicações da possível perda de dados em relação ao gasto de contratar especialistas em segurança. Em muitos casos, em 2017 as empresas escolherão assumir um risco calculado sobre o que podem "se dispor a perder" em vez do que custa evitar totalmente a perda de dados. Essa resposta será especialmente verdadeira no caso de ataques de ransomware, nos quais é quase impossível garantir que os hackers não vazarão ou revelarão os dados roubados mesmo após terem recebido o pagamento do "resgate".
Por fim, as corporações e os profissionais de TI devem ficar muito atentos à maior capacidade dos invasores de aproveitarem a automação. A velocidade e a facilidade com que uma violação de rede automatizada pode ocorrer são algo novo e acabarão contribuindo para tornar as violações de dados corporativos uma coisa ainda mais comum em 2017.
4 - Blockchain: usar ou não usar?Blockchain, uma tecnologia de contabilidade ponto a ponto que começou com o bitcoin, ganhou a atenção das instituições financeiras há alguns anos, mas, em 2016, a tecnologia se expandiu além dos limites do setor. Numa época em que as empresas estão tendo dificuldades em lidar com o gerenciamento e a segurança dos dados, o blockchain fornece uma solução aparentemente perfeita. Os casos de uso de cadeia de fornecimento, por exemplo, estão agora sendo testados e implementados para garantir a segurança e a integridade das informações associadas a esses processos.
Em 2016, um grande número de empresas – em especial, financeiras e organizações – começou a testar o blockchain em ambientes de laboratório, mas, apesar disso, poucas o estão usando na prática. Um dos obstáculos é o consenso em torno de um protocolo comum, que ainda precisa acontecer. O outro obstáculo, é claro, resulta da falta de práticas de segurança comprovadas, principalmente para organizações financeiras.
Prevemos que, em 2017, o blockchain ganhará força como palavra da moda e muito mais pesquisas serão direcionadas à tecnologia e à sua funcionalidade, embora seja improvável a possibilidade de implementar prontamente algum novo recurso significativo. Entretanto, 2018 demonstrará ser muito mais ativo quanto à descoberta pelas empresas de formas de aproveitar a tecnologia de contabilidade de dados para resolver problemas de gerenciamento de dados.
5 - Mudança das funções de TIComo as funções de TI tradicionais baseadas em silo — administradores de rede, administradores de armazenamento, administradores de sistemas, administradores de banco de dados e outros — continuam a assumir novas responsabilidades, como o trabalho com provedores de serviço de nuvem em ambientes híbridos, a implementação de novas tecnologias, como contêineres e microsserviços, e a atuação como contato de TI com líderes de negócios, o ano de 2017 sinaliza o retorno da era da educação e da certificação.
A capacidade de aprender rapidamente novos conceitos e habilidades de TI será mais importante do que ser especialista em qualquer tecnologia isolada. Embora os especialistas em silos que gerenciam partes separadas da infraestrutura e da pilha de aplicativos tenham desempenhado um papel fundamental no departamento de TI tradicional, o data center moderno está mais interconectado do que nunca. Como resultado, os generalistas de TI – que conhecem um pouco de tudo e têm um entendimento holístico da pilha de aplicativos, podendo tomar decisões rápidas e informadas sobre a nova tecnologia – serão particularmente bem-sucedidos em 2017 e nos anos seguintes.
Mais especificamente, a introdução de novas tecnologias baseadas em máquina ao lado da adoção continuada de uma cultura de DevOps, que incentiva um departamento de TI não estruturado em silos, exigirão que os profissionais de TI se concentrem no desenvolvimento de novos conjuntos de habilidades e certificações para operar e gerenciar data centers de última geração:
· O ataque das máquinasA integração das novas tecnologias baseadas em máquinas como bots e inteligência artificial, que buscam automatizar processos básicos e funções de pesquisa, vão exigir a introdução de novos processos de gerenciamento e monitoramento. Para as organizações que escolherem aproveitar essa tecnologia, os profissionais de TI devem determinar não só qual equipe ou administrador precisará ser responsável pela implantação e manutenção dessa tecnologia, mas que padrões de monitoramento devem ser aplicados, quais protocolos de segurança devem ser seguidos e assim por diante.
· DevOps: A adoção de DevOps não mostra nenhum sinal de desacelerar em 2017. Para os não iniciados, DevOps é uma cultura e mentalidade direcionada ao desenvolvimento de software em que equipes de desenvolvimento e de operação colaboram, partindo da inteligência na execução de um aplicativo para informar e aprimorar o modo como o aplicativo é construído. Na realidade, espere que a cultura de DevOps permeie ainda mais as oficinas de TI à medida que os benefícios de uma abordagem simplificada de solução de problemas, remediação e experiência de usuário final aprimorada sejam cada vez mais procurados.
6 - TI híbrida: não apenas um conceito, mas uma realidadeDe acordo com McKinsey Research, as empresas relataram planos de reduzir as cargas de trabalho localizadas em ambientes no local, movendo muitas cargas de trabalho para nuvem privada dedicada, nuvem privada virtual e provedores de infraestrutura como serviço (IaaS), e o esperado é que todos eles tenham taxas de adoção maiores nos próximos anos. Não há dúvida de que a TI híbrida é a realidade para a maioria das organizações hoje e no futuro próximo. E não apenas isso, o próprio centro de tecnologia está se tornando cada vez mais híbrido. Os profissionais de TI devem começar a pensar em gerenciamento em um contexto híbrido. Mas como é isso realmente na prática?
Em 2017, os líderes de empresas decidirão quanto a soluções específicas à medida que implementam a TI híbrida. Por exemplo, eles podem escolher usar Office 365â e Skypeâ for Business ao mesmo tempo que hospedam uma solução de gerenciamento de identidade, Active Directoryâ Federated Services, no local. Como alternativa, a nuvem comprovou ser a melhor plataforma para infraestrutura de área de trabalho virtual (VDI), oferecendo às organizações a flexibilidade e a elasticidade necessárias para provisionamento e remoção do provisionamento de desktops virtuais em massa. Ao migrar essa carga de trabalho para a nuvem, a organização pode aliviar seus profissionais de TI da necessidade de gerenciar essa infraestrutura diretamente e concentrar novamente os esforços em outros projetos no local.
Ao longo dos próximos anos, os departamentos de TI devem exercitar sua responsabilidade crescente de atuar como contato tecnológico para o gerenciamento dos negócios permanecendo informados e tomando decisões inteligentes no que diz respeito à nuvem, mesmo que a decisão seja não fazer nada no futuro próximo porque não há necessidade imediata de mudança. O fundamental é criar um mapa de TI híbrida que integre a adoção da nuvem baseada em carga de trabalho e em aplicativo para alcançar um data center mais ágil, disponível, escalonável e eficiente.
Bem, é isso: um pouco do que acreditamos que acontecerá no mundo da TI em 2017. Certamente não temos uma bola de cristal, mas acreditamos que esses palpites são bem seguros.

(*) Kong Yang é Head Geek da SolarWinds
- See more at: http://cio.com.br/tecnologia/2016/12/01/previsoes-para-2017-faas-conteineres-ti-hibrida-e-muito-mais/#sthash.rpG1mjXp.dpuf