Mostrando postagens com marcador Inteligência Artificial. Mostrar todas as postagens
Mostrando postagens com marcador Inteligência Artificial. Mostrar todas as postagens

domingo, 7 de junho de 2020

Associação de Inteligência Artificial entra na guerra contra o Covid-19

Por InfoChannel em 05/06/2020

Diante da guerra que ultrapassa fronteiras contra a ameaça da Covid-19, o Coronavírus, muitos profissionais, empresas e até setores têm se unido para contribuir de alguma forma e tentar frear o avanço deste vírus. Neste sentido, a Associação Brasileira de Inteligência Artificial -Abria, destaca os benefícios que a tecnologia de IA pode oferecer a esta guerra e seus membros se colocam a disposição para o desenvolvimento de projetos emergenciais.
Uma ferramenta de inteligência artificial identificou a epidemia de Coronavírus muito antes de virar algo de conhecimento público. A plataforma de IA BlueDot, que faz mapeamento de notícias, rastreia pesquisas de saúde e checa comunicados oficiais, emitiu um alerta para se evitar a região de Wuhan, antes mesmo que a própria OMS se pronunciasse.

“Este é um excelente exemplo do poder que a Inteligência Artificial tem para ajudar a coletividade. Existe ainda uma enorme gama de possibilidades para utilizarmos a IA em benefício de todos não só neste momento de crise, como em eventuais novos problemas”, afirma Rodrigo Scotti, chairman da Abria e CEO da Nama.
Para facilitar o contato entre empresas, serviços de IA, órgãos públicos e entidades relevantes para a batalha contra o novo Coronavírus, a Abria lançou um formulário para coletar projetos e outras task-forces para ajudar com base em escala operacional, datasets, análise e predição, automação de processos, comunicação em massa, logística & distribuição, serviços de APIs, projetos open source, créditos na nuvem, entre outras ideias que possam surgir.
“Estamos em busca de soluções de IA simples e que possam ser rapidamente implementadas para ajudar neste combate em nosso país. Por isso estamos rodando este formulário para centralizar essas ações – que usam IA, e em contato com outras associações e entidades para formar um plano de ação”, afirma Fernando Lopes, conselheiro da Abria e sócio da Mvisia.

Área da saúde é um dos focos do setor
No último ano, os membros da Abria realizaram diversos MeetUps, sendo que um dos mais relevantes ocorreu no Eretz, incubadora de Startups do Hospital Albert Einstein. “Nessa oportunidade, todos nós discutimos muito o uso da IA para diagnóstico e prevenção de doenças. A partir disso, criamos o comitê de HealthTech da Abria”, afirma Valter Wolf, diretor executivo da Associação.

A Abria também enviou a sua contribuição para a consulta pública para a Estratégia Brasileira de Inteligência Artificial, lançada pelo Ministério da Ciência, Tecnologia, Inovações e Comunicações – MCTIC, no fim de 2019. “O uso de dados pessoais e aplicação ética da inteligência artificial foi um dos pontos mais comentados pelos membros. Isso tem impacto direto na área da saúde, principalmente quando se fala nos dados do prontuário médico do paciente”, completa Wolf.
“O momento é de concentrar todos os nossos esforços de maneira conjunta. Em hospitais e clínicas, a IA pode ter um papel fundamental para triagem, tirar dúvidas sobre sintomas específicos, facilitar o agendamento de consultas, etc. Além disso, como o impacto da recessão afeta a todos os setores, a tecnologia pode reduzir a perda financeira de companhias que tiveram impacto em suas operações. É importante comunicar que a Abria, bem como todos os seus membros, estão à disposição para desenhar o melhor projeto e entregá-lo no menor tempo possível”, finaliza Scotti.

segunda-feira, 29 de abril de 2019

Inteligência Artificial: Como fazer análise de sentimentos com python? (Parte 1)

Por  em 29/04/2019 no site Lambda3



Resultado de imagem para inteligencia artificial interpretação de texto
Medium

Um dos desafios do ramo da inteligência artificial é a análise e compreensão de texto, visto que até pouco tempo, esta era uma competência que apenas humanos conseguiam realizar de forma efetiva.
Existem diversas técnicas no mercado para realizar análise de texto, vamos utilizar aqui algumas técnicas de vetorização e processamento de dados para poder classificar como positiva ou negativa as avaliações do IMDB sobre filmes.
Neste post, iremos utilizar python 3 para fazer a análise e o google colaboratory para rodar nossos códigos o/.
Inicialmente vamos importar algumas bibliotecas e carregar nosso dataset:
import pandas as pd
df = pd.read_csv('https://s3.amazonaws.com/sergio-prates-blog/imdb-reviews-pt-br.csv').sample(1000, random_state=42)
df.sentiment.value_counts()
df.head()
Acima importamos a biblioteca pandas que nos auxilia a trabalhar com dataframes ou tabelas no python.
Esses comandos terão a saída conforme abaixo:


Veja que carregamos o dataset com 1000 registros, entretanto esse dataset possui aproximadamente 50k registros!!
Como modelos de machine learning trabalham melhor com valores numéricos, vamos modificar a coluna sentimento para 0=negativo e 1=positivo:
df.sentiment = df['sentiment'].map({'pos': 1, 'neg': 0})
df.head()


Apenas alguns conceitos antes, para processamento de linguagem natural, temos o conceito de n-grama, que consiste no agrupamento de palavras, então temos que um n-grama de tamanho um é um unigrama, de tamanho dois é um bigrama e assim por diante.
Esses n-gramas não são nada mais do que combinações de palavras. Para a frase: “Hoje é dia de sol” temos os unigramas:
Hoje, é, dia, de, sol
Neste caso cada palavra é um unigrama, para bigramas teríamos combinações de duas palavras e assim por diante.
Agora, para que possamos passar nossos dados para o modelo de machine learning, vamos vetorizar nossos dados, afinal como dito anteriormente, algoritmos de machine learning trabalham muito bem com números.
Para isso vamos utilizar a classe CountVectorizer da biblioteca scikit-learn. O scikit-learn é a biblioteca mais famosa para trabalhar com machine learning, recomendo que você veja a documentação aqui.
Perceba que aqui temos o parâmetro ngram_range onde passamos o range de n-gramas que queremos criar, para este exemplo vamos utilizar o unigrama.
from sklearn.feature_extraction.text import CountVectorizer
vect = CountVectorizer(ngram_range=(1, 1))
vect.fit(df.text_pt)
text_vect = vect.transform(df.text_pt)
Este código tem a função de criar um vetorizador com a representação numérica das palavras do nosso dataset, a variável “vect” é responsável por armazenar esse de-para das palavras para a representação numérica e a variável text_vect armazena uma matriz que representa nossos dados de avaliações do imdb já vetorizados.
Já temos nossos dados vetorizados, agora como gostamos de boas práticas, vamos separar nossa base em conjunto de treino e testes na proporção 70/30.
from sklearn.model_selection import train_test_split
X_train,X_test,y_train,y_test = train_test_split(
text_vect,
df.sentiment,
test_size = 0.3,
random_state = 42
)
No código acima, importamos a função “train_test_split” do scikit-learn para separar os dados em treino e teste, veja que passamos a variável criada anteriormente “text_vect” que se trata dos nossos dados vetorizados, passamos a coluna “sentimento” que é o que queremos classificar e a variável “test_size” com o valor 0.3 que significa que queremos 30% dos dados como testes.
Agora que temos nossos dados de treino e testes, vamos partir para o modelo de machine learning, para este post, vamos utilizar o LogisticRegression do sklearn.
No código abaixo, importamos a classe LogisticRegression do scikit-learn para realizar o ajuste do modelo, instanciamos na variável clf e logo em seguida chamamos o método “fit” que é onde o treinamento do modelo acontece, perceba que passamos o X_train que são nossos dados de treino que utilizaremos para prever o y_train que são os sentimentos positivo e negativo.
from sklearn.linear_model import LogisticRegression
clf = LogisticRegression(random_state=0, solver='newton-cg')
clf = clf.fit(X_train, y_train)
Após rodar esse comando, podemos chamar o método “predict” para predizer nossos dados de teste e verificar a partir da métrica f1_score qual a porcentagem de acerto do nosso modelo:
from sklearn.metrics import f1_score
y_prediction = clf.predict(X_test)
f1 = f1_score(y_prediction, y_test, average='weighted')
print(f1)



Veja que obtivemos um score de 73%, nada mal hum? Com isso você conseguiu fazer um classificador de textos com técnicas simples de processamento de linguagem natural!! 😎
Apenas um detalhe, é que essa precisão pode variar devido ao método sample, utilizado no início, pois ele pega registros aleatórios, o que pode modificar o resultado final.
Nos próximos posts vamos explorar outros modelos e tentar melhorar esse score!

quarta-feira, 17 de abril de 2019

As cinco tendências mais preocupantes na inteligência artificial atualmente

Por Brian Merchant em 13 de dezembro de 2018 no site Gizmodo.

Gizmodo - UOL


A inteligência artificial já está começando a sair do nosso controle, alerta um novo relatório feito por pesquisadores de ponta. Não tanto no sentido da Skynet, mas mais no sentido de “empresas de tecnologia e governos já estão usando IA de maneiras que aumentam a vigilância e marginalizam ainda mais populações vulneráveis”.
Na semana passada, o AI Now Institute, afiliado à Universidade de Nova York e lar de grandes pesquisadores de IA com o Google e a Microsoft, divulgou um relatóriodetalhando, basicamente, o estado da IA em 2018 e a série de tendências desconcertantes que se desenvolvem no campo.

O que definimos amplamente como IA — aprendizado de máquina, sistemas automatizados etc. — está sendo desenvolvido atualmente mais rápido do que nosso sistema regulatório está preparado para lidar, diz o relatório. E ela ameaça consolidar o poder nas empresas de tecnologia e governos opressores que implantam a IA, tornando praticamente todos os outros mais vulneráveis a seus vieses, suas capacidades de vigilância e suas inúmeras disfunções.
O relatório contém dez recomendações para os legisladores, todas elas aparentemente válidas, assim como um diagnóstico das tendências mais potencialmente destrutivas. “Os governos precisam regular a IA”, estimula a primeira recomendação, “expandindo os poderes das agências setoriais específicas para supervisionar, auditar e monitorar essas tecnologias por domínio”. Um Departamento de IA enorme ou algo assim que tente regular o campo em grande escala não será suficiente, advertem os pesquisadores — o relatório sugere que os reguladores sigam exemplos como o da Administração Federal de Aviação dos EUA e lidem com a IA à medida que ela se manifesta campo por campo.
Mas o documento também transmite uma avaliação sucinta das principais áreas problemáticas da IA na sua forma atual em 2018. Conforme detalhado pelo AI Now, elas são:
  1. A lacuna de responsabilidade entre aqueles que constroem os sistemas de IA (e lucram com eles) e aqueles que sofrem o impacto dos sistemas (você e eu) está crescendo. Não gosta da ideia de ser submetido a sistemas artificialmente inteligentes que coletam seus dados pessoais ou determinam vários desfechos para você? Que pena! O relatório conclui que o recurso que a maioria dos cidadãos públicos tem para lidar com os sistemas muito artificialmente inteligentes que os podem afetar está encolhendo, não crescendo.
  2. A IA está sendo usada para amplificar a vigilância, muitas vezes de formas horríveis. Se você acha que as capacidades de vigilância da tecnologia de reconhecimento facial são perturbadoras, espere até ver o seu colega ainda menos escrupuloso, a “affect recognition“, algo como reconhecimento de emoções. Sam Biddle, do Intercept, faz uma boa descrição do tratamento de “affect recognition” no relatório, que é basicamente uma frenologia moderna, praticada em tempo real.
  3. O governo está adotando softwares de tomadas de decisão autônomos em nome da economia de custos, mas esses sistemas são muitas vezes um desastre para os desfavorecidos. Desde sistemas que pretendem agilizar os processos de solicitação de benefícios online até aqueles que afirmam ser capazes de determinar quem é elegível para moradia, os chamados sistemas ADS são capazes de carregar viés e erroneamente rejeitar candidatos com base em argumentos infundados. Como Virginia Eubanks detalha em seu livro Automating Inequality, as pessoas que esses sistemas reprovam são aquelas que são menos capazes de reunir o tempo e os recursos necessários para resolvê-los.
  4. O teste de IA “na selva” já está desenfreado. “O Vale do Silício é conhecido por sua mentalidade de ‘mova-se rapidamente e quebre as coisas'”, observa o relatório, e isso está levando as empresas a testarem sistemas de IA no setor público — ou lançarem-nos no espaço do consumidor completamente — sem supervisão substancial. O histórico recente do Facebook — primeiro evangelizador de IA e da ideia de mover-se rápido e quebrar as coisas — é exemplo suficiente de por que essa estratégia pode ser desastrosa.
  5. As soluções tecnológicas para sistemas de IA preconceituosos ou problemáticos estão se mostrando inadequadas. O Google fez barulho quando anunciou que estava abordando a ética do aprendizado de máquina, mas esforços como esse já estão se mostrando muito limitados e tecnicamente orientados. Os engenheiros tendem a pensar que podem corrigir problemas de engenharia com, bem, mais engenharia. Mas o que é realmente necessário, argumenta o relatório, é uma compreensão muito mais profunda da história e dos contextos sociais dos conjuntos de dados com os quais os sistemas de IA são treinados.
Vale a pena conferir o relatório completo, tanto para dar uma passada sobre a variedade de maneiras como a inteligência artificial entrou na esfera pública — colidindo com o interesse público — em 2018 quanto para ver a receita detalhada de como nossas instituições podem controlar essa situação complicada.