Técnica para detecção de parasitas baseada em inteligência artificial é mais eficaz que as convencionais

SoCientífica
Máquina capaz de identificar as 15 espécies mais prevalentes de parasitas que infectam humanos no Brasil estará em breve disponível no mercado (foto: Wikimedia Commons)

A Immunocamp Comércio de Produtos Hospitalares, em Vinhedo, e pesquisadores dos Institutos de Computação e de Química e da Faculdade de Ciência Médicas da Universidade Estadual de Campinas (Unicamp), desenvolvem técnica com o objetivo automatizar a detecção de parasitas em exames de fezes.

O projeto conta com o apoio da FAPESP no âmbito do Programa Pesquisa Inovativa em Pequenas Empresas (PIPE).

A equipe desenvolveu uma máquina – patenteada e em breve disponível no mercado – capaz de identificar as 15 espécies mais prevalentes de parasitas que infectam humanos no Brasil.

A técnica, baseada em aprendizado de máquina, demonstrou eficiência superior a 90%, bem maior que as análises convencionais realizadas por humanos por meio de análise visual de lâminas de microscopia óptica, cujos índices variam de 48% a, no máximo, 76%. A máquina também é capaz de processar 2 mil imagens em quatro minutos.

“A ideia não é substituir o trabalho de humanos, até porque eles precisam treinar as máquinas para a identificação de mais espécies de parasitas e confirmar o diagnóstico dos patógenos detectados pela máquina, mas evitar a fadiga dos humanos e aumentar a precisão dos resultados”, disse Alexandre Xavier Falcão, do Instituto de Computação da Universidade Estadual de Campinas (Unicamp), em palestra sobre aprendizado de máquina e data science, em Lyon, durante a FAPESP Week France, entre os dias entre os dias 21 e 27 de novembro.

Treinamento da máquina

No projeto, o treinamento da máquina é feito por meio da repetição de imagens usadas como exemplos de um determinado contexto ou situação e a preparação adequada desse material requer um esforço de especialistas das mais diversas áreas.

A primeira dificuldade do projeto foi ensinar a máquina a distinguir nas imagens o que era impureza e o que era, de fato, parasita. “Só conseguimos contornar esse obstáculo por meio da combinação entre técnicas de processamento de imagens, aprendizado interativo de máquina e visualização. O especialista e a máquina participam de forma colaborativa no ciclo do aprendizado da máquina. Outro ponto importante é que áreas da saúde e da química têm criado técnicas para gerar lâminas de microscopia óptica mais ricas em parasitas e com menos impurezas fecais”, disse Falcão.

Uma das inovações criadas pela equipe da Unicamp foi um sistema para separação de parasitas e impurezas baseado no princípio de flotação por ar dissolvido.

A máquina é capaz de fazer a varredura automatizada da lâmina e detectar os parasitas que aparecem em imagens na tela do computador. Isso foi possível por meio de técnicas computacionais que separam os componentes da imagem para verificar e decidir se são impurezas ou uma das 15 espécies parasitárias.

Interação humano-máquina

A interação humano-máquina tem potencial para reduzir o esforço humano e aumentar a confiança na decisão algorítmica. Nossa abordagem tem mostrado que a inclusão do especialista no ciclo de treinamento gera sistemas confiáveis de tomada de decisão baseada em análise de imagem”, afirmou Falcão.

O intuito da metodologia é minimizar o esforço do especialista na anotação de imagem em larga escala visando a construção de sistemas de tomada de decisão com alto índice de acerto.

“A abordagem clássica, que usa exemplos pré-anotados e sem interação humana durante o treinamento, deixa várias perguntas sem resposta. São questões essenciais, como quantos exemplos são necessários para que as máquinas aprendam ou como explicar as decisões tomadas pela máquina. A nossa metodologia consiste em incluir o especialista no ciclo do aprendizado de máquina para que perguntas como essas sejam respondidas”, disse.

A estratégia da equipe de Falcão para construir sistemas de tomada de decisão confiáveis tem sido explorar habilidades complementares. “Os humanos são superiores na abstração de conhecimento. Já as máquinas não se cansam e são melhores no processamento de grandes quantidades de dados. Desse modo, o esforço do especialista é minimizado ao controlar o ciclo de aprendizado e as decisões das máquinas passam a ser explicáveis”, disse.

Aprendizado autônomo

Outra técnica de machine learning foi apresentada na FAPESP Week France, em Lyon, por  Nina Hirata, pesquisadora do Instituto de Matemática e Estatística da Universidade de São Paulo (IME-USP).

Técnicas de deep learning têm sido empregadas para desenvolver novas tecnologias baseadas em análise de imagens e com o objetivo de treinar as máquinas a aprenderem sozinhas por meio de reconhecimento de padrões e, dessa forma, agirem e interpretarem dados de modo mais natural.

Os avanços nessa área têm possibilitado inovações importantes baseadas na análise de imagens, como reconhecimento facial, identificação de corpos celestes ou sistemas capazes de descrever o conteúdo de uma foto.

“Tarefas comuns em problemas de análise de imagens, como classificação, reconhecimento de objetos, segmentação [delineação precisa do contorno de objetos] e interpretação do conteúdo, podem ser abordadas com técnicas de machine learning e, nos últimos anos sobretudo, com técnicas de deep learning”, disse Hirata.

Como explicou a pesquisadora, deep learning envolve técnicas que permitem processar uma imagem diretamente, sem que um humano precise descrever as características da imagem durante o treinamento da máquina.

“Antes era preciso escrever algoritmos muito específicos para extrair informações de características da imagem. Cada caso era um caso. O processo era muito manual. Hoje, com o deep learning, essa tarefa ficou muito mais fácil, o que nos permite focar em tarefas de nível mais elevado. Por exemplo, no caso de imagens biomédicas, em vez de empenhar nosso esforço em segmentar e extrair características de células individuais em um tecido, podemos canalizar o esforço na comparação de tecidos”, disse Hirata.

No entanto, acrescentou, apesar dos vários aspectos positivos dessa tecnologia, existem também vários desafios a serem vencidos. “Deep learning é uma espécie de caixa-preta: é muito difícil explicar por que ele está funcionando ou por que, às vezes, deixa de funcionar”, disse Hirata.

A pesquisadora da USP trabalha atualmente em um projetono âmbito do Programa Pesquisa em Parceria para a Inovação Tecnológica (PITE) da FAPESP, dedicado ao entendimento de imagens e de modelos de deep learning. Outro objetivo da pesquisa é testar a aplicação desses modelos em áreas diversas da ciência, como o reconhecimento de espécies de plânctons e a identificação de corpos celestes em imagens capturadas por meio de telescópios. Ela ainda citou outros projetos em andamento no instituto, um deles com o objetivo de medir o quão verde é uma cidade com base em dados do Google Street View.

“Em minha experiência, percebi que há uma dificuldade de comunicação entre pesquisadores de áreas distintas, barreira que dificulta colaborações multidisciplinares. Mas isso precisa ser mudado, pois atualmente é quase impossível fazer uma pesquisa sem estar amparado em dados e na ciência da computação”, disse.

Para Hirata, é preciso que pesquisadores de outras áreas entendam como formular problemas computacionais e, ao mesmo tempo, os estudantes da área de computação sejam treinados a lidar mais diretamente com problemas reais.

Por Maria Fernanda Ziegler, este artigo foi publicado originalmente no site Pesquisa para Inovação, leia o original aqui.

Compartilhar