Tecnologia

Inteligência Artificial, Vieses e Governança de Dados

A área de Inteligência Artificial tem uma história de mais de meio século e seu desenvolvimento ocorreu em saltos, com fatos marcantes na últimas três décadas, como, por exemplo, do Deep Blue da IBM que ganhou do Kasparov em 1997, um torneio de xadrez para o assombro do mundo da época, utilizando basicamente de estratégia de força bruta.

Mais recentemente, em 2011, o supercomputador Watson da IBM ganhou o torneio Jeopardy, um torneio de perguntas e respostas, e envolveu por parte do Watson o desafio do entendimento da pergunta falada, usando do processamento de linguagem natural e de seu contexto para identificar a possível resposta.

E por fim a unidade DeepMind do Google que em 2016 desenvolveu uma inteligência artificial baseada em Deep Learning, chamada AlphaGo, que ganhou o torneio do jogo Go do campeão mundial da época, jogo este que é exponencialmente mais complexo em possibilidades que o xadrez.

Tecnologia e Inteligência Artificial

O avanço na parte tecnológica da Inteligência Artificial tem sido propiciado muitas vezes por soluções de hardware personalizadas usando de GPUs (unidades de processamento gráfico) que tem sido desenvolvidas e possuem desempenho superior ao uso das CPUs tradicionais, bem como por outras abordagens que se utilizam de ASICs, que são soluções de hardware otimizadas para aplicações específicas, utilizadas para o processamento de Deep Learning.

O principal obstáculo ao uso corrente e futuro da Inteligência Artificial na sociedade não é tecnológico, e sim a dificuldade de eliminar os vieses nos resultados gerados nos algoritmos utilizados, que são treinados em dados que em sua origem também podem conter esses vícios, o que acaba criando uma automação de decisões que podem impactar a vida das pessoas e que levantam uma série de questões éticas que precisam ser endereçadas.

As pessoas geralmente nem estão cientes destes fatos e com as novas leis de proteção de dados no mundo, o profissional que trabalha com Inteligência Artificial que quiser se destacar, deve se preocupar em ser capaz de tornar “claro” que premissas e fatores foram levados em conta para se gerar um resultado do algoritmo de aprendizado de máquina, uma vez que com a automação de decisões cada vez mais em voga, provavelmente poderá ter um impacto no mundo “real” e possíveis efeitos colaterais, sendo assim a importância de criar uma estratégia de Gestão de Riscos para que os mesmos possam ser mapeados, corretamente medidos e mitigados quando necessários e por fim corrigidos quando identificados.

Em outras palavras, a capacidade de um operador humano de ser capaz de explicar e interpretar os resultados gerados por esse algoritmo no contexto do problema, acredito que será um fator preponderante para que seu uso passe a ser disseminado por exemplo em áreas que lidam com dados confidenciais e sensíveis, como os de Saúde e serviços governamentais.

Para que um algoritmo seja “explicável” e “interpretável” é necessário que todas as etapas do processo de aprendizado de máquina que resultaram em uma predição, possam ser rastreadas e as variáveis que pesaram na tomada de decisão possam passar por um escrutínio. Isso ainda é uma falha nos modelos chamados de Deep Learning, que carecem dessas características.

artificial 01
A área de Inteligência Artificial tem uma história de mais de meio século (Crédito: Shutterstock)

Na área de Ciência de Dados e na Estatística, o propósito da fase de modelagem é o de justamente descrever a relação entre os parâmetros de entrada e a variável alvo (target variable).

Existe um trade-off na modelagem estatística entre a acurácia e a capacidade de se interpretar um modelo. Modelos mais simples são fáceis de se interpretar, mas não produzirão predições acuradas (particularmente para relações complexas). Modelos complexos podem produzir predições acuradas, mas podem ser difíceis de se interpretar.

A utilização sábia das ferramentas à disposição do profissional de Ciência de Dados, assim como a utilização de critérios estritos de Governança de Dados de forma mandatória em todas as etapas, farão toda a diferença na adoção, disseminação, aceitação e principalmente geração de confiança na imparcialidade dos resultados gerados, sempre com a supervisão de seres humanos no processo.


REFERÊNCIAS

  • Livro Real World Machine Learning – Manning – 2017
  • Trabalho em Grupo realizado pelo autor e seus colegas de equipe da Turma 02 do MBA Analytics em Big Data na FIA no ano de 2017.

ASSINE NOSSA NEWSLETTER SEMANAL

Renato Azevedo Sant'Anna

Renato Azevedo Sant'Anna tem 35 anos, trabalha atualmente como Estrategista Digital / Consultor de Insights & Data Intelligence. Graduado em Engenharia da Computação e MBA Analytics em Big Data pela FIA e MBA em Marketing pela FGV. Tem experiência com Inteligência de Negócios em canais digitais desde 2011.

ARTIGOS RELACIONADOS

Comentários no Facebook