Peck News: Direito Digital Aplicado

Inteligência Artificial, Machine Learning e Deep Learning

Luciane Shinohara*

A Inteligência Artificial – IA (sigla da expressão em inglês Artificial Intelligence) vem trazendo grandes mudanças na maneira como as pessoas se relacionam com a tecnologia, automatizando processos nunca antes imaginados e capacitando máquinas a imitar o comportamento humano.

Assistentes pessoais virtuais, celulares capazes de entender a voz humana, aplicativos de tradução automática, filtros de spam, GPS com otimização de rotas em tempo real e sistemas de reconhecimento de imagens, são exemplos de recursos de Inteligência Artificial que já utilizamos em nosso dia a dia.

Com capacidade para processar bilhões de informações e transformá-las em dados estruturados, este recurso já é utilizado para detecção do melhor diagnóstico de saúde, no combate ao terrorismo, na previsão de demanda de produtos nas lojas, em carros inteligentes que não necessitam de motoristas, nos sistemas de reconhecimento facial, entre outras aplicações.

Neste cenário surgem dois temas muito comentados no último ano nos assuntos de inovação: Machine Learning e Deep Learning. Simplificando a complexidade por trás dos temas, falaremos um pouco sobre quais as diferenças entre elas.

Composta por uma combinação de tecnologias que permitem que computadores tomem decisões com ajuda de algoritmos que reconhecem padrões e se tornam capazes de fazer previsões, a Machine Learning ou Aprendizagem de Máquina, é a área da ciência da computação que estuda a melhor forma de ensinar computadores a aprenderem, exercendo funções de forma natural, sem parecer que foi programado para isso.

Os filmes que aparecem quando você efetua o login no Netflix e vídeos disponibilizados na página inicial do Youtube são listas personalizadas, geradas a partir de técnicas de Machine Learning, que de acordo com dados de seu histórico estimam qual tema tem mais chance de ser escolhido por você para assistir em sequência. O Spotfy só consegue recomendar músicas customizadas para você porque aprendeu suas preferências. Os posts do Facebook, Twitter, e Instagram que são disponibilizados quando você acessa sua conta seguem a mesma lógica e tentam prever qual a melhor ordem para apresentar os resultados em suas páginas.

Além de deixar as escolhas mais inteligentes, a Machine Learning também integra a análise preditiva aos aplicativos que mais usamos, fazendo previsões sobre eventos futuros desconhecidos e identificando a probabilidade de resultados.

A Deep Learning ou Aprendizado Profundo é uma técnica da Machine Learning composta por uma rede neural artificial, uma versão matemática de como uma rede neural biológica funciona, composta de camadas que se conectam para realizar tarefas de classificação.

Ela permite que o seu celular automaticamente organize suas fotos por coisas que você fotografa, como por exemplo, fotos de montanha, fotos de comida, fotos do seu cachorro, identifica quem está nas suas fotos nas redes sociais antes mesmo de você as marcar, ou então, quando você coloca um cheque em um caixa eletrônico, faz com que sua letra consiga ser entendida e a ordem processada.

Esses termos juntos, Machine Learning e Deep Learning, compõem tudo o que é a Inteligência Artificial e apontam para um futuro em que nossas plataformas e sistemas terão inteligência suficiente para aprender com nossas interações e dados, alcançando performance próxima ou superior à humana.

Não se pode negar que com ajuda Inteligência Artificial, as máquinas já são capazes de executar tarefas antes exclusivas aos humanos de maneira mais otimizada e eficiente.

Podemos citar os chatbots, que têm ganhado espaço em muitos negócios, como é o caso do “Poupinha”, o atendente virtual do Poupatempo, que presta informações sobre prazo, condições e valores sobre serviços de RG, por meio de conversas automatizadas no Portal do Poupatempo e na página do serviço no Facebook, além de realizar agendamentos pela plataforma a qualquer uma das unidades no Estado de São Paulo.

Conforme informações de seu desenvolvedor NAMA, a plataforma realizou 5 mil agendamentos em sua primeira semana de funcionamento, no final de 2016, e atende mais de 5 mil usuários por dia. Além disso, recebeu 51 mil mensagens de agradecimentos dos usuários, o que demonstra que 23% dos atendimentos realizados pelo “Poupinha” superaram as expectativas de seus usuários.

Mas será que a Inteligência Artificial vai substituir os humanos? Vamos todos ficar desempregados?

O mundo real ás vezes é confuso e bastante imprevisível. Apesar do progresso ao ensinar computadores a aprender, eles ainda demoram muito mais que nós para entender, cometendo erros que nós não cometeríamos. É o caso, por exemplo, da polêmica e constrangedora prática do Google Fotos descoberta por um usuário em 2015, que incluiu a legenda de “gorilas” na imagem de um casal de negros. O recurso de armazenamento de fotos utilizou a função de organização com tags por meio de um programa de reconhecimento facial, porém, a Inteligência Artificial do Google não foi capaz de distinguir a pele de um ser humano da pele dos gorilas.

A empresa pediu desculpas pelo ocorrido, prometendo corrigir o erro e também afirmou que o programa registrou outros problemas parecidos, como não reconhecer o rosto de algumas pessoas ou identificá-las como cães.

Mas a solução para o erro só veio dois anos após o ocorrido: para que o programa não confunda seres humanos com gorila, retiraram o gorila do buscador. Macacos e chimpanzés também foram excluídos do sistema de busca que, contudo, responde perfeitamente quando é solicitado a busca por orangotangos, gibões, babuínos, saguis e até os grandes símios, conforme teste realizado pela revista Wired[1].

Tal solução incomum foi confirmada por um porta-voz do Google, que destacou ferramentas que permitem aos usuários denunciar erros, pois afirma que “a tecnologia de rotulagem de imagem ainda é precoce e, infelizmente, é quase perfeita”.

Essa deficiência da tecnologia demonstra que as máquinas, embora possam ser treinadas para categorizar uma imensa quantidade de imagens em alto nível de precisão e rapidez, não conseguem ir além desse treinamento, ou seja, não possuem a capacidade de utilizar o senso crítico para apurar a interpretação do mundo como nós, humanos.

As máquinas ainda não são desenvolvidas a ponto de atuar como o cérebro humano de forma criativa. Elas podem auxiliar a vida das pessoas, mas o cérebro humano ainda não é compreendido de forma que seja possível um dia ser simulado fielmente em uma forma artificial. 

[1] Fonte: www.wired.com/story/when-it-comes-to-gorillas-google-photos-remains-blind/, acesso em 25 de janeiro de 2018.

*Luciane Shinohara é advogada especialista em Direito Digital do Peck Advogados. Pós-graduada em Direito Digital e Telecomunicações pela Universidade Presbiteriana Mackenzie, possui extensão em Ciências Jurídicas pelo Complexo Jurídico Damásio de Jesus e pela Faculdade Legale. É coautora do livro “Direito Digital Aplicado 3.0” publicado pela Editora RT.

LinkedIn: linkedin.com/in/luciane-shinohara-01b084103

`