Nove desafios do aprendizado de máquina

Que surpresas o aprendizado de máquina tem reservadas para nós? Quão difícil é enganar uma máquina? E vamos acabar com a Skynet e a ascensão das máquinas?

O futuro provavelmente vai ser fantástico, mas no momento, a inteligência artificial (IA) apresenta algumas questões, que frequentemente estão relacionadas com moralidade e ética. Como o aprendizado de máquina já nos surpreendeu? É possível enganar uma máquina, e se sim, quão difícil é? E tudo vai acabar com a Skynet e a ascensão das máquinas? Vamos fazer algumas análises.

Inteligência artificial forte e fraca

Primeiro, precisamos distinguir dois conceitos: IA forte e fraca. Uma IA forte é uma máquina hipotética capaz de pensar e consciente de sua própria existência. Pode resolver não só tarefas planejadas, como também aprender coisas novas.

A IA fraca já existe. Está em programas feitos para resolver problemas específicos, como reconhecer imagens, conduzir carros, jogar Go, e assim por diante. Ela é o que chamamos de “aprendizado de máquina”.

Ainda não sabemos se a IA forte pode ser inventada. De acordo com pesquisas de especialistas, teremos que esperar outros 45 anos. Isso na verdade significa “algum dia”. Por exemplo, especialistas também previram que a energia de fusão seria comercializada em 40 anos – exatamente o que disseram há 50 anos.

O que poderia dar errado?

Ainda é incerto quando a IA forte será desenvolvida, mas a IA fraca já está aqui, trabalhando pesado em muitas áreas. A quantidade de setores aumenta a cada ano. O aprendizado de máquina permite que realizemos tarefas práticas sem programação óbvia; aprende a partir de exemplos. Para mais detalhes, leia “Como funciona o tal do ‘Machine Learning’?”.

Ensinamos máquinas a resolver problemas concretos, para que o modelo matemático resultante – que chamamos de algoritmo “de aprendizado” – não possa desenvolver de repente um desejo de dominar (ou salvar) a humanidade. Em outras palavras, não devemos ter medo de uma situação Skynet vinda de uma IA fraca. Mas algumas coisas ainda podem dar errado.

1. Péssimas intenções

Se ensinarmos um exército de drones a matar pessoas usando aprendizado de máquina, os resultados podem ser éticos?

Um pequeno escândalo apareceu ano passado relacionado exatamente a esse assunto. O Google está desenvolvendo um software para um projeto militar chamado projeto Maven, que envolve drones. No futuro, pode ajudar a criar sistemas de armamento completamente autônomos.

Como resultado, 12 funcionários do Google se demitiram em protesto e outros 4 mil assinaram uma petição para pedir que a empresa rescindisse o contrato com os militares. Mais de mil cientistas reconhecidos dos setores de IA, ética e TI escreveram uma carta aberta ao Google para pedir que abandonassem o projeto e apoiassem um acordo internacional para banir armas autônomas.

2. A tendência dos desenvolvedores

Mesmo que os desenvolvedores de algoritmos de aprendizado de máquina não queiram o mal de ninguém, muitos ainda querem fazer dinheiro – o que quer dizer que suas criações seguem interesses mercadológicos, e não necessariamente visam o bem da sociedade. Por exemplo, alguns algoritmos médicos podem recomendar tratamentos caros em vez daqueles com resultados melhores para o paciente.

Por vezes, a própria sociedade não tem interesse em que um algoritmo se torne um exemplo moral. Como em casos em que há um meio-termo entre a velocidade de tráfego e a taxa de mortes por acidentes de carro. Poderíamos programas carros autônomos para não dirigirem mais rápido do que 25km/h, o que quase garantiria a redução do número de fatalidades nas estradas a zero, mas anularia outros benefícios de usar um carro.

3. Parâmetros de sistema nem sempre incluem ética

Os computadores, de forma geral, não sabem nada sobre ética. Um algoritmo pode criar um orçamento nacional com o objetivo de “maximizar o PIB/produtividade no trabalho/expectativa de vida”, mas sem limitações éticas programadas no modelo, pode eliminar orçamentos para escolas, hospitais psiquiátricos e o meio ambiente, porque não aumentam diretamente o PIB.

Com um objetivo mais amplo, pode decidir aumentar a produtividade se livrando de quem não é capaz de trabalhar.

O que interessa é que questões éticas precisam ser incorporadas a partir do início.

4. Relatividade ética

A ética muda ao longo do tempo, e às vezes rapidamente. Por exemplo, as opiniões sobre questões como os direitos LGBT, matrimônio inter-racial ou entre pessoas de diferentes grupos econômicos podem mudar significativamente de uma geração para outra.

As questões morais também podem variar entre grupos do mesmo país, imagine em diferentes territórios. Por exemplo, na China, usar o reconhecimento facial para vigilância em massa se tornou a norma. Outros países podem enxergar esse assunto de forma diferente e a decisão pode depender da situação.

O clima político também importa. Por exemplo, a guerra contra o terrorismo mudou de forma significativa – e rápida – algumas normas e ideais éticos em muitos países.

5. O aprendizado de máquina muda os humanos

Os sistemas de aprendizado de máquina – apenas um exemplo de IA que afeta pessoas diretamente – recomendam novos filmes para você com base em suas avaliações de outras produções, após comparar suas preferências com a de outros usuários. Alguns sistemas estão cada vez melhores nisso.

Um sistema de recomendação de filmes muda suas preferências com o tempo e as limita. Sem ele, você ocasionalmente encararia o horror de assistir filmes ruins e de gêneros indesejados. Com a utilização da IA, as sugestões tendem a ser muito assertivas. No final, você para gastar horas revirando o catálogo e simplesmente consome o que é oferecido.

É interessante que muitas vezes nem percebemos como somos manipulados por algoritmos. O  exemplo do filme não é tão assustador, mas o cenário é bem diferente se pensarmos em notícias e propaganda.

6. Correlações falsas

Uma correlação falsa ocorre quando coisas completamente independentes entre si demonstram um comportamento muito similar, o que pode criar a ilusão de que estão conectadas de alguma forma. Por exemplo, você sabia que o consumo de margarina no Estados Unidos está altamente associado com a taxa de divórcios no estado de Maine?

É claro, pessoas reais, com sua experiência pessoal e inteligência humana, vão reconhecer instantaneamente que qualquer conexão direta entre os dois é extremamente improvável. Um modelo matemático não consegue ter esse tipo de conhecimento – simplesmente aprende e generaliza dados.

Um exemplo conhecido é um programa que classificou pacientes de acordo com a urgência do tratamento médico que precisavam e concluiu que os doentes com asma que tinham pneumonia não precisavam de tanta ajuda quanto os pacientes com pneumonia que não tinham asma. O programa analisou os dados e concluiu que os asmáticos estavam em menor perigo de morrer e, assim, não deveriam ter prioridade. Na verdade, suas taxas de morte eram tão baixas porque sempre recebiam tratamento prioritário nos hospitais por conta do alto risco inerente ao quadro.

7. Ciclos de feedback

Os ciclos de feedback são ainda piores que as falsas correlações. Um ciclo de feedback é uma situação em que as decisões de um algoritmo afeta a realidade, que por sua vez, convence o algoritmo que sua conclusão está correta.

Por exemplo, um programa de prevenção de crimes da Califórnia sugeriu que a polícia deveria enviar mais agentes para bairros afro-americanos com base no índice de criminalidade – o número de crimes relatados. No entanto, com maior policiamento na vizinhança, os moradores passaram a relatar crimes mais frequentemente (alguém estava logo ali disponível para registrá-los), o que fez com que os policiais preenchessem mais protocolos, boletins de ocorrência e resultou em um aumento da taxa de criminalidade – que então significou que mais oficiais precisaram ser alocados na área.

8. Dados de referência “contaminados” ou “envenenados”

Os resultados do aprendizado por algoritmo dependem muito dos dados de referência, que formam a base do aprendizado. Contudo, os dados podem ficar distorcidos, por acidente ou pela conduta duvidosa de alguém (este último caso é geralmente chamado de “envenenamento”).

Aqui está um exemplo de problemas não intencionais com dados de referência. Se os dados utilizados como amostra de treinamento para um algoritmo de contratação forem obtidos de uma empresa com práticas racistas, ele também será.

A Microsoft uma vez ensinou um chatbot a se comunicar no Twitter deixando com que qualquer pessoa conversasse com ele. Tiveram que cancelar o projeto em menos de 24 horas porque internautas gentis ensinaram o bot a falar palavrões e recitar Mein Kampf.

https://twitter.com/geraldmellor/status/712880710328139776

Eis um exemplo de contaminação de dados de aprendizado de máquina. Um modelo matemático de um laboratório de análise de vírus para computadores processa uma média de 1 milhão de arquivos por dia, tanto inofensivos quanto perigosos. O cenário de ameaças muda, então as mudanças no modelo são levadas aos produtos instalados no lado dos clientes na forma de atualizações da base de dados de antivírus.

Um hacker pode criar arquivos maliciosos, muito similares aos inofensivos, e enviá-los ao laboratório. Essa ação gradualmente apaga a linha que divide os arquivos limpos dos perigosos, deteriorando o modelo e talvez acionando eventualmente um falso positivo.

É por isso que a Kaspersky Lab tem um modelo de segurança multicamadas e não depende exclusivamente de aprendizado de máquina. Pessoas reais – especialistas em antivírus – sempre monitoram o que a máquina faz.

9. Trapaça

Mesmo um modelo matemático que funciona perfeitamente – que depende de bons dados – pode ser alvo de trapaça, se alguém souber como funciona. Por exemplo, um grupo de pesquisadores descobriu como enganar um algoritmo de reconhecimento facial usando óculos especiais que introduziria distorções mínimas na imagem e então alterar completamente o resultado.

Ao usarem óculos com aros especialmente coloridos, pesquisadores fizeram um algoritmo de reconhecimento facial pensar que eram outras pessoas

Ao usarem óculos com aros especialmente coloridos, pesquisadores fizeram um algoritmo de reconhecimento facial pensar que eram outras pessoas

Mesmo em situações que não parecem envolver qualquer coisa complicada, uma máquina pode facilmente ser enganada com métodos desconhecidos por leigos.

As primeiras três placas são reconhecidas como de limite de velocidade de 45 km/h e a última como uma placa de PARE

As primeiras três placas são reconhecidas como de limite de velocidade de 45 km/h e a última como uma placa de PARE

 

Além disso, para destruir um modelo matemático de aprendizado de máquina, as mudanças não precisam ser significativas – mudanças mínimas, imperceptíveis aos olhos humanos bastam.

Adicione um mínimo ruído ao panda da esquerda, e pode acabar com um gibão

Adicione um mínimo ruído ao panda da esquerda, e pode acabar com um gibão

Enquanto a humanidade ainda for mais inteligente que a maioria dos algoritmos, humanos serão capazes de enganá-los. Imagine no futuro, um aprendizado de máquina que analisa raios-X de bagagens nos aeroportos e procura por armas. Um terrorista esperto poderá colocar um objeto de determinado formato ao lado de uma pistola e fazê-la desaparecer.

A quem culpar e o que fazer?

Em 2016, o Big Data Working Group (Grupo de Trabalho Big Data) da administração Obama lançou um relatório que advertia sobre “a capacidade de codificar discriminações em decisões automáticas”. Também continha um apelo para a criação de algoritmos que sigam princípios de oportunidades iguais por design.

Mais fácil falar do que fazer.

Primeiro, os modelos matemáticos de aprendizado de máquina são difíceis de testar e consertar. Avaliamos programas comuns passo-a-passo e sabemos como testá-los, mas com aprendizado de máquina, tudo depende do tamanho da amostra de aprendizado, e não pode ser infinita.

Por exemplo, o Google Photo costumava reconhecer e marcar pessoas de cor como gorilas. Sério! Como pode imaginar, houve um escândalo e o Google prometeu consertar o algoritmo. No entanto, depois de três anos, a empresa falhou em inventar qualquer coisa melhor do que proibir a marcação de quaisquer objetos em fotografias como gorilas, chimpanzés ou macacos para evitar o mesmo erro.

Segundo, é difícil entender e explicar as decisões dos algoritmos de aprendizado de máquina. Uma rede neural organiza coeficientes ponderados dentro de si mesmo para chegar a respostas corretas – mas como? E o que pode ser feito para mudar a resposta?

Um estudo de 2015 mostrou que mulheres veem anúncios do Google AdSense para empregos com altos salários muito menos frequentemente do que os homens. O serviço de entrega no mesmo dia da Amazon está frequentemente indisponível em bairros afro-americanoss. Em ambos os casos, os representantes das empresas não foram capazes de explicar essas decisões, feitas por seus algoritmos.

Não é possível culpar ninguém, então temos que adotar novas normas e postular condutas éticas para robótica. Em maio de 2018, a Alemanha deu seu primeiro passo nessa direção e lançou regras éticas para carros autônomos. Dentre outras coisas, prevê o seguinte:

  • Segurança humana é a maior prioridade quando comparada com danos a animais ou propriedades.
  • No caso de um acidente ser inevitável, não deve haver discriminação; fatores distintivos são inadmissíveis.

Mas o que é especialmente importante para nós é que:

  • Sistemas de veículos autônomos vão se tornar um imperativo ético, se causarem menos acidentes do que motoristas humanos.

Está claro que vamos depender cada vez mais do aprendizado de máquina, simplesmente porque vai realizar melhor muitas tarefas do que pessoas são capazes. Então é importante ter em mente essas falhas e possíveis problemas, tentar antecipar todas as questões relacionadas no estágio de desenvolvimento, e lembrar de monitorar a performance dos algoritmos no caso de algo dar errado.

Dicas

Wi-Fi falso a bordo

Mesmo em altitude de cruzeiro, as ameaças cibernéticas ainda podem tornar sua vida digital turbulenta, como comprovado por uma prisão recente. Como se proteger a 30 mil pés acima do nível do mar?