{"id":11324,"date":"2019-02-05T16:42:28","date_gmt":"2019-02-05T19:42:28","guid":{"rendered":"https:\/\/www.kaspersky.com.br\/blog\/?p=11324"},"modified":"2021-06-17T18:44:11","modified_gmt":"2021-06-17T21:44:11","slug":"machine-learning-nine-challenges","status":"publish","type":"post","link":"https:\/\/www.kaspersky.com.br\/blog\/machine-learning-nine-challenges\/11324\/","title":{"rendered":"Nove desafios do aprendizado de m\u00e1quina"},"content":{"rendered":"<p>O futuro provavelmente vai ser fant\u00e1stico, mas no momento, a intelig\u00eancia artificial (IA) apresenta algumas quest\u00f5es, que frequentemente est\u00e3o relacionadas com moralidade e \u00e9tica. Como o aprendizado de m\u00e1quina j\u00e1 nos surpreendeu? \u00c9 poss\u00edvel enganar uma m\u00e1quina, e se sim, qu\u00e3o dif\u00edcil \u00e9? E tudo vai acabar com a Skynet e a ascens\u00e3o das m\u00e1quinas? Vamos fazer algumas an\u00e1lises.<\/p>\n<h3>Intelig\u00eancia artificial forte e fraca<\/h3>\n<p>Primeiro, precisamos distinguir dois conceitos: IA forte e fraca. Uma IA forte \u00e9 uma m\u00e1quina hipot\u00e9tica capaz de pensar e consciente de sua pr\u00f3pria exist\u00eancia. Pode resolver n\u00e3o s\u00f3 tarefas planejadas, como tamb\u00e9m aprender coisas novas.<\/p>\n<p>A IA fraca j\u00e1 existe. Est\u00e1 em programas feitos para resolver problemas espec\u00edficos, como reconhecer imagens, conduzir carros, jogar Go, e assim por diante. Ela \u00e9 o que chamamos de \u201caprendizado de m\u00e1quina\u201d.<\/p>\n<p>Ainda n\u00e3o sabemos se a IA forte pode ser inventada. De acordo com <a href=\"https:\/\/www.technologyreview.com\/s\/607970\/experts-predict-when-artificial-intelligence-will-exceed-human-performance\/\" target=\"_blank\" rel=\"noopener nofollow\">pesquisas de especialistas<\/a>, teremos que esperar outros 45 anos. Isso na verdade significa \u201calgum dia\u201d. Por exemplo, especialistas tamb\u00e9m previram que a energia de fus\u00e3o seria comercializada em 40 anos \u2013 exatamente o que disseram h\u00e1 50 anos.<\/p>\n<h3>O que poderia dar errado?<\/h3>\n<p>Ainda \u00e9 incerto quando a IA forte ser\u00e1 desenvolvida, mas a IA fraca j\u00e1 est\u00e1 aqui, trabalhando pesado em muitas \u00e1reas. A quantidade de setores aumenta a cada ano. O aprendizado de m\u00e1quina permite que realizemos tarefas pr\u00e1ticas sem programa\u00e7\u00e3o \u00f3bvia; aprende a partir de exemplos. Para mais detalhes, leia <a href=\"https:\/\/www.kaspersky.com.br\/blog\/machine-learning-explained\/9182\/\" target=\"_blank\" rel=\"noopener\">\u201cComo funciona o tal do \u2018Machine Learning\u2019?\u201d<\/a>.<\/p>\n<p>Ensinamos m\u00e1quinas a resolver problemas concretos, para que o modelo matem\u00e1tico resultante \u2013 que chamamos de algoritmo \u201cde aprendizado\u201d \u2013 n\u00e3o possa desenvolver de repente um desejo de dominar (ou salvar) a humanidade. Em outras palavras, n\u00e3o devemos ter medo de uma situa\u00e7\u00e3o Skynet vinda de uma IA fraca. Mas algumas coisas ainda podem dar errado.<\/p>\n<h3>1. P\u00e9ssimas inten\u00e7\u00f5es<\/h3>\n<p>Se ensinarmos um ex\u00e9rcito de drones a matar pessoas usando aprendizado de m\u00e1quina, os resultados podem ser \u00e9ticos?<\/p>\n<p><span class=\"embed-youtube\" style=\"text-align:center; display: block;\"><iframe class=\"youtube-player\" type=\"text\/html\" width=\"640\" height=\"390\" src=\"https:\/\/www.youtube.com\/embed\/TlO2gcs1YvM?version=3&amp;rel=1&amp;fs=1&amp;showsearch=0&amp;showinfo=1&amp;iv_load_policy=1&amp;wmode=transparent\" frameborder=\"0\" allowfullscreen=\"true\"><\/iframe><\/span><\/p>\n<p>Um pequeno esc\u00e2ndalo apareceu ano passado relacionado exatamente a esse assunto. O Google <a href=\"https:\/\/gizmodo.com\/google-employees-resign-in-protest-against-pentagon-con-1825729300\" target=\"_blank\" rel=\"noopener nofollow\">est\u00e1 desenvolvendo um software<\/a> para um projeto militar chamado projeto Maven, que envolve drones. No futuro, pode ajudar a criar sistemas de armamento completamente aut\u00f4nomos.<\/p>\n<p>Como resultado, 12 funcion\u00e1rios do Google se demitiram em protesto e outros 4 mil assinaram uma peti\u00e7\u00e3o para pedir que a empresa rescindisse o contrato com os militares. Mais de mil cientistas reconhecidos dos setores de IA, \u00e9tica e TI escreveram uma <a href=\"https:\/\/www.icrac.net\/open-letter-in-support-of-google-employees-and-tech-workers\/\" target=\"_blank\" rel=\"noopener nofollow\">carta aberta<\/a> ao Google para pedir que abandonassem o projeto e apoiassem um acordo internacional para banir armas aut\u00f4nomas.<\/p>\n<h3>2. A tend\u00eancia dos desenvolvedores<\/h3>\n<p>Mesmo que os desenvolvedores de algoritmos de aprendizado de m\u00e1quina n\u00e3o queiram o mal de ningu\u00e9m, muitos ainda querem fazer dinheiro \u2013 o que quer dizer que suas cria\u00e7\u00f5es seguem interesses mercadol\u00f3gicos, e n\u00e3o necessariamente visam o bem da sociedade. Por exemplo, alguns algoritmos m\u00e9dicos podem recomendar tratamentos caros em vez daqueles com resultados melhores para o paciente.<\/p>\n<p>Por vezes, a pr\u00f3pria sociedade n\u00e3o tem interesse em que um algoritmo se torne um exemplo moral. Como em casos em que h\u00e1 um meio-termo entre a velocidade de tr\u00e1fego e a taxa de mortes por acidentes de carro. Poder\u00edamos programas carros aut\u00f4nomos para n\u00e3o dirigirem mais r\u00e1pido do que 25km\/h, o que quase garantiria a redu\u00e7\u00e3o do n\u00famero de fatalidades nas estradas a zero, mas anularia outros benef\u00edcios de usar um carro.<\/p>\n<h3>3. Par\u00e2metros de sistema nem sempre incluem \u00e9tica<\/h3>\n<p>Os computadores, de forma geral, n\u00e3o sabem nada sobre \u00e9tica. Um algoritmo pode criar um or\u00e7amento nacional com o objetivo de \u201cmaximizar o PIB\/produtividade no trabalho\/expectativa de vida\u201d, mas sem limita\u00e7\u00f5es \u00e9ticas programadas no modelo, pode eliminar or\u00e7amentos para escolas, hospitais psiqui\u00e1tricos e o meio ambiente, porque n\u00e3o aumentam diretamente o PIB.<\/p>\n<p>Com um objetivo mais amplo, pode decidir aumentar a produtividade se livrando de quem n\u00e3o \u00e9 capaz de trabalhar.<\/p>\n<p>O que interessa \u00e9 que quest\u00f5es \u00e9ticas precisam ser incorporadas a partir do in\u00edcio.<\/p>\n<h3>4. Relatividade \u00e9tica<\/h3>\n<p>A \u00e9tica muda ao longo do tempo, e \u00e0s vezes rapidamente. Por exemplo, as opini\u00f5es sobre quest\u00f5es como os direitos LGBT, matrim\u00f4nio inter-racial ou entre pessoas de diferentes grupos econ\u00f4micos podem mudar significativamente de uma gera\u00e7\u00e3o para outra.<\/p>\n<p>As quest\u00f5es morais tamb\u00e9m podem variar entre grupos do mesmo pa\u00eds, imagine em diferentes territ\u00f3rios. Por exemplo, na China, usar o reconhecimento facial para <a href=\"http:\/\/www.businessinsider.com\/how-china-is-watching-its-citizens-in-a-modern-surveillance-state-2018-4\" target=\"_blank\" rel=\"noopener nofollow\">vigil\u00e2ncia em massa<\/a> se tornou a norma. Outros pa\u00edses podem enxergar esse assunto de forma diferente e a decis\u00e3o pode depender da situa\u00e7\u00e3o.<br>\n<img decoding=\"async\" class=\"aligncenter size-large wp-image-11326\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/94\/2019\/02\/05162819\/machine-learning-challenges-face-recognition-china-1024x590.png\" alt=\"\" width=\"1024\" height=\"590\"><br>\nO clima pol\u00edtico tamb\u00e9m importa. Por exemplo, a guerra contra o terrorismo mudou de forma significativa \u2013 e r\u00e1pida \u2013 algumas normas e ideais \u00e9ticos em muitos pa\u00edses.<\/p>\n<h3>5. O aprendizado de m\u00e1quina muda os humanos<\/h3>\n<p>Os sistemas de aprendizado de m\u00e1quina \u2013 apenas um exemplo de IA que afeta pessoas diretamente \u2013 recomendam novos filmes para voc\u00ea com base em suas avalia\u00e7\u00f5es de outras produ\u00e7\u00f5es, ap\u00f3s comparar suas prefer\u00eancias com a de outros usu\u00e1rios. Alguns sistemas est\u00e3o cada vez melhores nisso.<\/p>\n<p>Um sistema de recomenda\u00e7\u00e3o de filmes muda suas prefer\u00eancias com o tempo e as limita. Sem ele, voc\u00ea ocasionalmente encararia o horror de assistir filmes ruins e de g\u00eaneros indesejados. Com a utiliza\u00e7\u00e3o da IA, as sugest\u00f5es tendem a ser muito assertivas. No final, voc\u00ea para gastar horas revirando o cat\u00e1logo e simplesmente consome o que \u00e9 oferecido.<\/p>\n<p>\u00c9 interessante que muitas vezes nem percebemos como somos manipulados por algoritmos. O \u00a0exemplo do filme n\u00e3o \u00e9 t\u00e3o assustador, mas o cen\u00e1rio \u00e9 bem diferente se pensarmos em not\u00edcias e propaganda.<\/p>\n<h3>6. Correla\u00e7\u00f5es falsas<\/h3>\n<p>Uma correla\u00e7\u00e3o falsa ocorre quando coisas completamente independentes entre si demonstram um comportamento muito similar, o que pode criar a ilus\u00e3o de que est\u00e3o conectadas de alguma forma. Por exemplo, voc\u00ea sabia que o consumo de margarina no Estados Unidos est\u00e1 altamente associado com a taxa de div\u00f3rcios no estado de Maine?<br>\n<img decoding=\"async\" class=\"aligncenter size-large wp-image-11327\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/94\/2019\/02\/05162948\/machine-learning-challenges-false-correlation-EN-1024x485.png\" alt=\"\" width=\"1024\" height=\"485\"><br>\n\u00c9 claro, pessoas reais, com sua experi\u00eancia pessoal e intelig\u00eancia humana, v\u00e3o reconhecer instantaneamente que qualquer conex\u00e3o direta entre os dois \u00e9 extremamente improv\u00e1vel. Um modelo matem\u00e1tico n\u00e3o consegue ter esse tipo de conhecimento \u2013 simplesmente aprende e generaliza dados.<\/p>\n<p>Um exemplo conhecido \u00e9 um programa que classificou pacientes de acordo com a urg\u00eancia do tratamento m\u00e9dico que precisavam e concluiu que os doentes com asma que tinham pneumonia n\u00e3o precisavam de tanta ajuda quanto os pacientes com pneumonia que n\u00e3o tinham asma. O programa analisou os dados e concluiu que os asm\u00e1ticos estavam em menor perigo de morrer e, assim, n\u00e3o deveriam ter prioridade. Na verdade, suas taxas de morte eram t\u00e3o baixas porque sempre recebiam tratamento priorit\u00e1rio nos hospitais por conta do alto risco inerente ao quadro.<br>\n<input type=\"hidden\" class=\"category_for_banner\" value=\"b2cpromo\"><\/p>\n<h3>7. Ciclos de feedback<\/h3>\n<p>Os ciclos de feedback s\u00e3o ainda piores que as falsas correla\u00e7\u00f5es. Um ciclo de feedback \u00e9 uma situa\u00e7\u00e3o em que as decis\u00f5es de um algoritmo afeta a realidade, que por sua vez, convence o algoritmo que sua conclus\u00e3o est\u00e1 correta.<\/p>\n<p>Por exemplo, um programa de preven\u00e7\u00e3o de crimes da Calif\u00f3rnia sugeriu que a pol\u00edcia deveria enviar mais agentes para bairros afro-americanos com base no \u00edndice de criminalidade \u2013 o n\u00famero de crimes relatados. No entanto, com maior policiamento na vizinhan\u00e7a, os moradores passaram a relatar crimes mais frequentemente (algu\u00e9m estava logo ali dispon\u00edvel para registr\u00e1-los), o que fez com que os policiais preenchessem mais protocolos, boletins de ocorr\u00eancia e resultou em um aumento da taxa de criminalidade \u2013 que ent\u00e3o significou que mais oficiais precisaram ser alocados na \u00e1rea.<\/p>\n<h3>8. Dados de refer\u00eancia \u201ccontaminados\u201d ou \u201cenvenenados\u201d<\/h3>\n<p>Os resultados do aprendizado por algoritmo dependem muito dos dados de refer\u00eancia, que formam a base do aprendizado. Contudo, os dados podem ficar distorcidos, por acidente ou pela conduta duvidosa de algu\u00e9m (este \u00faltimo caso \u00e9 geralmente chamado de \u201cenvenenamento\u201d).<\/p>\n<p>Aqui est\u00e1 um exemplo de problemas n\u00e3o intencionais com dados de refer\u00eancia. Se os dados utilizados como amostra de treinamento para um algoritmo de contrata\u00e7\u00e3o forem obtidos de uma empresa com pr\u00e1ticas racistas, ele tamb\u00e9m ser\u00e1.<\/p>\n<p>A Microsoft uma vez ensinou um chatbot a se comunicar no Twitter deixando com que qualquer pessoa conversasse com ele. Tiveram que <a href=\"https:\/\/www.theverge.com\/2016\/3\/24\/11297050\/tay-microsoft-chatbot-racist\" target=\"_blank\" rel=\"noopener nofollow\">cancelar o projeto<\/a> em menos de 24 horas porque internautas gentis ensinaram o bot a falar palavr\u00f5es e recitar Mein Kampf.<\/p>\n<p><a href=\"https:\/\/twitter.com\/geraldmellor\/status\/712880710328139776\" target=\"_blank\" rel=\"noopener nofollow\">https:\/\/twitter.com\/geraldmellor\/status\/712880710328139776<\/a><\/p>\n<p>Eis um exemplo de contamina\u00e7\u00e3o de dados de aprendizado de m\u00e1quina. Um modelo matem\u00e1tico de um laborat\u00f3rio de an\u00e1lise de v\u00edrus para computadores processa uma m\u00e9dia de 1 milh\u00e3o de arquivos por dia, tanto inofensivos quanto perigosos. O cen\u00e1rio de amea\u00e7as muda, ent\u00e3o as mudan\u00e7as no modelo s\u00e3o levadas aos produtos instalados no lado dos clientes na forma de atualiza\u00e7\u00f5es da base de dados de antiv\u00edrus.<\/p>\n<p>Um hacker pode criar arquivos maliciosos, muito similares aos inofensivos, e envi\u00e1-los ao laborat\u00f3rio. Essa a\u00e7\u00e3o gradualmente apaga a linha que divide os arquivos limpos dos perigosos, deteriorando o modelo e talvez acionando eventualmente um <a href=\"https:\/\/encyclopedia.kaspersky.com\/glossary\/false-positive\/?utm_source=kdaily&amp;utm_medium=blog&amp;utm_campaign=termin-explanation\" target=\"_blank\" rel=\"noopener\">falso positivo<\/a>.<\/p>\n<p>\u00c9 por isso que a Kaspersky Lab tem <a href=\"https:\/\/www.kaspersky.com.br\/blog\/multilayered-approach\/7165\/\" target=\"_blank\" rel=\"noopener\">um modelo de seguran\u00e7a multicamadas<\/a> e <a href=\"https:\/\/securelist.com\/five-myths-about-machine-learning-in-cybersecurity\/76351\/\" target=\"_blank\" rel=\"noopener\">n\u00e3o depende<\/a> exclusivamente de aprendizado de m\u00e1quina. Pessoas reais \u2013 especialistas em antiv\u00edrus \u2013 sempre monitoram o que a m\u00e1quina faz.<\/p>\n<h3>9. Trapa\u00e7a<\/h3>\n<p>Mesmo um modelo matem\u00e1tico que funciona perfeitamente \u2013 que depende de bons dados \u2013 pode ser alvo de trapa\u00e7a, se algu\u00e9m souber como funciona. Por exemplo, um grupo de pesquisadores descobriu como enganar um algoritmo de reconhecimento facial usando \u00f3culos especiais que introduziria distor\u00e7\u00f5es m\u00ednimas na imagem e ent\u00e3o alterar completamente o resultado.<\/p>\n<div id=\"attachment_11328\" style=\"width: 1034px\" class=\"wp-caption aligncenter\"><img decoding=\"async\" aria-describedby=\"caption-attachment-11328\" class=\"wp-image-11328 size-large\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/94\/2019\/02\/05163322\/machine-learning-challenges-fail-1-1024x614.png\" alt=\"Ao usarem \u00f3culos com aros especialmente coloridos, pesquisadores fizeram um algoritmo de reconhecimento facial pensar que eram outras pessoas\" width=\"1024\" height=\"614\"><p id=\"caption-attachment-11328\" class=\"wp-caption-text\">Ao usarem \u00f3culos com aros especialmente coloridos, pesquisadores fizeram um algoritmo de reconhecimento facial pensar que eram outras pessoas<\/p><\/div>\n<p>Mesmo em situa\u00e7\u00f5es que n\u00e3o parecem envolver qualquer coisa complicada, uma m\u00e1quina pode facilmente ser enganada com m\u00e9todos desconhecidos por leigos.<\/p>\n<div id=\"attachment_11329\" style=\"width: 859px\" class=\"wp-caption aligncenter\"><img decoding=\"async\" aria-describedby=\"caption-attachment-11329\" class=\"wp-image-11329 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/94\/2019\/02\/05163443\/machine-learning-challenges-fail-2.png\" alt=\"As primeiras tr\u00eas placas s\u00e3o reconhecidas como de limite de velocidade de 45 km\/h e a \u00faltima como uma placa de PARE\" width=\"849\" height=\"309\"><p id=\"caption-attachment-11329\" class=\"wp-caption-text\">As primeiras tr\u00eas placas s\u00e3o reconhecidas como de limite de velocidade de 45 km\/h e a \u00faltima como uma placa de PARE<\/p><\/div>\n<p>\u00a0<\/p>\n<p>Al\u00e9m disso, para destruir um modelo matem\u00e1tico de aprendizado de m\u00e1quina, as mudan\u00e7as n\u00e3o precisam ser significativas \u2013 <a href=\"https:\/\/www.kaspersky.com\/blog\/ai-fails\/18318\/\" target=\"_blank\" rel=\"noopener nofollow\">mudan\u00e7as m\u00ednimas, impercept\u00edveis <\/a>aos olhos humanos bastam.<\/p>\n<div id=\"attachment_11330\" style=\"width: 1034px\" class=\"wp-caption aligncenter\"><img decoding=\"async\" aria-describedby=\"caption-attachment-11330\" class=\"wp-image-11330 size-large\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/94\/2019\/02\/05163558\/machine-learning-challenges-fail-3-1024x333.png\" alt=\"Adicione um m\u00ednimo ru\u00eddo ao panda da esquerda, e pode acabar com um gib\u00e3o\" width=\"1024\" height=\"333\"><p id=\"caption-attachment-11330\" class=\"wp-caption-text\">Adicione um m\u00ednimo ru\u00eddo ao panda da esquerda, e pode acabar com um gib\u00e3o<\/p><\/div>\n<p>Enquanto a humanidade ainda for mais inteligente que a maioria dos algoritmos, humanos ser\u00e3o capazes de engan\u00e1-los. Imagine no futuro, um aprendizado de m\u00e1quina que analisa raios-X de bagagens nos aeroportos e procura por armas. Um terrorista esperto poder\u00e1 colocar um objeto de determinado formato ao lado de uma pistola e faz\u00ea-la desaparecer.<\/p>\n<h3>A quem culpar e o que fazer?<\/h3>\n<p>Em 2016, o Big Data Working Group (Grupo de Trabalho Big Data) da administra\u00e7\u00e3o Obama lan\u00e7ou <a href=\"https:\/\/obamawhitehouse.archives.gov\/sites\/default\/files\/microsites\/ostp\/2016_0504_data_discrimination.pdf\" target=\"_blank\" rel=\"noopener nofollow\">um relat\u00f3rio<\/a> que advertia sobre \u201ca capacidade de codificar discrimina\u00e7\u00f5es em decis\u00f5es autom\u00e1ticas\u201d. Tamb\u00e9m continha um apelo para a cria\u00e7\u00e3o de algoritmos que sigam princ\u00edpios de oportunidades iguais por design.<\/p>\n<p>Mais f\u00e1cil falar do que fazer.<\/p>\n<p>Primeiro, os modelos matem\u00e1ticos de aprendizado de m\u00e1quina s\u00e3o dif\u00edceis de testar e consertar. Avaliamos programas comuns passo-a-passo e sabemos como test\u00e1-los, mas com aprendizado de m\u00e1quina, tudo depende do tamanho da amostra de aprendizado, e n\u00e3o pode ser infinita.<\/p>\n<p>Por exemplo, o Google Photo costumava reconhecer e marcar pessoas de cor como gorilas. S\u00e9rio! Como pode imaginar, houve um esc\u00e2ndalo e o Google prometeu consertar o algoritmo. No entanto, depois de tr\u00eas anos, a empresa <a href=\"https:\/\/www.theverge.com\/2018\/1\/12\/16882408\/google-racist-gorillas-photo-recognition-algorithm-ai\" target=\"_blank\" rel=\"noopener nofollow\">falhou em inventar qualquer coisa melhor<\/a> do que proibir a marca\u00e7\u00e3o de quaisquer objetos em fotografias como gorilas, chimpanz\u00e9s ou macacos para evitar o mesmo erro.<\/p>\n<p>Segundo, \u00e9 dif\u00edcil entender e explicar as decis\u00f5es dos algoritmos de aprendizado de m\u00e1quina. Uma rede neural organiza coeficientes ponderados dentro de si mesmo para chegar a respostas corretas \u2013 mas como? E o que pode ser feito para mudar a resposta?<\/p>\n<p>Um estudo de 2015 mostrou que mulheres veem an\u00fancios do Google AdSense <a href=\"https:\/\/www.theguardian.com\/technology\/2015\/jul\/08\/women-less-likely-ads-high-paid-jobs-google-study\" target=\"_blank\" rel=\"noopener nofollow\">para empregos com altos sal\u00e1rios<\/a> muito menos frequentemente do que os homens. O servi\u00e7o de entrega no mesmo dia da Amazon est\u00e1 frequentemente <a href=\"https:\/\/www.geekwire.com\/2016\/amazon-same-day-delivery-black-neighborhoods\/\" target=\"_blank\" rel=\"noopener nofollow\">indispon\u00edvel em bairros afro-americanoss<\/a>. Em ambos os casos, os representantes das empresas n\u00e3o foram capazes de explicar essas decis\u00f5es, feitas por seus algoritmos.<\/p>\n<p>N\u00e3o \u00e9 poss\u00edvel culpar ningu\u00e9m, ent\u00e3o temos que adotar novas normas e postular condutas \u00e9ticas para rob\u00f3tica. Em maio de 2018, a Alemanha deu seu primeiro passo nessa dire\u00e7\u00e3o e lan\u00e7ou <a href=\"http:\/\/www.bmvi.de\/SharedDocs\/EN\/PressRelease\/2017\/128-dobrindt-federal-government-action-plan-automated-driving.html\" target=\"_blank\" rel=\"noopener nofollow\">regras \u00e9ticas para carros aut\u00f4nomos<\/a>. Dentre outras coisas, prev\u00ea o seguinte:<\/p>\n<ul>\n<li>Seguran\u00e7a humana \u00e9 a maior prioridade quando comparada com danos a animais ou propriedades.<\/li>\n<li>No caso de um acidente ser inevit\u00e1vel, n\u00e3o deve haver discrimina\u00e7\u00e3o; fatores distintivos s\u00e3o inadmiss\u00edveis.<\/li>\n<\/ul>\n<p>Mas o que \u00e9 especialmente importante para n\u00f3s \u00e9 que:<\/p>\n<ul>\n<li>Sistemas de ve\u00edculos aut\u00f4nomos v\u00e3o se tornar um imperativo \u00e9tico, se causarem menos acidentes do que motoristas humanos.<\/li>\n<\/ul>\n<p>Est\u00e1 claro que vamos depender cada vez mais do aprendizado de m\u00e1quina, simplesmente porque vai realizar melhor muitas tarefas do que pessoas s\u00e3o capazes. Ent\u00e3o \u00e9 importante ter em mente essas falhas e poss\u00edveis problemas, tentar antecipar todas as quest\u00f5es relacionadas no est\u00e1gio de desenvolvimento, e lembrar de monitorar a performance dos algoritmos no caso de algo dar errado.<br>\n<input type=\"hidden\" class=\"category_for_banner\" value=\"kis-cyberattacks\"><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Que surpresas o aprendizado de m\u00e1quina tem reservadas para n\u00f3s? Qu\u00e3o dif\u00edcil \u00e9 enganar uma m\u00e1quina? E vamos acabar com a Skynet e a ascens\u00e3o das m\u00e1quinas? <\/p>\n","protected":false},"author":669,"featured_media":11325,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[1029],"tags":[1382,1805,1274,1342,77,690],"class_list":{"0":"post-11324","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-technology","8":"tag-aprendizado-de-maquina","9":"tag-etica","10":"tag-humachine","11":"tag-ia","12":"tag-tecnologia","13":"tag-tecnologias"},"hreflang":[{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/machine-learning-nine-challenges\/11324\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/machine-learning-nine-challenges\/13976\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/machine-learning-nine-challenges\/11675\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/machine-learning-nine-challenges\/15974\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/machine-learning-nine-challenges\/13334\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/machine-learning-nine-challenges\/16771\/"},{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/machine-learning-nine-challenges\/16160\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/machine-learning-nine-challenges\/23553\/"},{"hreflang":"pl","url":"https:\/\/plblog.kaspersky.com\/machine-learning-nine-challenges\/9867\/"},{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/machine-learning-nine-challenges\/17511\/"},{"hreflang":"zh","url":"https:\/\/www.kaspersky.com.cn\/blog\/machine-learning-nine-challenges\/9912\/"},{"hreflang":"ja","url":"https:\/\/blog.kaspersky.co.jp\/machine-learning-nine-challenges\/21336\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/machine-learning-nine-challenges\/20846\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/machine-learning-nine-challenges\/20855\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.com.br\/blog\/tag\/tecnologia\/","name":"tecnologia"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/posts\/11324","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/users\/669"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/comments?post=11324"}],"version-history":[{"count":5,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/posts\/11324\/revisions"}],"predecessor-version":[{"id":17666,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/posts\/11324\/revisions\/17666"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/media\/11325"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/media?parent=11324"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/categories?post=11324"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.com.br\/blog\/wp-json\/wp\/v2\/tags?post=11324"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}