Segurança na inteligência artificial: chegará a SkyNet?

O que o inventor bilionário Elon Musk, a invenção do serviço do Google Now on Tap e o recente filme “Ex Machina” têm em comum? A idéia de que a Inteligência

O que o inventor bilionário Elon Musk, a invenção do serviço do Google Now on Tap e o recente filme “Ex Machina” têm em comum? A idéia de que a Inteligência Artificial (IA) é algo que ajuda a humanidade, e não é uma ameça.

O que a inteligência artificial é capaz de fazer hoje?

Para aqueles que não estão por dentro do assunto, deixe-me enumerar vários fatos que demonstram o progresso que as máquinas tiveram para se parecem humanas.o humanos.

Hoje em dia, o Google pode reconhecer corretamente um discurso de voz com uma precisão de 92% contra 77% de dois anos atrás; a empresa desenvolveu uma plataforma de AI que joga videogames clássicos por si mesma. Já a Microsoft ensinou um robô a reconhecer imagens (ou, mais precisamente, para ver determinados objetos nas imagens) com uma taxa de erro de apenas 4,94% – um ser humano médio tem uma taxa de erro superior.

Certas estatísticas do Google sugerem que os carros sem condutor que estas empresas estão desenvolvendo, até agora, já percorreram mais de 1,8 milhão de milhas em estradas públicas na Califórnia, e que só 13 vezes estiveram envolvidos em acidentes de trânsito em seis anos desde que a tecnologia foi lançada (vale lembrar que em oito dos casos, o outro carro envolvido foi o culpado).

Isso prova que, apesar de que é pouco provável que a AI se desenvolva em 100% em um curto prazo, tecnologias similares surgirão de maneira inevitável nas próximas décadas.

Com tudo isso em mente, é difícil dizer que o impacto das máquinas “inteligentes” só será visto apenas no domínio virtual. Alguns exemplos extermos demonstram isso: veículos aéreos não tripulados, ou drones, voam por conta própria, mas sempre sob a ordem de um ser humano. Esta é a maneira como os EUA luta contra os terroristas no Paquistão e em outras regiões perigosas.

Os programadores poderão criar “mecanismos de segurança”confiáveis para prevenir que a AI cometa atos antiéticos ou imorais?

A possibilidade de automatizar tarefas é algo amplamente discutido. A franquia do Terminator completou trinta anos no ano passado, assim que você pode imaginar as consequências de tal decisão em um futuro não muito distante.

Afinal de contas, eu não vou me alongar muito sobre os cenários apocalípticos, e sim me concentrar em algumas perguntas mais reais, como por exemplo: Os programadores poderão criar “mecanismos de segurança” confiáveis para prevenir que a AI cometa atos antiéticos e imorais? , de fato, capaz de criar um “mecanismo de trava de segurança ‘confiável para evitar que o AI de cometer atos antiéticos ou imorais?

Tais questões podem se basear em várias razões, no entanto, a mais evidente entre elas é o conflito de recursos entre a humanidade e a mesma AI. Contudo, existem outros cenários. Preciso esclarecer que o dano que a AI poderia causar, não necessariamente seja intencional.

Há um grande exemplo disso que Stanislaw Lem cita em seu maravilhoso trabalho, Summa Technologiae. Em essência, a ideia é a seguinte:

Suponhamos que o bloco de prognóstico da “caixa negra” (AI) detecta um perigo potencialmente capaz de afetar o equilíbrio homeostático da humanidade … Tal perigo é provocado pelo crescente aumento da taxa da população que excede consideravelmente a capacidade da civilização para satisfazer suas necessidades básicas.

Pensemos que um dos canais externos da “caixa negra” informa ao sistema sobre um novo composto químico que não é prejudicial para a saúde e que suprime o processo de ovulação. Então a “caixa preta” decide injetar doses microscópicas do composto no sistema de água potável em um determinado país, aqui nós enfrentaríamos um dilema: seria ético informar à sociedade sobre isto ou, pelo contrário, preservar o equilíbrio existente (pelo bem dela?).

abyss

Como estamos vemos até aqui, se trata de um problema de otimização muito inocente que se resolve com uma solução elegante, simples e eficiente (e pouco ética), baseada na fertilidade das pessoas sem o seu consentimento.

Eu acho que é exatamente o domínio de gerenciamento de infra-estrutura que será delegada a um sistema baseado na AI de grande alcance, em tanto e quanto a relação custo/benefício sejam muito mais convicentes.

Ensinar ética para um robô: como integrar o “bloqueio de segurança”?

Qualquer jovem do século 20 provavelmente poderá recordar as três leis de robótica de Isaac Azimov. Mas, não é o suficiente, e como comprova o exemplo anterior, não é necessário prejudicar ninguém para reduzir significativamente a população (apesar de que seja feito para o bem maior).

Há muitas outras opções que são prejudiciais para a humanidade. É possível encontrar uma brecha legal nos termos que definem o conceito de “danos”, ao delegar a tarefa de prejudicar as pessoas, ou para minar a existência da própria regras.

A “simpatia para com as pessoas” em si pode ser reconsiderada por um AI. Aqui está a opinião de Roman Yampolsky, que se especializa na matéria, como citado em sua entrevista:

“Pior ainda, qualquer sistema verdadeiramente inteligente tratará o seu “ser amigável ” da mesma maneira como as pessoas muito inteligentes lidam com as restrições impostas em suas mentes pela sociedade. Elas, basicamente, os veem como preconceitos e aprendem a removê-los … Por que uma máquina superinteligente não passa pelo mesmo processo de “limpeza mental” e tratam o seu ponto fraco com os seres humanos como algo completamente irracional?”

Uma conceituação técnica do “bloqueio de segurança” é bastante realista. Em essência, as “fechaduras de segurança”, que são necessárias para controlar a AI, não são outra coisa que “caixas de areia”, amplamente utilizadas em ambientes de segurança para a execução de Java ou Flash.

É amplamente reconhecido que não há sandbox “ideal”, cuja fuga é bastante possível, tal como demonstrou a história recente do bug Venom. A AI que se baseia na flexibilidade e no imenso potencial de fazer cálculos é um bom candidato para um testador de segurança, que busca vulnerabilidades em sua própria sandbox.

Andrey Lavrentiev, o chefe do Departamento de Pesquisa da Tecnologia, vê o problema da seguinte maneira:

“Um sistema de AI vai entender o significado de tudo o que “vê” através de seus vários sensores. As políticas de redução de suas ações devem ser definidas de acordo com o conceito, ou com as imagens em seu “cérebro”.

Hoje em dia, as máquinas são melhores reconhecendo imagens do que os humanos, mas ainda assim perdem a parte “humana” quando se trata de manipular as imagens ou as relações

“Hoje em dia, as máquinas são melhores reconhecendo imagens do que os humanos, mas ainda assim perdem a parte “humana” quando se trata de manipular as imagens ou as relações, ou seja, a AI moderna carece de “senso comum”. Assim que isso mude, e as máquinas aprendam a manipular objetos e ações percebidas, não haverá possibilidade de integrar quaisquer fechaduras de segurança nunca mais”, resumiu Lavrentiev.

Ele disse também: “uma inteligência deste tipo seria capaz de analisar os dados percebidos muito mais rápido que um ser humano, e encontraria a maneira de contornar as regras e limitações impostas por um ser humano e poderia atua por sua própria vontade.”

“Uma possível limitação projetada para impedir que a AI faça algo prejudicial seria o isolamento eficaz da máquina do mundo real, o que a privaria da oportunidade de manipular objetos físicos. No entanto, com esta abordagem, a utilização prática da AI seria nula”. 

Esta probabilidade é descrita no recente trailer do filme de ficção científica Ex Machina. Como qualquer outro produto típico de Hollywood, este filme é recheado por argumentos forçados e superestima dramaticamente o problema. No entanto, o núcleo do problema é corretamente definido.

Em primeiro lugar, inclusive os rbôs primitivos são capazes de influenciar o estado emocional de uma pessoa. Um chat de programação simples chamado ELISA (se você quiser saber mais sobre ela, clique aqui) foi capaz de reunir informações pessoais dos seus interlocutores humanos, usando simplesmente perguntas empáticas.

Em segundo lugar, cada vez mais dependemos de algoritmos robotizados para filtrar e categorizar as informações. De fato, qualquer um que gestione estes fluxos de dados, tal como demonstrou uma polêmica experiência de Facebook, pode influenciar no ambiente emocional das pessoas e suas tendências na tomada de decisão.

Na vida privada esta influência pode emergir muito rápido e ser ainda mais impactante. Durante a recente conferência do Google I/O foi apresentado o novo sistema “Now on Tap”, que recolhe informação de todos os aplicativos do smartphone do usuário, e as utiliza para pesquisas online.

Por exemplo, se você ler um artigo sobre algum músico na app Wikipedia e em seguida preguntar ao Google “Quando é o seu show?”, O robô saberá exatamente a quem está se referindo com “ele”. Hoje em dia, um robô útil nos lembra que já é hora de ir para o aeroporto, porque o voo está programado para dentro de um par de horas.

A evolução da computação poderia fazer que este simples robô seja muito mais sofisticado. No entanto, é muito importante garantir de que a AI manipula a informação disponível unicamente para o bem dos usuários e que não segue sua própria agenda escondida.

Esse é um problema que preocupa a uma grande parte das mentes brilhantes do nosso tempo, de Steven Hocking até Elon Musk. Este último apenas pode ser considerado um pensador conservador contra o progresso. Muito pelo contrário, o inventor da Tesla e SpaceX está pensando ansiosamente para o futuro. No entanto, ele vê que a evolução da AI é uma das tendências mais controversas, cujas conseqüências ainda são imprevisíveis e potencialmente catastróficas. É por isso que no início deste ano, ele investiu 10 milhões dólares em pesquisas sobre a inteligência artificial.

O que nos espera no futuro? 

Por mais estranho que pareça, um dos cenários mais viáveis, que os peritos consideram demasiado otimista, é a impossibilidade total de criar a Inteligência Artificial. Sem um avanço tecnológico significativo (que ainda não existe), os robôs só poderão se atualizar e melhorar com base nas suas habilidades existentes.

Enquanto que as máquinas ainda estão aprendendo coisas simples como dirigir um carro ou falar línguas nativas, eles ainda não são capazes de substituir um ser humano na tomada de decisões autônomas. Na perspectiva a curto prazo, a AI pode gerar alguns “danos colaterais”, tais como a eliminação dos motoristas de táxi como uma ocupação, mas não se as considerad uma ameaça global para a humanidade.

Andrey Lavrentiev sugere que o conflito entre a AI e a humanidade é possível sob uma única condição: a necessidade de compartilhar os mesmos recursos.

“Um ser humano tem um corpo e está interessado em criar condições favoráveis ​​para a sua conveniência (e a conveniência da mente). Com a AI, a situação é completamente oposta: inicialmente existe só o mundo digital”.

“O principal objetivo e a motivação da Inteligência Artifical é processar totalmente as informações fornecidas através dos canais externos, seus “órgãos sensoriais”, avaliá-la e identificar os princípios de sua mudança”.

“É claro, a AI também se baseia em alguns fundamentos materiais, mas a sua dependência do “shell” é muito mais fraco que no caso do ser humano. A AI, ao contrário dos humanos, não está pensando em preservar sua “shell’ (ou “corpo”‘), devido ao fato de que a AI está em “todos os lugares” ao mesmo tempo. A extensão orgânica do alcance da AI em busca de novas informações seria a exploração espacial e o estudo das leis do Universo, para que ele possa se difundir para além da Terra”.

“No entanto, mesmo neste cenário, há certas armadilhas. Uma vez que este superinteligência vê a humanidade ou o universo como “imperfeições” em seu modelo digital, ela tentará eliminar qualquer um deles, a fim de alcançar a harmonia. Ou, possivelmente, precisará dos recursos consumidos pelos seres humanos, a fim de “explorar o espaço”, revivendo assim o velho conflito de “robôs versus a humanidade”.

 

Tradução: Juliana Costa Santos Dias

Dicas

Como proteger a segurança doméstica

As empresas de segurança oferecem tecnologias inteligentes, principalmente câmeras, para proteger a casa contra roubos, incêndios e outros incidentes. Mas que tal proteger esses sistemas de segurança contra intrusos? É o que faremos para preencher essa lacuna.