Inteligência Artificial é reprovada em testes no mundo real

Testar a inteligência artificial

Com as crescentes preocupações com os riscos da inteligência artificial, e com o fato de que as decisões da inteligência artificial nem sempre são inteligentes, pesquisadores decidiram que era hora de começar a simular as complexidades do mundo real nesses sistemas antes que eles sejam liberados para uso.

"Embora o aprendizado profundo tenha realmente sido muito bem-sucedido em obter desempenho de ponta em ambientes acadêmicos selecionados, ele ainda precisa ser testado na presença das complexidades do mundo real," disse Abhishek Gupta, do Instituto de Tecnologia da Manufatura de Cingapura.

E os resultados não foram nem um pouco entusiasmantes para a inteligência artificial: As simulações mostraram que mesmo pequenas alterações nos dados podem alterar totalmente os resultados, mostrando que o aprendizado profundo é na verdade um "aprendizado" pouco seletivo e relativo.

Pior do que isso, as simulações mostram que é muito fácil enganar esses sistemas de análise automatizada.

Inteligente e ingênua

O trabalho se concentrou no desempenho da inteligência artificial baseada em visão de máquina, a tecnologia que vem sendo usada nos carros sem motorista e em vigilância.

Usando seis videogames Atari, incluindo o clássico jogo Pong, os pesquisadores simularam perturbações visuais que podem acontecer no mundo real, devido a reflexos, por exemplo. E eles foram conservadores, alterando um pequeno número de píxeis em quadros selecionados no ambiente do jogo. A seguir, examinaram o desempenho do algoritmo no ambiente perturbado, medindo a "recompensa acumulada", um termômetro da qualidade das decisões de um algoritmo.

Surpreendentemente, o que se viu foi que uma alteração de um único píxel nas imagens de entrada foi suficiente para fazer com que a recompensa acumulada despencasse para todos os quatro algoritmos testados, incluindo algoritmos amplamente usados, como o Deep Q Networks.

Segundo a equipe, esses resultados indicam que, embora os modelos de aprendizado profundo prosperem em ambientes já testados e padronizados, eles estariam mal equipados para lidar com um ambiente altamente variável, como estradas e áreas densamente povoadas, potencialmente em detrimento da segurança.

"A maior parte do trabalho se concentrou em obter modelos de aprendizado profundo ou inteligência artificial altamente precisos," disse Gupta. "No entanto, essa vulnerabilidade precisa ser considerada antes que essas inteligências artificiais sejam colocadas em uso operacional, para garantir a integridade e a confiabilidade da sua implantação."

Entre em contato conosco

Whatsapp: (11) 99768.9392
Fixo: (11) 4701.4906

Nosso E-mail

atedimento@agenciafox.com.br

Atendemos pessoalmente

Marque uma reunião para podemos mostrar nossos serviços.