A inteligência artificial é vulnerável a hackers?
Inverta sua pergunta por um momento e pense:
O que tornaria a IA menos vulnerável a hackers em comparação com qualquer outro tipo de software?
No final do dia, software é software e sempre haverá bugs e problemas de segurança. As IAs estão em risco para todos os problemas que os softwares que não são de IA estão em risco, sendo que a AI não concede algum tipo de imunidade.
Quanto à adulteração específica da IA, a AI corre o risco de receber informações falsas. Diferentemente da maioria dos programas, a funcionalidade da IA é determinada pelos dados que consome.
Para um exemplo do mundo real, há alguns anos a Microsoft criou um chatbot de IA chamado Tay. O povo do Twitter levou menos de 24 horas para ensiná-lo a dizer "Vamos construir um muro, e o México vai pagar por isso":
(Imagem retirada do artigo da Verge no link abaixo, não reivindico crédito por isso.)
E isso é apenas a ponta do iceberg.
Alguns artigos sobre Tay:
Agora imagine que não era um robô de bate-papo, imagine que era uma peça importante da IA de um futuro em que a IA é responsável por coisas como não matar os ocupantes de um carro (ou seja, um carro autônomo) ou não matar um paciente a mesa cirúrgica (ou seja, algum tipo de equipamento de assistência médica).
Concedido, seria de esperar que essas IAs estivessem mais protegidas contra essas ameaças, mas supondo que alguém encontrasse uma maneira de alimentar uma quantidade tão grande de informações falsas, sem ser notado (afinal, os melhores hackers não deixam rastro), o que realmente poderia significar a diferença entre vida e morte.
Usando o exemplo de um carro autônomo, imagine se dados falsos poderiam fazer com que o carro pensasse que era necessário fazer uma parada de emergência quando estava em uma rodovia. Uma das aplicações para a IA médica é a decisão de vida ou morte no pronto-socorro, imagine se um hacker pudesse mudar a balança em favor da decisão errada.
Como podemos evitar isso?
Em última análise, a escala do risco depende de quão humanos dependentes se tornam na IA. Por exemplo, se os humanos aceitassem o julgamento de uma IA e nunca o questionassem, estariam se abrindo a todo tipo de manipulação. No entanto, se eles usarem a análise da IA como apenas uma parte do quebra-cabeça, seria mais fácil identificar quando uma IA está errada, seja por meios acidentais ou maliciosos.
No caso de um tomador de decisões médicas, não basta acreditar na IA, realizar testes físicos e obter algumas opiniões humanas também. Se dois médicos discordarem da IA, descarte o diagnóstico da IA.
No caso de um carro, uma possibilidade é ter vários sistemas redundantes que devem essencialmente "votar" sobre o que fazer. Se um carro tivesse várias IAs em sistemas separados que precisassem votar sobre qual ação tomar, um hacker precisaria executar mais do que apenas uma AI para obter o controle ou causar um impasse. É importante ressaltar que, se as IAs funcionassem em sistemas diferentes, a mesma exploração usada em um não poderia ser feita em outro, aumentando ainda mais a carga de trabalho do hacker.