domingo, 27 de novembro de 2016

Inteligência artificial pode trazer novas ameaças para a cibersegurança

Máquinas versus máquinas podem ser o futuro da cibersegurança, dizem especialistas

Pode levar vários anos ou até mesmo décadas, mas hackers não serão sempre humanos. A Inteligência artificial, tecnologia que também promete revolucionar a cibersegurança, poderia um dia se tornar uma ferramenta para hacking. 
Organizadores do Cyber Grand Challange, uma competição patrocinada pela agência de defesa dos Estados Unidos, deram uma ideia do poder da IA durante o evento realizado em agosto. Sete supercomputadores competiram entre si para mostrar como máquinas conseguem de fato encontrar e reparar vulnerabilidades de software. 
Teoricamente, a tecnologia consegue ser usada para aperfeiçoar qualquer código, livrando de falhas que podem ser exploradas. Mas e se todo esse poder puder ser usado para propósitos maliciosos? O futuro da cibersegurança pode também pavimentar um caminho para uma nova era de ciberameaças. 
Os possíveis perigos
Por exemplo, cibercriminosos podem usar essas capacidades para escanear um software para prever vulnerabilidades desconhecidas e então explorá-las por “vontade” própria. Entretanto, diferente de um humano, uma Inteligência da Artificial pode fazer isso com eficiência de máquina, claro.  
Hacks que consomem tempo para serem desenvolvidos podem se tornar commodities baratas nesse cenário catastrófico.
É um risco que especialistas em cibersegurança já reconhecem, em uma época quando a indústria de tecnologia já está desenvolvendo carros autônomos, mais que robôs avançados e outras formas de automação. “Tecnologia sempre é assustadora”, disse David Melski, vice-presidente de pesquisa para a GrammaTech.
A companhia de Melski estava entre as empresas que construíram um supercomputador para participar no Cyber Grand Challenge. Sua empresa agora está considerando usar essa tecnologia para ajudar vendedores a prevenirem falhas em seus dispositivos de Internet das Coisas ou tornar browsers mais seguros.
“Entretanto, descobrir vulnerabilidades é uma faca de dois gumes”, ele disse. “Nós também estamos aumentando a automação de tudo”. 
Então não é difícil para especialistas em segurança imaginarem um potencial lado obscuro - um onde inteligências artificiais conseguem construir e controlar ciberarmas poderosas. Melski apontou o caso do Stuxnet, um worm malicioso desenhado para invadir um programa nuclear iraniano. 
“Quando você pensa em algo como o Stuxnet sendo automatizado, isso é alarmante”, disse. 
Destacando o potencial
“Eu não quero dar ideias a ninguém”, disse Tomer Weingarten, CEO da empresa de segurança SentinelOne. Mas tecnologias direcionadas pela IA e que se rastejam pela internet, buscando vulnerabilidades, podem estar entre as futuras realidades, disse.
Entretanto, companhias de tecnologia ainda não criaram uma inteligência artificial de verdade. A indústria, ao invés disso, desenvolveu tecnologias que conseguem jogar games melhor que humanos, atuar como assistentes digitais ou mesmo diagnosticar doenças raras. 
Empresas de cibersegurança como a chamada Cylance também tem usado uma espécie de inteligência artificial para impedir malware. Isso envolveu construção de modelos matemáticos baseados em amostras de malware que conseguem medir se certa atividade em um computador é normal ou não.  
“No final, você acaba com uma probabilidade estatística que diz se um arquivo é bom ou ruim”, disse Jon Miller, chefe de pesquisa na empresa de segurança. Mais de 99% das vezes  o aprendizado de máquina aprende a detectar o malware. 
“Nós estamos continuamente acrescentando novos dados (amostras de malware) dentro do modelo”, disse Miller. “Quanto mais dados você tiver, mais acurado você poderá ser”.
Escalação
A desvantagem é que usar aprendizado de máquina pode ser caro. “Nós gastamos mais de um milhão de dólares por mês em modelos computacionais”, disse. O dinheiro é gasto em serviços para nuvem para rodar os modelos. 
Qualquer pessoa que usa tecnologias de IA para fins maliciosos pode encarar a mesma barreira para entrada. Além disso, elas também precisarão assegurar talentos para desenvolver a programação. Mas com o tempo, os custos de poder computacional vão cair inevitavelmente, disse Miller. 
Ainda assim, o dia quando hackers recorrerem ao uso de IA pode estar longe. “Por que isso ainda não foi feito? Por que não é necessário”, ele diz. “Se você quiser hackear alguém, já há falhas o suficiente conhecidas”. 
Atualmente, muitos hacks acontecem depois de um e-mail com phishing contendo malware é aberto pelo alvo. Em outras instâncias, vítimas colocam senhas fracas ou esquecem de atualizar seu software com o último patch, tornando-se alvos fáceis. 
Tecnologias como aprendizado de máquina têm mostrado o potencial para resolver alguns desses problemas, pontuou Justin Fier, diretor de ciberinteligência em segurança na Darktrace. Mas pode ser só uma questão de tempo antes que hackers eventualmente atualizem o seu arsenal. 




Nenhum comentário:

Postar um comentário