Hackers iranianos alegam ter derrubado energia em Israel
Ransomware atinge empresa de logística no Brasil
USP, UFRJ e UFMG sob ataque de negação de serviço
Pane de rede retardou produção na Volkswagen
Site da Prefeitura de Suzano (SP) está fora do ar
DDoS atinge subdomínio da NASA

Assine nossa newsletter Premium e ganhe acesso ao grupo de WhatsApp In_Cyber.
Conheça também a versão Básica

Ferramentas de I.A. precisam ter cibersegurança

Share on linkedin
Share on twitter
Share on facebook

A Inteligência Artificial não é apenas um assunto em alta, mas sim uma realidade. De acordo com uma pesquisa da Accenture, 73% das empresas em todo o mundo passaram a ver o tema como uma prioridade nos investimentos. Nesse cenário, diversas organizações estão, inclusive, criando suas próprias IAs, como a AI Google e o próprio ChatGPT, da OpenAI.

Apesar de ser o foco de diversas companhias, de acordo com Julio Cesar Fort, Sócio e Diretor de Serviços Profissionais da Blaze Information Security, uma das principais empresas globais especializadas em segurança ofensiva com foco em pentest e desenvolvimento seguro contra ataques cibernéticos, são necessárias algumas medidas de segurança para que a tecnologia atue como aliada da empresa. Nesse sentido, o especialista explica quais são os caminhos que devem ser seguidos para tornar essas ferramentas seguras e cada vez mais livres de ataques hackers. 

“Desenvolver e usar IA traz desafios de privacidade, já que muitas vezes requer vastas quantidades de dados, podendo haver riscos de coleta excessiva, perpetuação de vieses ou até reidentificação de pessoas a partir de dados anônimos. Além disso, com a IA agindo como uma caixa-preta, fica complicado para as pessoas entenderem como seus dados são usados”, explica Fort.

Para lidar com isso, de acordo com o especialista, as empresas podem adotar o princípio de coletar apenas dados essenciais, usar técnicas que garantam privacidade durante o treinamento da IA, como a aprendizagem diferencial, e tornar os processos mais transparentes. “Auditorias regulares e capacitação da equipe são cruciais, nesse cenário, para garantir que a privacidade e a proteção de dados sejam respeitadas”, completa.

O uso de uma defesa em camadas, que considera proteção, tanto no nível da infraestrutura quanto da aplicação, garantir a segurança dos dados usados no treinamento dos modelos, além de testar os modelos em diversos cenários para assegurar que eles se comportem como esperado, também devem fazer parte das medidas de segurança.

“Técnicas de defesa contra ataques adversários, como o re-treinamento adversarial, podem ser úteis, assim como o monitoramento em tempo real dos sistemas para detectar comportamentos anômalos. Manter os sistemas atualizados com os patches de segurança mais recentes e garantir controles de acesso rigorosos são outras medidas-chave. Além disso, a resposta a incidentes representa um dos pilares da segurança e demanda sistemas robustos”, completa.

Por fim, a transparência também ajuda na otimização técnica e na construção da confiança do público. “Quando as decisões de um sistema são transparentes, é mais fácil identificar e corrigir erros, falhas ou vieses. Além disso, quando as pessoas entendem como uma IA chega a uma conclusão, elas tendem a confiar mais na tecnologia, o que a torna mais aceitável e facilita a identificação de potenciais ameaças ou abusos”, explica.

Investimentos em IA e em cibersegurança caminham juntos

Se a Inteligência Artificial tem sido foco dos investimentos dentro das empresas, outra preocupação que não fica muito atrás certamente é a cibersegurança. De acordo com o “Worldwide Security Spending Guide” da IDC, é esperado que o investimento em hardware, software e serviços relacionados ao setor de segurança cibernética atinja quase 300 mil milhões de dólares até 2026.

Para Fort, esses são investimentos complementares, pois é fundamental investir em cibersegurança caso a empresa esteja direcionando gastos à criação e uso de uma IA. “Ataques adversariais, em que pequenas alterações nos dados de entrada podem enganar e fazer com que o sistema tome decisões errôneas e o prompt injection, uma técnica de ataque na qual um invasor insere ou “injeta” entrada maliciosa em um prompt, com a intenção de enganar ou manipular um sistema para obter um resultado desejado, muito comum no início do Chat GPT, são apenas algumas vulnerabilidades e riscos de segurança associados ao uso de IA”, alerta o especialista da Blaze Information Security.

Para além desses riscos, de acordo com o especialista, quando um modelo de IA é excessivamente treinado em um conjunto específico de dados, ele pode não se comportar bem quando exposto a situações diferentes, um fenômeno conhecido como sobreajuste. 

“Preocupações com viés e discriminação e riscos à privacidade da companhia também merecem atenção. As ameaças cibernéticas estão em constante evolução e representam riscos significativos, de diferentes formas”, ressalta Fort. “Hoje em dia, com tudo conectado e dependendo do uso de tecnologias e internet, investir em cibersegurança é imprescindível, não se trata de apenas uma medida de precaução, mas uma necessidade crítica para enfrentar os desafios da era digital”, finaliza.