A Inteligência Artificial (IA) Generativa cresce exponencialmente, trazendo benefícios que vão da automatização de processos à geração de insights estratégicos. No entanto, essa expansão também amplia os desafios da segurança cibernética, tornando essencial a adoção de medidas preventivas.
Para se ter uma ideia, a Associação de Defesa de Dados Pessoais e do Consumidor (ADDP) aponta que os crimes cibernéticos aumentaram 45% no Brasil em 2024. Isso significa que uma em cada quatro pessoas são alvos de golpes. Hackers estão se adaptando e usando IA para criar ataques mais sofisticados e difíceis de identificar.
Um dos exemplos é o uso das deepfakes, técnica baseada em IA para criar imagens e áudios falsos que parecem reais. Segundo a Sumsub, plataforma de verificação de identidade, essa prática cresceu 830% no Brasil entre 2022 e 2023. Trata-se de uma tática para manipular informações, explorar a credibilidade de figuras públicas e induzir fraudes. Não à toa, as figuras de famosos e celebridades são muito utilizadas por criminosos nesta abordagem.
Os ataques de phishing também se tornaram mais sofisticados. A consultoria de cibersegurança Redbelt Security estima que mais de 3,5 milhões de brasileiros foram vítimas desses golpes em 2023. O crescimento de dispositivos conectados e da coleta constante de dados sensíveis precisam, mais do que nunca, de uma proteção digital reforçada.
Fortalecendo a segurança digital
Diante dessas ameaças, empresas e usuários precisam reforçar suas estratégias de defesa. O setor de tecnologia tem um papel fundamental na proteção de plataformas e serviços de IA Generativa, garantindo que novas soluções não se tornem ferramentas para ataques cibernéticos. Além do desenvolvimento de tecnologias mais seguras, a educação digital é essencial.
A falta de conscientização sobre práticas básicas de segurança amplia as vulnerabilidades e compromete a confiança na inovação.
Enfatizar a importância de se preocupar com a privacidade, segurança e veracidade das informações nunca é demais.
A falta de conscientização e de práticas adequadas sobre tópicos ligados à cibersegurança não só eleva vulnerabilidades digitais, como também trava o desenvolvimento da IA como uma ferramenta de inovação, que precisa ser uma aliada dos seres humanos na sociedade e no mercado.

Só com esse olhar proativo sobre a educação digital é que a população estará ciente de assuntos que parecem básicos, mas não são. Um grande exemplo disso é o conhecimento completo dos dados pessoais que estão compartilhando.
Parece “chover no molhado” dizer que não é recomendável abrir informações sensíveis em sites ou formulários suspeitos, ou que a gente precisa usar senhas fortes e diferentes para cada serviço on-line, mas definitivamente essa é uma tecla que deve ser batida constantemente.
Leia mais:
Podemos citar a importância de utilizar fontes confiáveis e reconhecidas no momento de se informar, como portais de notícias estabelecidos e organizações respeitáveis. Principalmente quando entramos no mérito das deepfakes, procurar evidências que corroborem um determinado assunto em mais de um canal e comparar conteúdos não é perda de tempo, mas sim uma forma de certificar que se trata de algo real. Cada vez mais, precisaremos desenvolver um “ceticismo crítico” a respeito das notícias, imagens e vídeos que vemos em aplicativos de mensagens e redes sociais.

É com esses passos mais “simples” de engenharia social que outras defesas podem ser adotadas. Medidas de proteção como anonimização e criptografia, por exemplo, são ótimas provas de como reduzir riscos e complementar as barreiras contra cibercriminosos.
Lembre-se: a evolução da IA é irreversível. Portanto, sua segurança deve acompanhar esse ritmo. Todos precisam assumir um compromisso contínuo com essa missão e abraçar uma mudança cultural que valoriza o pensamento crítico. Somente assim vamos caminhar para um futuro verdadeiramente inovador.
Fonte: Olhar Digital