Últimas notícias

Fique informado

IA impulsionará deepfake e envenenamento de dados em 2024, prevê Lumu

15 de janeiro de 2024

Spotlight

Doc9 lança Guia Prático de Prompts para ChatGPT no Jurídico: Como Maximizar a Eficiência com a Inteligência Artificial

Para obter os melhores resultados com o ChatGPT no contexto jurídico, siga as dicas importantes do Guia Prático de Prompts da doc9.

28 de maio de 2024

Governo Federal apoia Rio Grande do Sul na emissão 2ª via da Carteira de Identidade Nacional

O mutirão coordenado pelo Governo do RS começou nos abrigos de Porto Alegre. Expedição da segunda via será imediata

20 de maio de 2024

Técnicas de deepfake em atividades fraudulentas, especialmente no setor bancário e financeiro, devem ter um aumento significativa

O mercado de cibersegurança verá a Inteligência Artificial (IA) exercer um papel determinante em 2024, tanto no aperfeiçoamento de atividades criminosas quanto no estabelecimento de respostas mais resilientes, sustentáveis e simples contra ameaças complexas. A previsão é dos especialistas da Lumu Technologies, empresa de cibersegurança criadora do modelo Continuous Compromise Assessment™, que destacam as fraudes com uso de deepfake e os ataques de envenenamento de dados entre as principais ameaças impulsionadas pela IA.

De acordo com a análise, a automação será fundamental para que as organizações implementem defesas eficazes, de modo a evitar períodos de inatividade e recuperar operações rapidamente. Consequentemente, os CISOs poderão defender orçamentos baseados no impacto estratégico e no retorno sobre o investimento.

À medida que entramos em uma era de tecnologias impulsionadas por IA cada vez mais maduras, os líderes de segurança se livrarão de interfaces e painéis complexos e optarão por soluções que realmente os ajudem a tomar decisões informadas nos momentos mais críticos“, observa Germán Patiño, vice-presidente de vendas para a América Latina da Lumu Technologies.

Veja a seguir as principais projeções feitas pela empresa para os próximos meses:

Aumento de golpes com deepfake – Técnicas de deepfake em atividades fraudulentas, especialmente no setor bancário e financeiro, devem ter um aumento significativo, podendo substituir os vetores de ataque tradicionais de engenharia social. O uso de modelos avançados de aprendizagem de máquina, como o Large Language Model (LLM), e a proliferação de ferramentas e técnicas amigáveis elevarão a sofisticação do phishing, tornando cada vez mais desafiador distinguir entre serviços legítimos e golpes.

Ataques de envenenamento de dados – Empresas sofrerão cada vez mais com esse tipo de ataque, em que os criminosos contaminam os dados usados em modelos de aprendizagem de máquina para manipular algoritmos de IA usados para detectar fraudes e outras irregularidades. “Instituições financeiras precisarão aprimorar suas capacidades para validar a integridade dos conjuntos de dados usados para treinar suas ferramentas de IA, protegendo-se assim contra processos de tomada de decisão comprometidos”, recomenda Patiño.
 

Zero Trust aperfeiçoado por IA – A Inteligência Artificial terá um papel fundamental no aprimoramento do Zero Trust. Embora promova uma segmentação rigorosa da rede para minimizar o acesso não autorizado e o movimento lateral, o Zero Trust tem o desafio de gerenciar e monitorar essas entidades segmentadas de forma eficaz. Ao analisar grandes volumes de dados, a IA permite às equipes de segurança detectar comportamentos anômalos e possíveis violações com mais precisão.
 

Consolidação da autenticação sem senha – Haverá um movimento significativo para a adoção de modelos baseados em arquiteturas sem senha como método de autenticação principal no combate ao phishing. “Essa mudança disruptiva nos modelos tradicionais também provocará uma mudança no foco dos criminosos, que buscarão cada vez mais obter variáveis complexas do ambiente do dispositivo para contornar novos métodos de autenticação”, alerta o executivo da Lumu.
 

– Redução da curva de aprendizado – A IA capacitará os analistas de cibersegurança, automatizando tarefas rotineiras e permitindo que talentos de nível inicial operem em um nível especializado. Isso reduzirá a tradicional curva de aprendizado íngreme da cibersegurança, aliviando a escassez de talentos.
 

Governos mais atentos ao ransomware – Os ataques de ransomware a infraestruturas críticas serão uma preocupação principal nas políticas de estado, principalmente das superpotências ocidentais. As lições aprendidas com o episódio da botnet Qakbot em 2023 serão fundamentais para aprimorar as operações de defesa e ampliá-las em escala global.
 

Redes de IoT e OT cada vez mais emaranhadas – Os ativos de Internet das Coisas (IoT) e de Tecnologia Operacional (OT) são um ponto de entrada vulnerável para os invasores. Em resposta, muitos fornecedores projetam soluções para redes de IoT isoladas, porém será cada vez mais difícil segmentar ou isolar esses ativos, pois eles estão cada vez mais emaranhados com as redes em nuvem. “Criar uma visibilidade unificada em todos os ativos e redes dispersas é a solução ideal para este problema”, pontua Patiño.
 

MDRs sob ataque – Fornecedores de Detecção e Resposta Gerenciada (MDR) serão alvos cada vez mais prováveis de ataques sofisticados a cadeias de suprimentos. Incidentes recentes mostram que os atacantes estão explorando relacionamentos de confiança para acessar uma rede mais ampla de vítimas.

Ao analisarmos essas tendências, vislumbramos uma evolução em direção a práticas de cibersegurança mais inteligentes, sustentáveis e resilientes. A adoção proativa de Inteligência Artificial e a simplificação de sistemas complexos formam a base de estratégias mais robustas que garantem que as defesas não apenas respondam em tempo real, mas também se adaptem continuamente, aprendendo com cada interação para fortalecer a segurança das organizações em 2024 e nos próximos anos“, conclui Patiño.

Sobre a Lumu Technologies

Com sede em Miami, Flórida, a Lumu é uma empresa de cibersegurança focada em ajudar organizações empresariais a identificar ameaças e isolar instâncias confirmadas de comprometimento. Ao implementar os princípios do Continuous Compromise Assessment™, a Lumu criou uma poderosa solução de feedback e autoaprendizagem que ajuda as equipes de segurança a acelerar a detecção de comprometimentos confirmados, obter visibilidade em tempo real em sua infraestrutura e fechar a lacuna na detecção de falhas de segurança de meses para minutos.

NAAT TECH protege la identidad digital contra el fraude, deepfake y digital injection

Fornecedor de segurança alerta para riscos do uso de voz por deepfake

Deepfakes de voz em alta. Como a biometria pode ajudar a resolver isso?

Cadastre-se para receber o IDNews e acompanhe o melhor conteúdo do Brasil sobre Identificação Digital! Aqui!

TAGS

deepfake