Últimas notícias

Fique informado

ChatGPT pode hackear o cérebro humano?

14 de fevereiro de 2023

Spotlight

Doc9 lança Guia Prático de Prompts para ChatGPT no Jurídico: Como Maximizar a Eficiência com a Inteligência Artificial

Para obter os melhores resultados com o ChatGPT no contexto jurídico, siga as dicas importantes do Guia Prático de Prompts da doc9.

28 de maio de 2024

Governo Federal apoia Rio Grande do Sul na emissão 2ª via da Carteira de Identidade Nacional

O mutirão coordenado pelo Governo do RS começou nos abrigos de Porto Alegre. Expedição da segunda via será imediata

20 de maio de 2024

Shows e eventos esportivos: saiba como não cair em golpes ao comprar ingressos 

Nos últimos dias, golpistas aproveitaram Grand Prix de São Paulo, da Fórmula 1, para atrair vítimas com falsas ofertas de ingressos

30 de novembro de 2022

Combate a fraudes: 5 estratégias para o e-commerce gerar autoridade e segurança

Diante deste cenário, os consumidores se tornaram cada vez mais atentos a aspectos relacionados à confiabilidade do e-commerce

23 de novembro de 2022

Cuidado com os golpes na internet durante a Copa

Faltam poucos dias para o início da Copa do Catar e, de acordo com a Meta Foresight, cerca de 85% dos brasileiros irão acompanhar o evento

17 de novembro de 2022

Especialista explica como se proteger de golpes e fraudes via cartão de crédito

Para 2022, a previsão é que as fraudes se intensifiquem; uma das tendências é o Phishing, um golpe comum e eficiente

21 de junho de 2022

Um amigo que trabalha há mais de uma década com Inteligência Artificial, disse que havia descoberto o sistema mais fácil de hackear do mundo

Por Alex Winetzki

hackear
Alex Winetzki é diretor de P&D do Grupo Stefanini

Um grande amigo que trabalha há mais de uma década com Inteligência Artificial, assim como eu, disse que havia descoberto o sistema mais fácil de hackear do mundo. Curioso, lógico perguntei qual era. Para minha surpresa, a resposta foi o cérebro humano.

E isso aconteceu antes da militância política nas redes sociais, antes que o Twitter e o Instagram pautassem a mídia, antes das patrulhas digitais.

Essas se tornaram tão agressivas que preciso escrever minha série de artigos técnicos com muito cuidado para não ser acusado de esquerda, direita, leste, oeste, ou alguma caixinha dessas que não fazem mais sentido, mas que passaram a ser onipresentes no mundo ocidental. 

Essa série é sobre o ChatGPT e prometi explicar como ele vai mudar a sociedade. E ele vai e muito, mas antes preciso falar um pouco de outro tema: a Psicologia.

O único psicólogo a ganhar um Prêmio Nobel de Economia chama-se Daniel Kahneman. Se ainda não o leu, vale a pena.

Ele ganhou o Nobel por explicar como o comportamento humano afeta a economia, partindo de tomadas de decisões simples como, por exemplo, se uma criança de 6 anos prefere ganhar um biscoito agora, já, ou esperar 30 minutos e ganhar dois biscoitos. 

Mas a tese mais importante de Kahneman para mim é que o ser humano se engana sobre ser racional, ou para ser mais preciso, sobre o fato de avaliar fatores e circunstâncias antes de decidir. Para Kahneman, o que ocorre é o contrário.

Nós decidimos com base em características comportamentais e opiniões profundamente estabelecidas em cada um. No fundo, usamos nosso intelecto para fundamentar a decisão que já tomamos. 

Os algoritmos de Deep Learning, que atuam na construção das redes sociais, descobriram isso, não por estudar Kahneman, mas por tentativa e erro.

Descobriram que se forneço a um grupo que tem preferências particulares, seja por gatos, dietas, horóscopos ou posições políticas, conteúdos continuados sobre esses assuntos, e mais, se coloco essas pessoas em contato com outras que têm as mesmas preferências, elas se tornam mais participativas. 

E se isso acontece, os usuários passam mais tempo na plataforma, que vende mais anúncios e todos ficam mais felizes.

Certo? Errado, pois ninguém contava com o fato de que, ao criar grupos cada vez mais segmentados, infinitamente retroalimentados por mais do mesmo, em múltiplos formatos de mídia, elimina-se a possibilidade de diálogo, de respeito a opiniões distintas, afinal “todos que eu conheço pensam como eu”. 

Depois desse rápido desvio, quero explicar melhor o que as tecnologias de IA generativa podem fazer. Se no mundo atual as conflagrações entre ideias divergentes se tornaram norma, estamos prestes a munir maus atores, propensos a manipulações de toda sorte, com um poder muito mais alto de destruição do bom-senso. E quais são essas “armas”?

Vamos a algumas delas:

Dall-e e Stable Difusion – São capazes de criar arte, incluindo vídeos e filmes, com nível profissional, em segundos.

ChatGPT e Large Language Models – Podem criar centenas de artigos, notas, posts para Twitter, Instagram e outras redes sociais, dizendo, por exemplo, que goiabada com queijo Minas causa câncer. Os argumentos serão falsos, mas absolutamente críveis e bem embasados, inclusive com citações de estudos que não existem.

– Vall-e – Acho até meio chocante. Depois de ouvir 3 segundos de áudio de um indivíduo, o sistema é capaz de reproduzir com precisão a voz dessa pessoa. Isto é, alguém pode mandar para a sua cara-metade um áudio seu confessando uma traição exatamente com sua voz.

E a lista segue com ferramentas que devem aumentar muito a produtividade de empresas e organizações, mas sobre as quais não há nem sombra de regulação num mundo tenso, no qual fica cada vez mais fácil produzir material duvidoso, mas de alta qualidade, sem qualquer controle ou responsabilidade. 

Se há dez anos o que definia a credibilidade de uma empresa de mídia era a qualidade de sua produção, a independência e flexibilidade para discutir diferentes pontos de vista, neste momento estranho do mundo a primeira coisa que se faz é tentar minar a credibilidade dessas mesmas empresas de mídia, chamando-as disso ou daquilo, para que o acesso à informação de cada grupo de interesse fique restrito à autoprodução, com resultados nefastos para o tecido social. 

Onde vamos chegar? Não tenho a resposta, mas o que me preocupa profundamente é a ausência completa de debate, principalmente porque essas tecnologias não são um projeto futuro, elas já existem e se tornarão mais acessíveis, a cada dia. 

Sobre o autor

Alex Winetzki é CEO da Woopi e diretor de P&D do Grupo Stefanini, referência em soluções digitais.

Ei, Google: como hackear uma conta no Facebook? Essa pesquisa pode parecer estranha, mas o estudo da NordVPN explica

Na contramão do mercado de tecnologia, Grupo Stefanini amplia contratações no mundo inteiro

87talks, do Grupo Stefanini, reúne especialistas para debater sobre cibersegurança

Aos 35 anos, Grupo Stefanini se consolida como robusto ecossistema de inovação e aposta em crescimento de 24%

O CRYPTO ID TRILHOU UM CAMINHO INCRÍVEL NESSES 10 ANOS!!

Em novembro desse ano completaremos uma década dessa jornada. Levamos à cerca de dois milhões de leitores ano as melhores e mais atualizadas informações do mercado brasileiro e internacional sobre segurança digital e tecnologias que viabilizam a identificação de pessoas, empresas, aplicações e equipamentos em meio digital, recursos de assinatura eletrônica e controle de acesso para garantir transações seguras e confiáveis.

Você quer acompanhar nosso conteúdo? Então siga nossa página no LinkedIn!

CATEGORIAS

Destaques IA Notícias