Últimas notícias

Fique informado

Os efeitos do ChatGPT no futuro do trabalho

17 de abril de 2023

Spotlight

Doc9 lança Guia Prático de Prompts para ChatGPT no Jurídico: Como Maximizar a Eficiência com a Inteligência Artificial

Para obter os melhores resultados com o ChatGPT no contexto jurídico, siga as dicas importantes do Guia Prático de Prompts da doc9.

28 de maio de 2024

Governo Federal apoia Rio Grande do Sul na emissão 2ª via da Carteira de Identidade Nacional

O mutirão coordenado pelo Governo do RS começou nos abrigos de Porto Alegre. Expedição da segunda via será imediata

20 de maio de 2024

Dilema cultural da transferência de responsabilidade na segurança digital

O cenário de ameaças tornou-se cada vez mais perigoso enquanto

12 de dezembro de 2022

Como capitalizar na era de ouro da segurança cibernética?

Na linha de frente desses desafios estão os profissionais de segurança e fornecedores que trabalham incansavelmente para revolucionar o setor

5 de dezembro de 2022

Grandes players centralizam talentos de TI e quem paga o preço é o mercado

A pesquisa mostra que a retenção dos talentos atuais é relatada como o maior desafio para as empresas, juntamente com a remuneração.

21 de novembro de 2022

Computação de borda e a proliferação ataques cibernéticos na saúde

Uma das maneiras inovadoras pelas quais as equipes hospitalares podem reduzir o risco de ataques cibernéticos prejudiciais é por meio da implantação de sistemas de computação de borda.

14 de novembro de 2022

O que levou as vulnerabilidades dos produtos da Apple crescerem mais de 467%?

De acordo com a Atlas VPN, as vulnerabilidades de produtos da Apple cresceram 467%, para 380 explorações no segundo semestre de 2021.

3 de outubro de 2022

Empresas em todo o mundo estão tomando medidas para regulamentar como seus funcionários usam o ChatGPT no trabalho

Por Adriano da Silva Santos 

ChatGPT
Adriano da Silva Santos – jornalista e escritor

Empresas em todo o mundo estão tomando medidas para regulamentar como seus funcionários usam o ChatGPT no trabalho.

Como acontece com todas as novas tecnologias, elas podem ser uma fonte de benefícios e riscos e isso vem gerando alertas para o setor como um todo.

Depois de pesquisar as melhores práticas, algumas organizações estão decidindo que – pelo menos por enquanto – os riscos superam os benefícios.

Como resultado, elas estão optando por declarar o seu uso não autorizado e bloquear o acesso a ele nas redes da empresa até que suporte e orientação apropriados possam ser estabelecidos.

Uma pesquisa da Fishbowl sugere que 43% dos profissionais que trabalham usam ferramentas de IA como o ChatGPT para concluir tarefas no trabalho. Mais de dois terços dos entrevistados não disseram a seus chefes que estavam fazendo isso.

O ChatGPT é a plataforma digital de crescimento mais rápido da história, acumulando mais de 100 milhões de usuários em seus primeiros dois meses de disponibilidade.

Para efeito de comparação, o WhatsApp teve tantos usuários depois de três anos e meio, e o Facebook levou quatro anos e meio para atingir o mesmo marco.

Além disso, o ChatGPT também é o primeiro chatbot de processamento de linguagem natural amplamente acessível, impulsionado por inteligência artificial.

Ele pode interagir em conversas semelhantes às humanas e gerar conteúdo como e-mails, livros, letras de músicas e códigos de aplicativos. 

Por outro lado, dúvidas aparecem de como aproveitá-lo de um forma segura, assim como também quais são as implicações a privacidade e responsabilidade das organizações envolvidas no processo? Apesar de todos esses questionamentos, é muito cedo para saber todas as vantagens e desvantagens potenciais associadas a essa ferramenta de IA. Contudo, há alguns riscos eminentes que toda empresa já deve considerar como certos para o futuro. 

Um claro exemplo disso é se informações confidenciais de terceiros ou internas da empresa forem inseridas no ChatGPT. Essas informações se tornarão parte do modelo de dados do chatbot e poderão ser compartilhadas com outras pessoas que fizerem perguntas relevantes, resultando em vazamento de dados.

Qualquer divulgação não autorizada de informações confidenciais no ChatGPT (ou qualquer fonte online) pode violar as políticas de segurança de uma organização.

Por isso, caso a segurança seja comprometida, o acordo contratual pode ser quebrado, fazendo com que legalmente seja atribuído à companhia todos os prejuízos subsequentes.

Outro aspecto importante se trata de quem é o proprietário do código que o ChatGPT gera. Os termos de serviço indicam que a saída do ChatGPT é propriedade da pessoa ou serviço que forneceu a entrada.

As complicações surgem quando essa saída inclui dados legalmente protegidos que foram coletados da entrada de outras fontes.

Existem questões de direitos autorais se o ChatGPT for usado para gerar material escrito inspirado em propriedade protegida por direitos autorais, incluindo materiais de código aberto licenciados.

Por exemplo, se o ChatGPT for treinado em bibliotecas de código aberto e “reproduzir” esse código ao responder a uma pergunta, e um desenvolvedor colocar esse código em produtos que uma empresa envia, isso pode colocar a empresa em violação de software de código aberto “hostil”.

Os termos de serviço indicam que o ChatGPT não pode ser usado no desenvolvimento de qualquer outra IA. O seu uso dessa maneira pode comprometer o desenvolvimento futuro caso a empresa esteja apropriando-se dele de alguma forma indevida como na situação citada acima.

Geralmente, o ChatGPT avisa os usuários sobre fornecer ou inserir informações confidenciais ou pessoais, como nomes ou endereços de e-mail.

No entanto, não está claro como os criadores desta ferramenta cumprem as leis internacionais de privacidade ou se os controles apropriados estão em vigor para proteger os dados pessoais e respeitar os direitos dos indivíduos aos seus dados.

Fornecer quaisquer dados pessoais a um sistema de IA generativo abre a possibilidade de que informações possam ser reutilizadas para fins adicionais.

O uso de dados pessoais para fins não aprovados pode violar a confiança dos indivíduos que forneceram suas informações à sua organização e violar os compromissos de privacidade da organização com funcionários, clientes e parceiros.

Por conta disso, cada empreendimento deve avaliar se a plataforma – e as muitas ferramentas de IA que se seguirão – são seguros de serem usadas.

A adoção de tecnologias de ponta certamente pode viabilizar os negócios, porém as novas plataformas sempre devem ser avaliadas quanto a possíveis riscos de segurança cibernética, legais e de privacidade.

Sobre Adriano da Silva Santos

O jornalista e escritor, Adriano da Silva Santos é colunista colaborativo do Crypto ID. Formado na Universidade Nove de Julho (UNINOVE). Reconhecido pelos prêmios de Excelência em webjornalismo e jornalismo impresso, é comentarista do podcast “Abaixa a Bola” e colunista de editorias de criptomoedas, economia, investimentos, sustentabilidade e tecnologia voltada à medicina. 

Adriano Silva (@_adrianossantos) / Twitter 

Adriano Silva | LinkedIn

Leia outros artigos escritos por Adriano da Silva Santos aqui

Cinco profissionais de outras áreas que podem facilmente transitar para a cibersegurança

As 10 empresas de cibersegurança mais disruptivas de 2023

Influência do Marketing e RP na resposta a incidentes virtuais

Você quer acompanhar nosso conteúdo? Então siga nossa página no LinkedIn!