Últimas notícias

Fique informado

IA: como anda as regulamentações no Reino Unido, Sudeste Asiático e EUA?

26 de julho de 2023

Governos, sociedade civil e empresas estão se empenhando em orientar o desenvolvimento da inteligência artificial (IA)

O Instituto Ada Lovelace busca revisar as atuais leis de IA no Reino Unido e tem recomendações específicas sobre como fazê-lo. Cingapura pode servir de modelo regulatório para a região da ASEAN, enquanto os grandes gigantes da tecnologia dos EUA se comprometeram em apoiar a Casa Branca na mitigação dos riscos da IA.

Andrew Strait, Diretor Associado do Instituto Ada Lovelace

Andrew Strait, Diretor Associado do Instituto Ada Lovelace, disse:

As tecnologias de IA estão se desenvolvendo mais rápido do que nunca e mais organizações, tanto no setor privado quanto no público, estão expandindo seu uso de IA. No entanto, é importante que as empresas e os formuladores de políticas estejam cientes das expectativas e preocupações do público.”

Um grupo de pesquisa no Reino Unido apontou lacunas significativas na regulamentação de IA do país.

O Instituto Ada Lovelace emitiu 18 recomendações em um relatório recente, acreditando que poderiam impulsionar o Reino Unido a se tornar um pioneiro global na governança de IA. Uma das recomendações é a revisão do Regulamento Geral de Proteção de Dados (GDPR) do Reino Unido e da Lei da Igualdade de 2010 para incluir novos direitos e proteções para aqueles afetados pela IA.

Outras recomendações incluem a criação de uma entidade exclusiva de IA, projetos-piloto de implementação de IA e a introdução de requisitos obrigatórios de relatórios para desenvolvedores de modelos fundamentais.

O instituto também sugere o desenvolvimento de um sistema de governança de biometria

Ao contrário da futura legislação de IA da União Europeia, o Reino Unido ainda não possui um quadro legislativo abrangente para regular a IA.

O relatório destaca a necessidade de estruturas “horizontais”, cobrindo direitos humanos, igualdade e proteção de dados, além de regulamentações “verticais” específicas para diferentes áreas, como a regulamentação de dispositivos médicos.

Enquanto isso, no sudeste asiático, há uma demanda por uma estrutura de governança de IA e Cingapura pode ter a resposta.

Os líderes da região devem considerar a adoção do Modelo de Governança de IA de Cingapura em nível regional, garantindo que seus países tenham uma base legal comum para governar o uso de IA, semelhante à legislação de IA da UE.

Isso permitiria fortalecer tanto a competitividade quanto os direitos digitais na região. O Modelo de Governança de IA de Cingapura, lançado como parte da Estratégia Nacional de IA em 2020, tem como foco a abordagem dos riscos da IA.

No entanto, ainda faltam detalhes específicos sobre categorias e níveis de risco, como reconhecimento facial, de acordo com estudos realizados por Albert J. Rapha.

“Mas ainda existem várias barreiras para desenvolver essa tecnologia de ponta e tornar o Sudeste Asiático globalmente competitivo. 

Um estudo do Asia Society Policy Institute  destaca o imperativo de garantir que a adoção da IA ​​esteja atenta aos riscos, considerando inclusão, resiliência cibernética e disrupção do mercado de trabalho, diz Albert J. Rapha.

“A inclusão de IA refere-se à urgência de pressionar por mais engajamento público, promovendo o design centrado no cidadão e reduzindo a abordagem centralizada dos governos para desenvolver futuras tecnologias baseadas em IA. Assegurar que essa tecnologia não seja usada para discriminar usuários minoritários, conforme destacado pelos recentes eventos na Tailândia, também deve ser levado em consideração pelas autoridades.”

Como a IA depende muito dos dados gerados pelas atividades on-line diárias dos usuários, a resiliência cibernética precisa ser um pré-requisito para adotar essa tecnologia. A implementação de altos padrões de proteção de dados pessoais e a antecipação das ameaças da vigilância digital devem se tornar prioridades dos governos se quiserem promover a confiança pública nos serviços governamentais baseados em IA .

Nos Estados Unidos, importantes empresas de tecnologia, como Amazon, Google, Meta e Microsoft, se comprometeram a colaborar com o governo Biden para lidar com os potenciais riscos da IA.

Seus compromissos incluem testes de segurança de sistemas de IA antes do lançamento, compartilhamento de informações de risco com várias organizações, marca d’água em conteúdos gerados por IA e abordagem de vieses prejudiciais e problemas de confiança do público. Outras empresas de IA, como OpenAI, Anthropic e Inflection, também assumiram compromissos voluntários.

Embora esses compromissos voluntários sejam elogiados, alguns observadores acreditam que é necessário mais do que o envolvimento de apenas sete empresas de IA. Eles afirmam que outras empresas de IA só continuarão a desenvolver e implementar ferramentas de IA com supervisão adequada se o governo estabelecer regulamentações apropriadas.

A Casa Branca prometeu colaborar com os aliados para estabelecer um quadro global para governar a IA. Está desenvolvendo uma ordem executiva e uma legislação bipartidária para tratar de questões relacionadas à IA, como vieses algorítmicos e transparência. O senador Todd Young afirmou que o Senado está trabalhando para adaptar leis e regulamentos para lidar com o impacto da IA na sociedade. Acredita-se que a nova legislação de IA será lançada nos próximos seis meses.

Com informações de Eastasiaforum e Biometricsupdate e Instituto Ada Lovelace

Acompanhe o melhor conteúdo sobre Inteligência Artificial publicado no Brasil.

GOVERNO E TECNOLOGIA

Aqui no Crypto ID você acompanha as principais ações do Governo Brasileiro e de outros Países relacionadas a privacidade, proteção de dados, serviços eletrônicos, formas de autenticação e identificação digital e Cibersegurança.

Acesse agora e conheça nossa coluna GovTech!

CATEGORIAS

Govtech IA Notícias