Últimas notícias

Fique informado

A IA está sendo cada vez mais usada para identificar emoções. Mas o que está em jogo?

19 de abril de 2021

Alexa Hagerty, Universidade de Cambridge, Alexandra Albert , UCL pelo site The Conversation

A tecnologia de reconhecimento de emoções – ERT, é, na verdade, uma indústria de bilhões de dólares em expansão que visa usar a IA para detectar emoções a partir de expressões faciais. No entanto, a ciência por trás dos sistemas de reconhecimento de emoções é controversa: existem muitos preconceitos embutidos nos sistemas.

Imagine que você está em uma entrevista de emprego. Conforme você responde às perguntas do recrutador, um sistema de inteligência artificial (IA) examina seu rosto , avaliando seu nervosismoempatia e confiabilidade

Pode soar como ficção científica, mas esses sistemas são cada vez mais usados, muitas vezes sem o conhecimento ou consentimento das pessoas.

Muitas empresas usam ERT para testar as reações dos clientes a seus produtos, de cereais a videogames. Mas também pode ser usado em situações com riscos muito maiores, como na contratação, pela segurança do aeroporto para sinalizar rostos como reveladores de decepção ou medo, no controle de fronteiras, no policiamento para identificar “pessoas perigosas” ou na educação para monitorar o envolvimento dos alunos com seus deveres de casa.

Terreno científico instável

O documentário da Netflix Coded Bias (2020) investiga o viés racista e machista da inteligência artificial (IA) por trás dos algoritmos de reconhecimento facial.

Felizmente, a tecnologia de reconhecimento facial está recebendo a atenção do público. 

O premiado filme Coded Bias, lançado recentemente na Netflix, documenta a descoberta de que muitas tecnologias de reconhecimento facial não detectam com precisão rostos de pele mais escura. 

E a equipe de pesquisa que gerencia o ImageNet, um dos maiores e mais importantes conjuntos de dados usados ​​para treinar o reconhecimento facial, foi recentemente forçada a desfocar 1,5 milhão de imagens em resposta a questões de privacidade .

As revelações sobre o viés algorítmico e conjuntos de dados discriminatórios na tecnologia de reconhecimento facial levaram grandes empresas de tecnologia, incluindo Microsoft, Amazon e IBM, a interromper as vendas. 

E a tecnologia enfrenta desafios legais em relação ao seu uso no policiamento no Reino Unido. Na UE, uma coligação de mais de 40 organizações da sociedade civil apelou à proibição total da tecnologia de reconhecimento facial.

Como outras formas de reconhecimento facial, a ERT levanta questões sobre preconceito, privacidade e vigilância em massa. Mas a ERT levanta outra preocupação: a ciência da emoção por trás disso é controversa. A maior parte da ERT é baseada na teoria das “emoções básicas”, que sustenta que as emoções são biologicamente conectadas e expressas da mesma forma por pessoas em todos os lugares.

No entanto, isso está sendo cada vez mais desafiado. A pesquisa em antropologia mostra que as emoções são expressas de forma diferente entre as culturas e sociedades. 

Em 2019, a Association for Psychological Science conduziu uma revisão das evidências, concluindo que não há suporte científico para a suposição comum de que o estado emocional de uma pessoa pode ser prontamente inferido a partir de seus movimentos faciais. Em suma, a ERT foi construída em um terreno científico instável.

Além disso, como outras formas de tecnologia de reconhecimento facial, a ERT é codificada com preconceito racial. Um estudo mostrou que os sistemas consistentemente leem os rostos dos negros como mais raivosos do que os rostos dos brancos, independentemente da expressão da pessoa. 

Embora o estudo do preconceito racial na TRE seja pequeno, o preconceito racial em outras formas de reconhecimento facial está bem documentado.

Deborah Raji 

Essa tecnologia pode prejudicar as pessoas de duas maneiras, disse a pesquisadora de IA Deborah Raji em uma entrevista ao MIT Technology Review:

Uma maneira é não funcionar: por ter taxas de erro mais altas para pessoas de cor, isso as coloca em maior risco . A segunda situação é quando funciona – onde você tem o sistema de reconhecimento facial perfeito, mas é facilmente usado como arma contra as comunidades para assediá-las. ”

Portanto, mesmo que a tecnologia de reconhecimento facial possa ser neutra e precisa para todas as pessoas, ela ainda pode não ser justa ou justa. Vemos esses efeitos díspares quando a tecnologia de reconhecimento facial é usada em sistemas policiais e judiciais que já são discriminatórios e prejudiciais às pessoas de cor. As tecnologias podem ser perigosas quando não funcionam como deveriam. E também podem ser perigosos quando funcionam perfeitamente em um mundo imperfeito.

Os desafios levantados pelas tecnologias de reconhecimento facial – incluindo ERT – não têm respostas fáceis ou claras. Resolver os problemas apresentados pela ERT requer a mudança da ética da IA ​​centrada em princípios abstratos para a ética da IA ​​centrada na prática e nos efeitos na vida das pessoas.

A IA pode ser racista

Quando se trata de ERT, precisamos examinar coletivamente a controversa ciência da emoção embutida nesses sistemas e analisar seu potencial de preconceito racial. E precisamos nos perguntar: mesmo que a ERT pudesse ser projetada para ler com precisão os sentimentos íntimos de todos, queremos uma vigilância tão íntima em nossas vidas? Estas são questões que requerem a deliberação, contribuição e ação de todos.

Projeto de ciência cidadã

A ERT tem o potencial de afetar a vida de milhões de pessoas, mas tem havido pouca deliberação pública sobre como – e se – ela deve ser usada . Por isso desenvolvemos um projeto de ciência cidadã .

Em nosso site interativo (que funciona melhor em um laptop, não em um telefone), você pode experimentar um ERT privado e seguro para você mesmo, para ver como ele escaneia seu rosto e interpreta suas emoções. Você também pode jogar jogos comparando habilidades humanas e IA no reconhecimento de emoções e aprender sobre a controversa ciência da emoção por trás da ERT.

Mais importante ainda, você pode contribuir com suas perspectivas e ideias para gerar novos conhecimentos sobre os impactos potenciais da ERT. Como o cientista da computação e ativista digital de Joy Buolamwini  diz : “Se você tem um rosto, você tem um lugar na conversa.”

Fonte: The Conversation

Algoritmo de reconhecimento facial 1: N da IDEMIA obteve melhor precisão no mais recente Teste de fornecedor de reconhecimento facial (FRVT) do NIST

CredDefense incorpora o Score de Fraude aos serviços de combate a fraudes

CredDefense fecha parceria com Innovatrics para incorporar tecnologia de Prova de Vida certificada

Tecnologia do Reconhecimento Facial: Do Amor à Segurança

Acompanhe como o reconhecimento facial e impressões digitais, de íris e voz estão sendo utilizados para garantir a identificação digital precisa para mitigar fraudes e proporcionar aos usuários conforto, mobilidade e confiança. Crypto ID, o maior canal brasileiro sobre identificação digital. Leia outros artigos aqui!

Learn how facial recognition and iris, voice and fingerprints are being used to ensure accurate digital identification to mitigate fraud and provide users with comfort, mobility and trust. Read other articles here! Crypto ID, the largest Brazilian channel on digital identification. Read other articles here!

Descubra cómo se utilizan el reconocimiento facial y el iris y las huellas dactilares del voz para garantizar una identificación digital precisa para mitigar el fraude y brindar a los usuarios comodidad, movilidad y confianza. Crypto ID, el mayor canal brasileño de identificación digital. ¡Lea otros artículos aquí!