Microsoft descreve como gerencia os riscos em seu próprio software de reconhecimento facial e de voz
26 de maio de 2023Microsoft descreve abordagem para regular os riscos de sua tecnologia biométrica
A Microsoft destacou alguns dos riscos da adoção biométrica não policiada, discutindo algumas das estratégias que usa para gerenciar os riscos em seu próprio software de reconhecimento facial e de voz.
Seu último relatório de IA governamental descreve o que a empresa chama de “usos sensíveis” da IA, instâncias em que os executivos sentem que exigem uma verificação mais rigorosa.
Os autores também detalham a supervisão adicional que a empresa afirma estar dando a essas tecnologias.
A Microsoft diz que um programa de revisão fornece supervisão adicional para equipes que trabalham em casos de uso de alto risco de seus sistemas de IA, que incluem revisão prática e responsável de projetos de IA e processos de consultoria por meio de seu Office of Responsible AI’s Sensitive Uses.
A empresa alega ter se recusado a construir e implantar aplicativos específicos de IA, após concluir “que os projetos não estavam suficientemente alinhados com nosso padrão e princípios de IA responsável”.
Isso incluiu vetar o pedido de um departamento de polícia local da Califórnia para reconhecimento facial em tempo real por meio de câmeras corporais e câmeras de painel em cenários de patrulha, chamando esse uso de “prematuro”.
O processo de revisão de usos sensíveis ajudou a formar a visão interna de que “precisava haver uma conversa social sobre o uso do reconhecimento facial e que as leis precisavam ser estabelecidas”.
O relatório também delineou sua política de acesso limitado, segundo a qual a Microsoft às vezes exige que clientes em potencial se inscrevam para usar e “divulgue o uso pretendido” para garantir que “atenda a um de nossos casos de uso aceitáveis predefinidos”.
A Microsoft também descreveu como policia o aplicativo de voz neural personalizado do Azure AI, que é usado pela AT&T.
A empresa diz que neste caso “limitou o acesso do cliente ao serviço, garantiu que casos de uso aceitáveis fossem definidos e comunicados por meio de um formulário de inscrição, implementou mecanismos de consentimento do interlocutor, criou termos de uso específicos, publicou documentação de transparência detalhando riscos e limitações e estabeleceu guardrails para ajudar a garantir a participação ativa do orador ao criar uma voz sintética.”
A Casa Branca revelou esta semana seus próprios planos para proteger as pessoas dos perigos da IA.
Os planos mencionam a Microsoft, bem como Anthropic, Google, Hugging Face, Nvidia, OpenAI e Stability AI, abrindo sistemas de IA ao escrutínio do governo.
Fonte: Biometrcsupdate
Acompanhe como o reconhecimento facial e impressões digitais, de íris e voz estão sendo utilizados para garantir a identificação digital precisa para mitigar fraudes e proporcionar aos usuários conforto, mobilidade e confiança. Crypto ID, o maior canal brasileiro sobre identificação digital. Leia outros artigos aqui!
Learn how facial recognition and iris, voice and fingerprints are being used to ensure accurate digital identification to mitigate fraud and provide users with comfort, mobility and trust. Read other articles here! Crypto ID, the largest Brazilian channel on digital identification. Read other articles here!
Descubra cómo se utilizan el reconocimiento facial y el iris y las huellas dactilares del voz para garantizar una identificación digital precisa para mitigar el fraude y brindar a los usuarios comodidad, movilidad y confianza. Crypto ID, el mayor canal brasileño de identificación digital. ¡Lea otros artículos aquí!