Princípios e práticas para a construção de uma inteligência artificial mais confiável
20 de dezembro de 2021Os princípios deixam claro que o propósito da inteligência artificial é aumentar a inteligência humana, a IA deve beneficiar toda a sociedade
Por Tonny Martins
A inteligência artificial (IA) está mudando a forma como as empresas operam, desde como se comunicam com seus clientes, através de assistentes virtuais, até a automatização dos fluxos de trabalho essenciais ou a gestão de segurança de rede.
Na América Latina, os dados sobre o uso da IA são fortes: 21% dos profissionais de TI entrevistados na região observaram que seus negócios estão utilizando IA agora, enquanto 43% relataram que suas organizações aceleraram a implementação da IA como resultado da pandemia de COVID-19, de acordo com o AI Adoption Index, realizado pela Morning Consult, a pedido de IBM.
Ao mesmo tempo em que vejo essa adoção acelerada em empresas de tamanhos e indústrias diferentes, que reconhecem o valor da IA como chave para enfrentar diferentes desafios, cada vez mais essas organizações e o mercado em geral começam a se preocupar com a forma como essa tecnologia está sendo usada.
Hoje, essas considerações são mais importantes do que nunca, porque a IA pode ter um impacto significativo na vida das pessoas.
É por isso que organizações e provedores que usam IA têm a responsabilidade fundamental de construir sistemas de confiança e garantir que a tecnologia seja projetada e utilizada de forma responsável em todos os momentos durante o ciclo de vida da IA.
Por essa razão, acreditamos em uma IA ética e confiável. Nesse sentido, a IBM desenvolveu princípios, pilares e práticas multidisciplinares e multidimensionais.
Os princípios deixam claro que o propósito da inteligência artificial é aumentar a inteligência humana; que a IA deve beneficiar toda a sociedade; que os dados e insights gerados pertencem ao seu criador; e que poderosas novas tecnologias, como a própria IA, devem ser transparentes, explicáveis e mitigar preconceitos nocivos e inadequados.
A concepção desses princípios e pilares deu origem a práticas que veem seus frutos na integração de grupos de trabalho para discutir, recomendar e orientar o desenvolvimento e a implementação da inteligência artificial. Através de um Conselho de Ética de IA que fornece governança centralizada e autoridade de tomada de decisão, uma cultura de ética tecnológica é fomentada por toda a companhia.
É pelo comprometimento com esses princípios que é possível ajudar a prevenir que preconceitos, por exemplo, possam ser transmitidos a soluções de IA que nos habilitam a enfrentar as necessidades das empresas para que elas possam avançar na implementação da tecnologia com confiança.
Enquanto empresa, procuramos desenvolver soluções especificamente projetadas para ajudar companhias não apenas a estabelecer e executar estratégias de IA, mas também a fomentar a confiança em seus sistemas de IA atuais e futuros e a colocá-los em operação.
A IA responsável não é um tema isolado de uma empresa ou outra: para alcançá-la, é necessário um ecossistema aberto e diversificado.
E fazemos isso trabalhando lado a lado com todo o ecossistema de inovação da América Latina – incluindo nossos clientes, universidades e organizações da sociedade civil, entre outros – para incentivar o uso responsável da tecnologia.
Trabalhamos juntos para garantir que a IA seja enriquecida a partir da pluralidade do ecossistema de dados, com uma variedade de profissionais e parceiros que possibilitam o feedback e a melhoria contínua nessa área.
Cabe a todos os atores garantir o uso ético das tecnologias através do trabalho conjunto.
A IA tem o potencial de transformar a forma como vivemos e trabalhamos. Nossa responsabilidade é usá-la seguindo princípios éticos e transparentes para um futuro de negócios e uma sociedade melhor para todos.