Facebook Pixel

Ciência de dados

Estudo aborda responsabilidade no uso da Inteligência Artificial 

Estudo aborda responsabilidade no uso da Inteligência Artificial 

Mais de 100 executivos foram ouvidos sobre IA e estratégias operacionais

Pioneira no uso de análise preditiva e ciência de dados para melhorar as decisões operacionais, além de proteger cartões de pagamento contra fraudes e ajudar as pessoas a obter crédito, a FICO, líder global em analíticos e plataforma de inteligência aplicada, em parceria com a Corinium, desenvolveu a 3ª edição do relatório ‘Estado de Inteligência Artificial Responsável (IA) em Serviços Financeiros’. O levantamento aponta que a demanda por produtos e ferramentas de IA está aumentando. 

De acordo com os dados, mais da metade dos entrevistados (52%) diz que o uso de IA tem maior predileção do que há 12 meses, contudo, a grande maioria (71%) indicou que dentro das estratégias empresariais, o uso ético e responsável dessa tecnologia não aparece entre as prioridades.

O relatório ouviu 100 diretores atuantes na área de inteligência artificial no setor de serviços financeiros nos Estados Unidos e no Canadá, no último trimestre de 2022, com o intuito de mapear como as empresas se posicionam no que diz respeito à implementação de estratégias de IA, ética e governança no uso dessa tecnologia e como enxergam as iniciativas futuras.

“Embora tenhamos visto um aumento na demanda por ofertas e produtos financeiros baseados em IA, várias empresas de serviços financeiros ainda não desenvolveram ou parametrizaram padrões de IA responsáveis”, disse Scott Zoldi, Chief Analytics Officer (CAO) da FICO. “Além de cumprir uma responsabilidade ética com seus clientes, a implementação de padrões de IA responsável explicáveis, auditáveis e éticos ajuda a promover a fidelidade à marca, reduz os riscos reputacionais e permite uma melhor conformidade com os padrões regulatórios”, acrescentou.

Atualmente, apenas 8% dos entrevistados afirma que suas estratégias de IA estão totalmente maduras, com padrões de desenvolvimento de modelos consistentemente dimensionados em suas organizações. No entanto, as empresas estão começando a apreciar e entender os benefícios da implementação de uma estratégia de IA responsável.

Proporcionar melhores experiências aos clientes (74%) foi citado como o principal benefício da IA responsável, seguido pela criação de novas oportunidades de receita (69%) e pela proteção do valor da marca / minimização do risco de reputação. Essas descobertas destacam que o uso responsável da IA pode proteger as organizações contra riscos e melhorar o relacionamento com os clientes, permitindo que as empresas de serviços financeiros promovam a confiança do cliente para expandir sua participação no mercado.

Definindo a IA Responsável

As companhias que realizam o processo de definição de IA responsável envolvem liderança alinhada com uma estratégia codificada para demonstrar como a IA ética e a governança da IA serão aplicadas em seus negócios. No entanto, 43% das organizações de serviços financeiros relatam dificuldades com estruturas de governança de IA para atender aos requisitos regulatórios e apenas 44% definiram de forma clara e objetiva os padrões de IA responsável no nível do conselho. Apenas 8% das organizações descrevem seus padrões de IA Responsável como maduros, demonstrando que esse é um processo suave para muitas organizações.

Além disso, 57% das organizações não têm consenso sobre como medir o impacto e o viés dos modelos de IA, e metade (50%) não tem um padrão de desenvolvimento de modelos de IA. Os resultados da pesquisa mostram que impressionantes 27% das corporações ainda não começaram a definir suas capacidades de IA responsável.

O relatório completo O Estado da Inteligência Artificial Responsável (IA) em Serviços Financeiros, pode ser baixado aqui.