JA

AIA responsável em uma encruzilhada

Artigo 5 Min Read

Teclas de chave

Os recentes avanços na IA generativa criaram pressão comercial para as empresas obterem valor da IA ​​rapidamente, bem como a pressão do público para gerenciar efetivamente seus riscos éticos, privacidade e de segurança. Uma nova pesquisa realizada pelo BCG e a revisão do MIT Sloan Management revela que:
  • As empresas fizeram progresso na IA responsável, mas ainda têm muito mais a percorrer. Arriscado.
  • CEO engagement strengthens responsible AI programs.
  • Responsible AI programs demand time.
  • Third-party tools are often necessary but risky.
Salvo para Meu conteúdo salvo
Download Artigo

Avanços recentes em AI generativo criaram um intenso desafio para as empresas e seus líderes. Eles estão sob pressão comercial para obter valor da IA ​​rapidamente e Pressão pública para gerenciar efetivamente os riscos éticos, privacidade e de segurança de tecnologias em rápida mudança. Algumas empresas reagiram bloqueando algumas ferramentas generativas de IA de sistemas corporativos. Outros permitiram que ele se desenvolvesse organicamente sob governança e supervisão frouxas. Nenhuma extrema é a escolha certa.

A revolução da IA ​​ainda está em seus primeiros dias. As empresas têm tempo para fazer AI responsável uma capacidade poderosa e integral. Mas a administração subestima consistentemente o investimento e o esforço necessários para operacionalizar a IA responsável. Com muita frequência, a IA responsável carece de propriedade clara ou patrocínio sênior. Não está integrado aos processos de governança e gerenciamento de riscos centrais ou incorporados nas linhas de frente. Nesse momento da corrida do ouro, os princípios de IA responsável correm o risco de se tornar apenas um ponto de discussão. A pesquisa mais recente, realizada no início deste ano, após o rápido aumento da popularidade do ChatGPT, mostra que, em média, a maturidade responsável da IA ​​melhorou marginalmente de 2022 a 2023. Encorajantemente, a participação das empresas que são responsáveis ​​por líderes de IA quase dobraram, de 16% para 29%. Os setores privados e públicos devem operacionalizar a IA responsável tão rápido quanto construir e implantar soluções de IA. Quanto à maneira como as empresas devem responder, quatro temas surgiram da pesquisa e de duas dúzias de entrevistas com líderes seniores. (Este artigo resume um tratamento mais completo das descobertas em

For the third consecutive year, BCG conducted a global survey of executives to understand how companies manage this tension. The most recent survey, conducted early this year after the rapid rise in popularity of ChatGPT, shows that on average, responsible AI maturity improved marginally from 2022 to 2023. Encouragingly, the share of companies that are responsible AI leaders nearly doubled, from 16% to 29%.

These improvements are insufficient when AI technology is advancing at breakneck pace. The private and public sectors must operationalize responsible AI as fast as they build and deploy AI solutions. As to how companies should respond, four themes emerged from the survey and from two dozen interviews with senior leaders. (This article summarizes a fuller treatment of the findings in MIT Sloan Management Review.)

Matórios de engajamento do CEO

Of the companies in our survey whose CEO is actively engaged in responsible AI, nearly four out of five—79%—reported that they are prepared for AI regulation. (See the exhibit.) That share drops to 22% among companies whose CEO is not involved.

Slightly more than one-quarter of CEOs—28%—play a hands-on role in responsible AI programs through hiring, target setting, or product-level discussions. These companies report 58% more business benefits from their responsible AI activities than other companies.

Engaged CEOs can help sustain the investment and focus that responsible AI requires. They also ensure clear lines of authority and decision rights. Today, responsibility is often distributed among legal, compliance, data analytics, engineering, and other functions. As they do in segurança cibernética e ESG, Os CEOs podem amplificar a eficácia dos programas de IA responsáveis ​​ Usando seu megafone e influência. Mais da metade - 53% - não têm desenvolvimento interno de IA, portanto, eles dependem exclusivamente de fornecedores de IA.

Third-Party Tools Are Necessary but Must Be Carefully Managed

More than three quarters of companies—78%—reported that they rely on external AI tools and services; more than half—53%—have no internal AI development, so they rely exclusively on AI vendors.

AI está rapidamente se tornando um negócio de escala. Relativamente poucas organizações têm talento e recursos para competir, portanto, mesmo aqueles com fortes recursos de IA frequentemente exigem ferramentas de terceiros para atender às necessidades específicas. Mas essas ferramentas podem ser arriscadas: elas estão implicadas em 55% das falhas de IA, lapsos éticos ou técnicos que podem conseguir uma empresa em regulamentação, PR ou outros tipos de problemas. Nossa pesquisa constatou que quanto mais uma empresa analisa ferramentas de terceiros, incluindo certificação e auditoria de fornecedores, mais falhas de IA descobrem. Infelizmente, as empresas estão fazendo pouca supervisão preventiva. Dois terços-68%-apresentam três ou menos cheques em soluções de IA de terceiros, portanto a taxa de falha verdadeira é provavelmente muito pior. Essas abordagens precisam ser dinâmicas e flexíveis, porque a IA está mudando rapidamente. Esse acesso expõe os desafios da AI das sombras - desenvolvimento e uso não autorizados que são desconhecidos para as equipes de administração e governança da empresa. Assim como os ataques cibernéticos, o erro humano contribui para muitas falhas de IA. Melhorar a conscientização e as medidas responsáveis ​​da IA ​​requer mudanças nas operações e na cultura. Essas mudanças levam

Vigilance can help prevent such mishaps. Our survey found that the more a company analyzes third-party tools, including vendor certification and audits, the more AI failures they discover. Unfortunately, companies are doing too little preventive oversight. Two thirds—68%—perform three or fewer checks on third-party AI solutions, so the true failure rate is likely much worse.

Companies can rely on existing third-party risk management processes to evaluate AI vendors, but they also need AI-specific approaches like audits and red teaming. These approaches need to be dynamic and flexible, because AI is changing rapidly.

Responsible AI Takes Time and Resources, So Start Now

Generative AI has democratized AI by putting it into the hands of all employees, not just the tech cognoscenti. This access exposes the challenges of shadow AI—unauthorized development and use that are unknown to the company’s management and governance teams.

Responsible AI needs to be built into the fabric of the organization. As with cyberattacks, human error contributes to many AI failures. Improving responsible AI awareness and measures requires changes in operations and culture. These changes take Uma média de três anos para implementar , portanto, as empresas precisam começar a trabalhar.

O que é bom para a sociedade é bom para os negócios

Many countries, and even local municipalities, are contemplating AI regulations. It pays to get ahead of them. Heavily regulated industries—health care and financial services, as well as the public sector—report higher levels of responsible AI maturity than other industries. They have stronger risk management practices and fewer AI failures.

But treating AI only as a compliance problem misses the mark. Responsible AI enables faster innovation and minimizes risk. Farsighted companies will ride the coming wave of regulation by following responsible business practices. They will satisfy lawmakers, shareholders, and the public with products and services that are innovative e Safe. Lembre -se, os motoristas de corrida vão rápido porque confiam nos freios.

Inscreva-se em nosso e-alert de inteligência artificial.

Autores

Diretor Gerente e Parceiro Sênior

Jeanne Kwong Bickford

Diretor Gerente e Parceiro Sênior
Nova Iorque

Diretor Gerente & amp; Parceiro
Oficial de Ética da AI Chefe

Steven Mills

Diretor Gerente e Parceiro
Chefe AI Oficial de Ética
Washington, DC

Diretor Gerente e Parceiro Sênior

Tad Roselund

Diretor Gerente e Parceiro Sênior
Nova Jersey

O que vem a seguir

Leia mais informações das equipes de especialistas da BCG. Capacidade
Salvo para Meu conteúdo salvo
Saved To Meu conteúdo salvo
Download Artigo