JA

AI responsável é mais do que evitar riscos

por= Steven Mills, Sean Singer, Abhishek Gupta, Franz Gravenhorst, François Candelon e Tom Porter
Artigo
== Salvo para Meu conteúdo salvo
Download Artigo
Um novo estudo por BCG e MIT Sloan Management Review descobre que o tratamento da IA ​​responsável estritamente como uma maneira de evitar falhas de IA é incompleto. Os líderes responsáveis ​​da IA ​​adotam uma abordagem mais ampla e estratégica que gera valor para a organização e o mundo ao seu redor. Contratação tendenciosa, práticas de empréstimos injustos, diagnósticos médicos incorretos: falhas de IA acontecem e, em alguns casos, eles tiveram um impacto significativo e até que altera a vida em indivíduos e comunidades. Não é de admirar, então, que as empresas vejam a IA responsável (RAI) como uma maneira de mitigar os riscos da IA. Mas essa é a melhor ou mais benéfica maneira de ver Rai?

Artificial intelligence has made great strides in recent years—but sometimes it also makes headlines. Biased hiring, unfair lending practices, incorrect medical diagnoses: AI failures happen, and in some instances they’ve had a significant, even life-altering impact on individuals and communities. Little wonder, then, that businesses see responsible AI (RAI) as a way to mitigate the risks of AI. But is this the best or most beneficial way to view RAI? Nossa pesquisa global com mais de 1.000 executivos revela que não é. Mas aqueles que lideram a IA responsável, descobre a pesquisa, olham além da mitigação de riscos. Eles tratam o RAI como um facilitador que pode trazer benefícios tangíveis aos negócios, apoiar objetivos mais amplos de longo prazo, como a responsabilidade social corporativa (RSE) e ajudam a obter ainda mais valor dos investimentos da IA. De fato, embora a maioria das empresas reconheça a importância do RAI, a pesquisa encontra uma grande lacuna entre aspirações e ações. Uma esmagadora maioria dos entrevistados - 84% - diz que o RAI deve ser uma prioridade de alta gerência. No entanto, apenas 16% das empresas possuem programas de RAI totalmente maduros. Suas experiências fornecem insights importantes e um roteiro de alto nível para as muitas organizações que ainda estão apenas mergulhando os dedos dos pés no RAI-ou de pé ao lado da piscina. O pensamento: uma tecnologia como a IA - com tanta influência potencial nas operações, interações com os clientes e funcionalidade do produto - exige precauções especiais. E há muito para mitigar. Quase um quarto dos participantes da pesquisa relatam falhas de IA, variando de falhas técnicas a viés na tomada de decisões e ações que levantam preocupações de privacidade ou segurança. Dado que tantas organizações ainda não adotaram RAI (e podem nem saber se tiveram uma falha na IA), o número real desses incidentes provavelmente é ainda maior. Mas os líderes responsáveis ​​da IA ​​demonstraram que podem reduzir o risco e obter outros benefícios importantes, abordando o RAI de uma maneira mais estratégica. Eles priorizam o RAI, incluem uma ampla variedade de partes interessadas (dentro e fora da organização) em sua implementação e fazem um firme compromisso material e filosófico com o RAI. Além disso, a IA responsável é uma fonte de valor comercial para essas organizações.

As AI becomes more powerful and more prevalent, companies must ensure that they use the technology appropriately. But those that lead in responsible AI, the survey finds, look beyond risk mitigation. They treat RAI as an enabler that can bring tangible benefits to the business, support broader long-term goals such as corporate social responsibility (CSR), and help derive even more value from AI investments.

Today, leaders in responsible AI are few and far between. Indeed, although most companies recognize the importance of RAI, the survey finds a large gap between aspirations and action. An overwhelming majority of respondents—84%—say that RAI should be a top management priority. Yet just 16% of companies have fully mature RAI programs.

These responsible AI leaders see clear business benefits from RAI, in addition to the societal value of minimizing risk for individuals and communities. Their experiences provide key insights and a high-level roadmap for the many organizations that are still just dipping their toes into RAI—or standing to the side of the pool.

Responsible AI Isn’t Just About Reducing Risk

Risk mitigation has long been RAI’s raison d’être. The thinking: a technology like AI—with so much potential influence on operations, customer interactions, and product functionality—requires special precautions. And there’s plenty to mitigate. Nearly a quarter of participants in the survey report AI failures, ranging from technical glitches to bias in decision making and actions that raise privacy or safety concerns. Given that so many organizations have yet to adopt RAI (and may not even know whether they’ve had an AI failure), the actual number of such incidents is likely even higher. But responsible AI leaders have demonstrated that they can reduce risk and gain other important benefits by approaching RAI in a more strategic way.

Leaders share certain characteristics. They prioritize RAI, include a wide array of stakeholders (within and outside the organization) in its implementation, and make a firm material and philosophical commitment to RAI. Moreover, responsible AI is itself a source of business value for these organizations.

Que tipo de valor comercial? Metade dos líderes de IA responsáveis ​​relatam que desenvolviam melhores produtos e serviços como resultado de seus esforços de RAI (apenas 19% dos não -líderes dizem o mesmo). Quase tantos - 48% - dizem que o RAI aumentou a diferenciação da marca (em comparação com 14% dos não líderes). E 43% dos líderes citam inovação acelerada (contra apenas 17% dos não líderes). No geral, os líderes têm duas vezes mais chances que os não líderes de obter benefícios comerciais de seus esforços de IA responsáveis.

RAI vem em primeiro lugar

But the survey also makes clear that timing—specifically, the sequence in which companies increase their RAI maturity and their AI maturity—counts, too. For many companies, AI maturity comes first: 42% of respondents say that AI is a top strategic priority, but among this group, only 19% say that their organization has a fully implemented responsible AI program. This, it turns out, is the wrong order.

As AI maturity grows, a company will deploy more AI applications, and those applications will be more complex, increasing the risk that something may go wrong. Companies that prioritize scaling their RAI program over scaling their AI capabilities experience nearly 30% fewer AI failures. And the failures they do have tend to reveal themselves sooner and have significantly less impact on the business and the communities it serves. Focusing first on responsible AI enables companies to create and leverage a powerful synergy between AI and RAI.

Conectando RAI e CSR

Most companies in the vanguard of RAI view it as part of their broader CSR efforts: 73% connect RAI and CSR, compared to 35% of nonleaders. For responsible AI leaders, the alignment is natural. Both efforts have many goals in common—including transparency, fairness, and bias prevention—so they can support and empower each other. Indeed, the survey found that as their responsible AI maturity increases, organizations become more interested in aligning their AI with their values and take a broad, societal view of the impacts of AI on stakeholders. Once again, responsible AI is not just about reducing risk. It’s also about creating value, for company and community alike.

Now’s the Time to Get Started

Responsible AI leaders don’t limit themselves to thinking about risks and regulations. They also consider how RAI can advance their business goals and principles and how it can affect a broad array of stakeholders. Crucially, they’ve already started charting a path that others can follow.

A seguir esse caminho é importante. Muitas empresas estão investindo fortemente na IA sem cometer recursos ou esforços correspondentes ao RAI. Isso deixa o risco no horizonte e no valor da mesa. Ao abraçar uma abordagem estratégica da IA ​​responsável, as empresas podem escalar mais facilmente e menos perigosamente seus esforços de IA - realizando benefícios importantes e fazendo coisas maiores e melhores para seus negócios e para o mundo ao seu redor. Baixe o relatório completo


BCG GAMMA

BCG Gamma é a equipe global da BCG, dedicada à aplicação de inteligência artificial e análise avançada aos negócios em empresas e organizações líderes. A equipe inclui mais de 800 cientistas e engenheiros de dados que aplicam IA e experiência avançada de análise (por exemplo, aprendizado de máquina, aprendizado profundo, otimização, simulação, análise de texto e imagem) para criar soluções que transformem o desempenho dos negócios. A abordagem da BCG Gamma cria valor e vantagem competitiva na interseção de ciência de dados, tecnologia, pessoas, conhecimento de negócios, processos e maneiras de trabalhar. Para mais informações, visite nosso Página da Web. Parceiro
Oficial de Ética Chefe AI

Authors

Managing Director &amp; Partner<br/>Chief AI Ethics Officer

Steven Mills

Diretor Gerente e Parceiro
Chefe AI Oficial de Ética
Washington, DC

Alumnus

Sean Singer

Alumnus

Cientista de dados principal

Franz Gravenhorst

Cientista de dados principal
Sydney

Alumnus

François Candelon

Alumnus

Cientista de dados sênior

Tom Porter

Cientista de dados sênior
Sydney

Conteúdo relacionado

Salvo para Meu conteúdo salvo
= Salvo para Meu conteúdo salvo
Download Artigo