AS Inteligência Artificial assume um papel mais central em inúmeros aspectos dos negócios e da sociedade, assim como a necessidade de garantir seu uso responsável. A IA melhorou drasticamente o desempenho financeiro, a experiência dos funcionários e a qualidade do produto e do serviço para milhões de clientes e cidadãos, mas também infligiu danos. Os sistemas de IA ofereceram limites de cartão de crédito mais baixos a mulheres do que homens, apesar dos perfis financeiros semelhantes. Os anúncios digitais demonstraram viés racial nas ofertas de moradias e hipotecas. Os usuários enganaram os chatbots a fazer comentários ofensivos e racistas. Os algoritmos produziram diagnósticos e recomendações imprecisas para tratamentos contra o câncer.
To counter such AI fails, companies have recognized the need to develop and operate AI systems that Trabalho a serviço do bem enquanto obtém impacto nos negócios transformadores - Pensando além da justiça e preconceito algorítmicos dos barebones, a fim de identificar possíveis efeitos de segunda e terceira ordem na segurança, privacidade e sociedade em geral. Estes são todos os elementos do que se tornou conhecido como AI responsável .
As empresas sabem que precisam desenvolver esse recurso, e muitas já criaram princípios de IA responsáveis para orientar suas ações. O grande desafio está na execução. As empresas geralmente não reconhecem ou sabem como preencher, o abismo entre princípios e ações tangíveis - o que chamamos de cruzar a "lacuna de IA responsável". Para ajudar a atravessar a divisão, destilamos nossos aprendizados de compromissos com várias organizações em seis etapas básicas que as empresas podem seguir.
Companies often don’t know how to cross the “Responsible AI Gap” between principles and tangible actions.
A vantagem da IA responsável
A preocupação está crescendo dentro e fora das salas de diretoria sobre os riscos éticos associados aos sistemas de IA. Uma pesquisa realizada pelo Centro de Governança da IA na Universidade de Oxford mostrou que 82% dos entrevistados Acredite que a IA deve ser cuidadosamente gerenciada. Dois terços dos usuários da Internet Pesquistados pela Brookings Institution, acham que as empresas devem ter um código de ética e revisão da IA. Os executivos começaram a entender os riscos que os sistemas de IA mal projetados podem criar - de litígios caros a perdas financeiras. O dano da reputação e o desengajamento dos funcionários que resultam de lapsos públicos de IA podem ter efeitos de longo alcance. Fazer isso perde o potencial positivo que as empresas podem realizar ao persegui -lo. Além de representar um “Norte Verdadeiro” autêntico e ético para orientar as iniciativas, a IA responsável pode gerar recompensas financeiras que justificam o investimento.
Much of this concern has arisen from failures of AI systems that have received widespread media attention. Executives have begun to understand the risks that poorly designed AI systems can create—from costly litigation to financial losses. The reputational damage and employee disengagement that result from public AI lapses can have far-reaching effects.
But companies should not view Responsible AI simply as a risk-avoidance mechanism. Doing so misses the upside potential that companies can realize by pursuing it. In addition to representing an authentic and ethical “True North” to guide initiatives, Responsible AI can generate financial rewards that justify the investment.
Um resultado final mais forte. A IA responsável pode ser usada para criar sistemas de alto desempenho com resultados mais confiáveis e explicáveis. Quando baseados nos pontos fortes autênticos e éticos de uma organização, esses resultados ajudam a criar maior confiança, melhorar a lealdade do cliente e, finalmente, aumentar as receitas. As principais empresas como Salesforce, Microsoft e Google divulgaram as etapas robustas que tomaram para implementar a IA responsável. E por uma boa razão: as pessoas pesam Companies that practice Responsible AI—and let their clients and users know they do so—have the potential to increase market share and long-term profitability. Responsible AI can be used to build high-performing systems with more reliable and explainable outcomes. When based on the authentic and ethical strengths of an organization, these outcomes help build greater trust, improve customer loyalty, and ultimately boost revenues. Major companies such as Salesforce, Microsoft, and Google have publicized the robust steps they have taken to implement Responsible AI. And for good reason: people weigh Ética três vezes mais fortemente do que competência Ao avaliar a confiabilidade de uma empresa, de acordo com a Edelman Research. A falta de confiança carrega um forte custo financeiro. Nos EUA, pesquisas de BCG mostram que as empresas perderam Um terço da receita dos clientes afetados No ano seguinte a um incidente de uso indevido de dados.
Diferenciação da marca. Cada vez mais, as empresas se tornaram mais focadas em Mantendo -se fiel ao seu propósito e seus princípios fundamentais. E os clientes estão cada vez mais fazendo escolhas para fazer negócios com empresas cujos valores demonstrados estão alinhados com os seus. Empresas que entregam o que o BCG chama Impacto social total (TSI) - O agregado de seu impacto na sociedade - contém margens e avaliações mais altas. As organizações devem garantir que suas iniciativas de IA estejam alinhadas com o que realmente valorizam e o impacto positivo que procuram fazer com seu objetivo. O benefício de se concentrar estritamente na conformidade empalidece em comparação com o valor obtido com o fortalecimento das conexões com clientes e funcionários em um ambiente de negócios cada vez mais competitivo.
Improved Recruiting and Retention. Responsible AI helps attract the elite digital talent that is crítico para o sucesso das empresas mundialmente. No Reino Unido, um em cada seis trabalhadores da IA deixou seu emprego, em vez de ter que desempenhar um papel no desenvolvimento de produtos potencialmente prejudiciais. Isso é mais do que Três vezes a taxa do setor de tecnologia como um todo , de acordo com pesquisas de Doteveryone. Além de inspirar os funcionários que constroem e implantam IA, a implementação de sistemas de IA de maneira responsável também pode capacitar trabalhadores em toda a organização. Por exemplo, a IA responsável pode ajudar a garantir que os sistemas de IA agendam os trabalhadores de maneira a equilibrar os objetivos dos funcionários e da empresa. Ao construir cronogramas mais sustentáveis, as empresas verão a rotatividade de funcionários caírem, reduzindo os custos de contratação e treinamento-com US $ 80 bilhões anualmente nos EUA. A abordagem que muitas organizações adotam foi criar e divulgar os princípios da IA. Em uma pesquisa abrangente da literatura, encontramos mais de 80 conjuntos de tais princípios. Mas quase todos não têm informações sobre como torná -los operacionais. Observamos consistentemente a lacuna entre princípios e práticas - a lacuna de IA responsável.
Putting Principles into Practice
Despite the upsides of pursuing Responsible AI, many companies lack clarity about how to capture these benefits in their day-to-day business. The approach many organizations take has been to create and publicize AI principles. In a comprehensive search of the literature, we found more than 80 sets of such principles. But nearly all lack information about how to make them operational. We consistently observe the gap between principles and practice—the Responsible AI Gap.
AI systems developers want practical methods and resources to help consider societal impact when building products.
Os princípios sem ação são ocos. A falta de ação não apenas falha em perceber o potencial positivo da IA, mas também pode ser percebida negativamente por clientes e funcionários. Para atravessar a lacuna de IA responsável, a direção é urgentemente necessária. De fato, os praticantes de construção de sistemas de IA estão lutando para tomar medidas tangíveis e pedir orientação: 78% dos trabalhadores da tecnologia Pesquisado por dote todos os que desejam métodos e recursos práticos para ajudar a considerar o impacto social ao criar produtos. (Veja o Anexo 1.)
Overcoming these challenges requires going far beyond a narrow focus on the algorithms that power AI. Companies must look at every aspect of end-to-end AI systems. They must address front-end practices such as data collection, data processing, and data storage—and pay heed as well to back-end practices, including the business processes in which a system will be used, the decision makers who will determine when and where to implement a system, and the ways information will be presented. They must also ensure that the systems are robust, while keeping top of mind all the potential ways they can fail. They must also address the Transformação em larga escala e gerenciamento de mudanças associadas Isso pode gerar o maior impacto. Embora possam parecer extensos, os líderes devem lembrar que não exigem um investimento maciço para começar. Cada passo pode começar pequeno, evoluir e expandir com o tempo à medida que uma iniciativa amadurece. O importante é que as organizações devem progredir em cada uma dessas etapas. (Consulte o Anexo 2.)
From our engagements with multiple organizations, we have uncovered six basic steps to make Responsible AI real. While they may appear extensive, leaders should remember that they do not require a massive investment to get started. Each step can begin small and evolve and expand over time as an initiative matures. The important thing is that organizations should make progress across each of these steps. (See Exhibit 2.)
1. Capacitar a liderança responsável da IA. Um campeão interno, como um diretor de ética da IA, deve ser nomeado para se sentar à frente da iniciativa responsável da IA. Esse líder convoca as partes interessadas, identifica campeões em toda a organização e estabelece princípios e políticas que orientam a criação de sistemas de IA. Mas a liderança com a melhor responsabilidade de tomada de decisão não é suficiente. Nenhuma pessoa tem todas as respostas para esses problemas complexos. A propriedade organizacional que incorpora um conjunto diversificado de perspectivas deve estar em vigor para proporcionar um impacto significativo. O comitê deve incluir representação de uma diversidade de funções de negócios (por exemplo, ônibus, relações públicas, jurídica, conformidade, equipe de IA), regiões e antecedentes.
A powerful approach to ensuring diverse perspectives is a multidisciplinary Responsible AI committee that helps steer the overall program and resolve complex ethical issues such as bias and unintended consequences. The committee should include representation from a diversity of business functions (e.g., BUs, public relations, legal, compliance, AI team), regions, and backgrounds. Um estudo recente do BCG sugere que aumentar a diversidade de equipes de liderança leva a uma melhor e melhor inovação e ao melhor desempenho financeiro. O mesmo vale para a IA responsável. Navegar nas questões complexas que inevitavelmente surgirão à medida que as empresas implantam sistemas de IA requer o mesmo tipo de liderança diversificada.
Responsible AI principles should flow directly from the company’s overall purpose and values.
2. Desenvolver princípios, políticas e treinamento. Embora os princípios não sejam suficientes para alcançar a IA responsável, eles são extremamente importantes, pois servem como base para o programa mais amplo que se segue. Os princípios responsáveis da IA devem fluir diretamente do objetivo e dos valores gerais da Companhia para fornecer links claros à cultura e comprometimento corporativos. (Veja o Anexo 3.) O tempo deve ser investido para desenvolver, socializar e disseminar os princípios responsáveis da IA. O processo de solicitação de amplo feedback de toda a organização tem o benefício adicional de identificar preocupações dos funcionários e áreas de risco particularmente alto. Garantir que os princípios sejam comunicados amplamente fornecem aos funcionários o contexto para iniciativas que se seguirão. Os princípios devem ser divididos em políticas e padrões específicos e acionáveis em torno dos quais as equipes podem executar. Sem esses detalhes, as empresas podem deixar de traduzir princípios em ações tangíveis. O treinamento precisa ir além dos desenvolvedores do sistema de IA para abranger todos os níveis e áreas dos negócios-desde o C-suite até os usuários finais dos sistemas de IA. Por fim, a IA responsável é um compromisso compartilhado. Todo mundo tem um papel a desempenhar. As organizações precisam promover uma cultura aberta de “ver algo, dizer algo”, para que os problemas sejam identificados e levantados e que o diálogo honesto ocorra em torno desses assuntos complexos e muitas vezes sensíveis.
A press release or companywide email is not enough to make principles real. Principles must be broken down into specific and actionable policies and standards around which teams can execute. Without these details, companies may fail to translate principles into tangible actions.
Ethical practices require systematic communications and training to educate teams about Responsible AI and a company’s specific approach. Training needs to go beyond AI system developers to span all levels and areas of the business—from the C-suite to the end users of AI systems. Ultimately, Responsible AI is a shared commitment. Everyone has a role to play. Organizations need to foster an open “see something, say something” culture so that issues are identified and raised and that honest dialogue occurs around these complex and often sensitive matters.
3. Estabelecer governança humana + ai. Além da liderança executiva e uma estrutura ética, funções, responsabilidades e procedimentos amplamente compreendidos também são necessários para garantir que as organizações incorporem IA responsável nos produtos e serviços que desenvolvem. A governança eficaz envolve a ponte entre as equipes que constroem produtos de IA e o Comitê de Líderes e Governança, fornecendo supervisão, para que princípios e políticas de alto nível possam ser aplicados na prática. Os elementos incluem caminhos de escalada definidos quando surgem riscos em um estágio de projeto específico, revisões de código padronizadas, ombudspersons encarregados de avaliar as preocupações individuais e melhorias contínuas para fortalecer as capacidades e enfrentar novos desafios.
Responsible AI governance can take a variety of forms. Elements include defined escalation paths when risks emerge at a particular project stage, standardized code reviews, ombudspersons charged with assessing individual concerns, and continuous improvement to strengthen capabilities and confront new challenges.
4. Realize revisões de IA responsáveis. Para que a IA responsável tenha um impacto, a abordagem deve ser integrada à cadeia de valor total. O uso de uma ferramenta de avaliação estruturada ajuda a identificar e mitigar os riscos ao longo do ciclo de vida do projeto, do protótipo à implantação e uso em escala. Essas revisões não devem se limitar aos algoritmos, mas serem uma avaliação abrangente do sistema de IA completo e de ponta a ponta, da coleta de dados a usuários que atuam nas recomendações dos sistemas. No entanto, após o uso da ferramenta de avaliação, a organização pode perceber que o treinamento do modelo em dados históricos de aplicativos de emprego é tendencioso devido a uma participação de grupos minoritários. Através de uma combinação de preparação de dados, ajuste de modelo e treinamento para recrutadores, o sistema de IA pode ajudar a aumentar a diversidade do pool de candidatos. Ou considere uma avaliação de um mecanismo de personalização do comércio eletrônico que usa o comportamento de compra passada e o histórico de crédito para recomendar produtos em um site de varejo de luxo. A ferramenta de avaliação pode ajudar a equipe a identificar que o motor promove sistematicamente produtos para indivíduos de baixa renda. Uma discussão mais ampla pode ser desencadeada sobre as possíveis consequências não intencionais de um sistema que incentive as compras que podem piorar a situação financeira de alguns clientes. Effective integration hinges on regularly assessing the risks and biases associated with the outcomes of each use case. Using a structured assessment tool helps identify and mitigate risks throughout the project life cycle, from prototype to deployment and use at scale. By assessing development and deployment at every step of the journey, AI practitioners can identify risks early and flag them for input from managers, experts, and the Responsible AI governance committee. These reviews should not be limited to the algorithms but be a comprehensive assessment of the complete, end-to-end AI system, from data collection to users acting on the recommendations of systems.
For example, a company might develop a recruiting model that prioritizes candidates for interviews based on their likelihood of receiving job offers. However, after using the assessment tool, the organization might realize that training the model on historical data from job applications is biased due to an underrepresen-tation of minority groups. Through a combination of data preparation, model tuning, and training for recruiters, the AI system could help increase the diversity of the candidate pool. Or consider an assessment of an e-commerce personalization engine that uses past purchase behavior and credit history to recommend products on a luxury retail website. The assessment tool could help the team identify that the engine systematically promotes products to lower-income individuals. A broader discussion could be triggered about the potential unintended consequences of a system that encourages purchases that might worsen the financial situation of some customers.
5. Integrar ferramentas e métodos. Para que os princípios e políticas de IA responsáveis tenham um impacto, os desenvolvedores do sistema de IA devem estar armados com ferramentas e métodos que os suportam. Por exemplo, é fácil para os líderes executivos exigirem que as equipes revisem dados para viés, mas a realização dessas análises pode ser demorada e complexa. O fornecimento de ferramentas que simplificam os fluxos de trabalho, enquanto a operacionalização de políticas responsáveis de IA garante a conformidade e evita a resistência de equipes que já podem estar sobrecarregadas ou operando sob prazos apertados. Esses recursos de aprendizado devem ser disponibilizados para todos os projetos de IA para que possam ser aplicados a diferentes contextos e orientar indivíduos que projetam sistemas de IA. As empresas não podem exigir que as equipes técnicas abordem questões éticas sutis, sem fornecer as ferramentas e o treinamento necessários para fazê -lo. Embora isso possa ter sido verdade há alguns anos, uma variedade de ferramentas e tutoriais comerciais e de código aberto já estão disponíveis. Em vez de construir seus próprios recursos, as empresas podem começar curadoria de um conjunto de recursos mais aplicáveis aos sistemas de IA que desenvolvem. Com o tempo, os recursos podem ser personalizados para as necessidades específicas de uma empresa de maneira a limitar um grande investimento inicial.
Toolkits comprising tutorials, modular code samples, and standardized approaches for addressing common issues such as data bias and biased outcomes are important resources. These learning resources should be made available to everyone involved with AI projects so that they can be applied to different contexts and guide individuals designing AI systems. Companies cannot require technical teams to address nuanced ethical issues without providing them with the tools and training necessary to do so.
Creating these resources may sound like a substantial undertaking. While that may have been true a few years ago, a variety of commercial and open-source tools and tutorials are now available. Instead of building their own resources, companies can begin by curating a set of resources that are most applicable to the AI systems they develop. Over time, resources can be customized to a company’s specific needs in ways that limit a large up-front investment.
6. Construir e testar um plano de resposta. A preparação é fundamental para tornar a IA responsável operacional. Embora todos os esforços sejam feitos para evitar um lapso, as empresas também precisam adotar a mentalidade de que os erros acontecerão. Um plano de resposta deve ser implementado para mitigar impactos adversos aos clientes e à empresa se ocorrer um lapso relacionado à IA. O plano detalha as etapas que devem ser tomadas para evitar mais danos, corrigir problemas técnicos e comunicar aos clientes e funcionários o que aconteceu e o que está sendo feito. O plano também deve designar os indivíduos responsáveis por cada etapa, para evitar confusão e garantir a execução perfeita.
Procedimentos precisam ser desenvolvidos, validados, testados e refinados para garantir que, se um sistema de IA falhar, as consequências prejudiciais serão minimizadas na melhor medida possível. Um exercício de mesa que simula um lapso de IA é uma das melhores ferramentas que as empresas podem usar para testar seu plano de resposta e praticar sua execução. Essa experiência imersiva permite que os executivos entendam como a organização está preparada e onde existem lacunas. É uma abordagem que se mostrou eficaz para segurança cibernética e pode ser igualmente valioso para a IA responsável. Cada etapa não requer uma iniciativa ou investimento maciço. As empresas podem começar com um pequeno esforço que aumenta com o tempo. No entanto, os fundamentos permanecem os mesmos. A liderança ética é crítica, assim como o estabelecimento de suporte amplo para a mudança interna necessária. Esta não é uma questão "ou ou", mas uma oportunidade "ambos/e" na qual a IA responsável pode ser realizada enquanto ainda se encontra - e excedendo - objetivos de negócios. Mas para a IA alcançar um impacto significativo e transformacional nos negócios, deve ser fundamentado no objetivo distinto de uma organização. Somente dessa maneira uma organização pode criar a transparência e a confiança que vincula a empresa e o cliente, gerente e equipe, e cidadão e sociedade. A equipe inclui mais de 800 cientistas e engenheiros de dados que aplicam IA e experiência avançada de análise (por exemplo, aprendizado de máquina, aprendizado profundo, otimização, simulação, análise de texto e imagem) para criar soluções que transformem o desempenho dos negócios. A abordagem da BCG Gamma cria valor e vantagem competitiva na interseção de ciência de dados, tecnologia, pessoas, conhecimento de negócios, processos e maneiras de trabalhar. Para mais informações, visite nosso
An Opportunity for Growth
While our approach may sound demanding, we firmly believe that delivering AI responsibly is achievable for any organization. Each step does not in itself require a massive initiative or investment. Companies can start with a small effort that builds over time.
The specific approach to the six steps we have described will differ depending on each organization’s individual context, including its business challenges, organizational culture, values, and legal environment. Nevertheless, the fundamentals remain the same. Ethical leadership is critical, as is the establishment of broad-based support for the required internal change.
Fortunately, putting Responsible AI into practice does not mean missing out on the business value AI can generate. This is not an “either/or” issue, but rather a “both/and” opportunity in which Responsible AI can be realized while still meeting—and exceeding—business objectives. But for AI to achieve a meaningful and transformational impact on the business, it must be grounded in an organization’s distinctive purpose. Only in that way can an organization build the transparency and trust that binds company and customer, manager and team, and citizen and society.