preocupações sobre os riscos potenciais de inteligência artificial foram discutidos por anos. Mas artigos recentes sobre AI generativo Ferramentas como o ChatGPT desencadearam uma tempestade corporativa em questão de semanas. O que mudou?
Jeanne: A enorme mudança é que ferramentas como ChatGPT são Democratizando Ai. Isso representa uma mudança realmente fundamental na forma como essas ferramentas são usadas e no impacto que podem ter. Antes, a IA era geralmente criada por uma equipe altamente qualificada de pessoas que você contratou para criar modelos proprietários usando poder de computação em larga escala e enormes conjuntos de dados. Ou pode ter sido algo que você comprou de um fornecedor muito especializado. A IA se sentiu mais controlada e foi aplicada mais em reação a um desafio ou oportunidade conhecida. Foi usado para aplicações muito específicas e estreitamente definidas. Agora, você tem ProativoAI—machine learning that can create original content. And the tools are available to everyone. For a CEO, this can be incredibly exciting. Generative AI has the potential to dramatically accelerate innovation and completely change work by eliminating many of the rote, tedious tasks people do every day.
, mas também pode ser aterrorizante. desinformação, representação e roubo de propriedade intelectual, para citar apenas alguns. Mas agora mais executivos estão se conscientizando dos riscos em sua organização, enquanto os funcionários experimentam a IA generativa. Ouvimos falar de pessoas que recebem informações muito confidenciais da empresa, enviando -as em um site externo como o ChatGPT e produzindo um deck do PowerPoint. Alguém poderia enviar notas da conversa que estamos tendo agora em um espaço aberto e cuspindo um artigo antes de terminarmos. Ou eles podem confiar nas informações que um bot de IA está se apresentando de forma convincente como fato que pode levá -los a tomar más decisões ou causar danos.
How so?
Jeanne: There are all the risks and misuses we’re already familiar with—bias, violation of privacy, misinformation, impersonation, and theft of intellectual property, to name just a few. But now more executives are becoming aware of the risks within their organization as employees experiment with generative AI. We’ve heard of people taking very confidential company information, uploading it into an external site like ChatGPT, and producing a PowerPoint deck. Somebody could upload notes of the conversation we’re having now into an open space and spit out an article before we’re finished. Or they could be relying on information an AI bot is convincingly presenting as fact that could lead them to make bad decisions or do harm.
More executives are becoming aware of the risks within their organization as employees experiment with generative AI.
TAD: Eu posso ser ainda mais nítido. Shadow AI - Desenvolvimento que está acontecendo em torno da organização que você pode não conhecer - sempre foi um desafio. Mas você geralmente não se preocupou com isso acontecendo em dez minutos. A IA normalmente foi construída ao longo de um caminho previsível, semelhante em alguns aspectos à forma como o desenvolvimento de software funciona. Esperamos que os CEOs soubessem disso porque era um investimento sério.
Agora todas as barreiras formidáveis ao desenvolvimento caíram. Você não precisa mais de talento especializado. Você não precisa mais de dados proprietários, poder de computação e uma interface complexa. Eu argumentaria que, com essas novas ferramentas disponíveis ao público, provavelmente não é mais possível conhecer ou catalogar tudo o que está acontecendo com a experimentação e desenvolvimento de IA em toda a sua organização.
Como os líderes corporativos estão reagindo? Eles estão vendo artigos sobre o que a IA generativa poderia fazer e dizer: "Preciso aprender muito mais". Então, eles estão configurando forças -tarefa para entender o imenso potencial da IA e como as ameaças podem se aplicar a elas. Mas acho que muitos não entendem a profundidade dessa revolução potencial, a rapidez com que ela está se movendo ou as implicações. Para ser sincero, ainda não tenho certeza de que alguém o faz. Há muita especulação desenfreada que pode ser muito ambiciosa ou não ambiciosa o suficiente. A maioria já possui programas de IA (RAI) responsáveis?
Tad: Right now, executives are having their eyes opened. They’re seeing articles about what generative AI could possibly do and saying, “I need to learn much more.” So they’re setting up task forces to understand both the immense potential of AI and how the threats may apply to them. But I don’t think many understand the depth of this potential revolution, how fast it is moving, or the implications. To be honest, I’m not sure anyone does yet. There is a lot of rampant speculation that may be either too ambitious or not ambitious enough.
How well prepared are companies to mitigate these risks? Don’t most already have responsible AI (RAI) programs?
Jeanne: Varia. O pequeno subconjunto de empresas para as quais a IA é essencial para sua oferta - digamos um mercado on -line que fornece sugestões muito personalizadas - está mais adiante. Seus executivos entendem o poder da IA, pois é central para os negócios deles. Portanto, eles estão bem fundamentados na IA ética. Depois, há todo mundo. Se eles usam a IA, é para casos de uso muito específicos. Portanto, eles estão menos familiarizados com o RAI - e os riscos são muito maiores. Em uma pesquisa recente que realizamos com a MIT Sloan Management Review, mais de 80% dos entrevistados globais concordaram que a RAI deve ser uma prioridade da alta gerência. Mas apenas cerca da metade implementou algum programa. E menos de 20% disseram ter um programa RAI totalmente implementado.
TAD: My guess is that even that 20% has done this only for their known AI. Those with a handle on all the AI underway inside their companies are probably fewer, especially as you define AI more broadly. We recently spoke with the head of enterprise risk for a client. He felt very comfortable that they had good RAI around their corporate-sponsored lighthouse AI development projects. What worries him is all the AI he doesn’t know about. With ChatGPT and generative AI, that kind of activity has just exploded.
Subscribe to our Artificial Intelligence E-Alert.
O que é necessário para um programa RAI bem -sucedido?
Jeanne: Primeiro, você não precisa começar a erguer novas paredes. O objetivo de Rai é aproveitar o poder da IA sem causar danos ou levar a consequências não intencionais. Muito disso trata -se de usar ferramentas existentes de gerenciamento de risco e aplicá -las a novas tecnologias. Começa com ser muito claro sobre seus princípios éticos básicos e definição de corrimãos. Por exemplo, sua empresa pode ter uma "zona sem mosca" sobre o uso da IA que cai fora dos valores corporativos principais. Em seguida, você precisa da governança certa. Tenha uma pessoa em um nível executivo cujo trabalho em tempo integral é garantir que os princípios responsáveis da IA estejam sendo aplicados à medida que você implanta esses recursos. Essa pessoa precisa ser responsável, visível e com recursos adequados - não alguém de cinco níveis que está fazendo isso como um show paralelo. Você também precisa de muita educação para que as pessoas em toda a sua organização entendam os guardrails e as razões para eles ao usar a IA. Em seguida, você precisa das ferramentas e processos certos para o âmago da questão da prevenção de riscos, como bibliotecas de código, testes e controle de qualidade, que garantem que sua IA esteja funcionando como pretendido.
The whole point of RAI is to harness the power of AI without causing harm or leading to unintended consequences.
Como a IA generativa mudou a maneira como as empresas devem abordar a AI responsável? Eles contavam com seus riscos e organizações legais para capturar programas em desenvolvimento antes de revelar algo para o mundo que pode causar danos. Com a IA generativa, isso não será suficiente. Você precisa de IA responsável em esteróides. O RAI precisa ser incorporado à cultura e tecido da sua organização, do funcionário de baixo nível que acabou de deixar uma reunião com notas para resumir ao chefe de pesquisa e desenvolvimento que está tentando usar a IA para revolucionar o desenvolvimento do produto. Você também tem que se mover rápido. Neste espaço, isso agora é medido em semanas. Se você ainda não enviou uma mensagem a todos os seus funcionários sobre o uso adequado de serviços de IA generativos de terceiros, por exemplo, você está muito atrasado e em risco. E se você não tiver nenhum programa para garantir que a IA seja usada com responsabilidade, você está realmente com problemas.
Tad: Until recently, many companies probably focused heavily on AI governance. They counted on their risk and legal organizations to catch programs in development before they unveiled something to the world that might cause damage. With generative AI, that won’t be enough. You need responsible AI on steroids. RAI needs to be built into the culture and fabric of your organization, from the low-level staffer who just left a meeting with notes to summarize to the head of R&D who is trying to use AI to revolutionize product development. You also have to move fast. In this space, that’s now measured in weeks. If you haven’t already sent a message out to all your employees on the appropriate use of third-party generative AI services, for example, you’re very late and at risk. And if you don’t have any programs at all to ensure that AI is used responsibly, you’re really in trouble.
Os governos não estão trabalhando em regulamentos que em breve abordarão tudo isso? Mas, em vez de esperar a legislação, as empresas devem ficar à frente. Mesmo que sua empresa tenha bons valores e princípios - mas não faz nada - é provável que você encontre esses problemas éticos quando você usa a IA. A maior atenção dada ao propósito e ESG também dificulta a ignição da IA responsável. E se a indústria puder implementar o RAI e se auto-regular de certas maneiras, pode tirar alguma pressão da regulamentação realmente draconiana. Há um risco de reação maciça. Se a IA for lançada irresponsável e resultar em todos esses casos de uso negativo - ou apenas falhas de controle de qualidade - as legislaturas reagirão. Eles poderiam pegar essa ferramenta incrível para a inovação e desligá -la. É por isso que é tão importante acertar Rai. Este é um momento para a indústria liderar. De fato, tem um imperativo ético fazê -lo. Jeanne Kwong Bickford
Jeanne: Legislation is coming at the regional, national, and even city level. But rather than wait for legislation, companies should get ahead of it. Even if your company has good values and principles—but does nothing—you’re likely to encounter these ethical issues when you use AI. The greater attention paid to purpose and ESG also makes it hard to ignore responsible AI. And if industry can implement RAI and self-regulate in certain ways, it can take some pressure away from really draconian regulation.
Tad: Jeanne’s right. There’s a risk of massive backlash. If AI is rolled out irresponsibly and results in all these negative use cases—or just failures of quality control—legislatures will react. They could take this amazing tool for innovation and shut it down. That’s why it’s so important to get RAI right quickly. This is a time for industry to lead. Indeed, it has an ethical imperative to do so.