The release of ChatGPT in late 2022 created a groundswell of interest in generative AI. Within hours, users experimenting with this new technology had discovered and shared myriad productivity hacks. In the weeks and months since, organizations have scrambled to keep pace—and to defend against Complicações imprevistas . Algumas organizações já adotaram uma abordagem mais formal, criando equipes dedicadas para explorar como a IA generativa pode Desbloqueie o valor oculto e melhorar a eficiência.
para CEOs, no entanto, AI generativa representa um desafio muito maior. O foco de hoje pode estar nos ganhos de produtividade e limitações técnicas, mas uma revolução em Inovação de modelos de negócios está chegando. Assim como Mosaic, o primeiro navegador gratuito do mundo, inaugurou a era da Internet e aumentou a maneira como trabalhamos e vivemos, a IA generativa tem o potencial de atrapalhar quase todos os setores - prometendo vantagem competitiva e destruição criativa. A implicação para os líderes é clara: a atividade sem fôlego de hoje precisa evoluir para uma estratégia de IA generativa pertencente ao C-suite. Mas, da nossa perspectiva, a prioridade para os CEOs não é totalmente mergulhar na tecnologia; Em vez disso, eles devem se concentrar em como a IA generativa afetará suas organizações e seus setores, e quais escolhas estratégicas permitirão explorar oportunidades e gerenciar desafios. Essas opções são centralizadas em três pilares principais:
This is no small task, and CEOs—who are likely several steps removed from the technology itself—may feel uncertain about their next move. But from our perspective, the priority for CEOs isn’t to fully immerse themselves in the technology; instead, they should focus on how generative AI will impact their organizations and their industries, and what strategic choices will enable them to exploit opportunities and manage challenges. These choices are centered on three key pillars:

Cada pilar levanta uma questão urgente para os CEOs. Quais inovações se tornam possíveis quando todo funcionário tem acesso à IA geradora de memória aparentemente infinita oferece? Como essa tecnologia mudará como as funções dos funcionários são definidas e como elas são gerenciadas? Como os líderes lidam com o fato de que os modelos generativos de IA podem produzir uma saída falsa ou tendenciosa? Mas os CEOs precisam se preparar para o momento em que seus modelos de negócios atuais se tornam obsoletos. Veja como criar estratégias para esse futuro.
Clearly, generative AI is a rapidly evolving space, and each of the pillars above involves short- and long-term considerations—and many other unanswered questions. But CEOs need to prepare for the moment when their current business models become obsolete. Here’s how to strategize for that future.
Potencial: Descubra sua vantagem estratégica
AI has never been so accessible. Tools such as ChatGPT, DALL-E 2, Midjourney, and Stable Diffusion allow anyone to create websites, generate advertising strategies, and Produza vídeos - as possibilidades são ilimitadas. Essa qualidade de "baixo código e código sem código" também facilitará a adoção de recursos de IA em escala. (Consulte “As características funcionais da IA generativa.”)
The Functional Characteristics of Generative AI
Seemingly “Infinite” Memory and Pattern Recognition. Because generative AI is trained on huge amounts of data, its memory can appear infinite. For example, ChatGPT has been trained on a massive portion of publicly available information on the internet. To put this in context, as of 2018 the internet generated 2.5 quintillion bytes of new data daily, according to Domo—the equivalent of 1.2 quintillion words. That number is likely much higher today. Generative AI can also create connections (or recognize patterns) between distant concepts in an almost human-like manner.
Low-Code, No-Code Properties. When describing the impact of ChatGPT, Andrej Karpathy, a founding member of OpenAI, said “the hottest new programming language is English.” That’s because generative AI’s natural-language-processing interface allows nonexperts to create applications with little or no coding required. By contrast, coding assistant systems such as Github Copilot still require competent programmers to operate them.
Lack of a Credible Truth Function. Generative AI’s “infinite” memory can become an infinite hallucination. In reality, the level of error in today’s generative AI systems is an expected characteristic that makes it useful for generating new ideas and content. But because generative AI does not use logic or intelligent thought, instead predicting the most probable next word based on its training data, it should only be used to generate first drafts of content.
Companies are working to make generative AI’s output significantly more reliable by using an approach known as reinforcement learning with human feedback; other approaches that combine generative AI with traditional AI and machine learning have also been considered. Improvements to generative AI are expected soon, with some predicting that it will be able to produce final-draft content by 2030.
Os ganhos imediatos de produtividade podem reduzir bastante os custos. A IA generativa pode Resuma documentos Em questão de segundos, com precisão impressionante, por exemplo, enquanto um pesquisador pode gastar horas na tarefa (em US $ 30 a US $ 50 por hora). Muitos casos usam que dependem do modelo de linguagem grande existente
But generative AI’s democratizing power also means, by definition, that a company’s competitors will have the same access and capabilities. Many use cases that rely on existing large language model
Identify the Right Use Cases
For the CEO, the key is to identify the company’s “golden” use cases—those that bring true competitive advantage and create the largest impact relative to existing, best-in-class solutions.
Such use cases can come from any point along the value chain. Some companies will be able to drive growth through improved offerings; Intercom, a provider of customer-service solutions, is running pilots that integrate generative AI into its customer-engagement tool in a move toward automation-first service. Growth can also be found in reduced time-to-market and cost savings—as well as in the ability to stimulate the imagination and create new ideas. In biopharma, for example, much of today’s 20-year patent time is consumed by R&D; accelerating this process can significantly increase a patent’s value. In February 2021, biotech company Insilico Medicine announced that its AI-generated antifibrotic drug had moved from conceptualization to Phase 1 clinical trials in less than 30 months, for around $2.6 million—several orders of magnitude faster and cheaper than traditional drug discovery.
Once leaders identify their golden use cases, they will need to work with their technology teams to make strategic choices about whether to fine-tune existing LLMs or to train a custom model. (See Exhibit 1.)

Ajustando um modelo existente. Para concluir uma classificação legal complexa. Tal aplicativo pode economizar horas do tempo de um advogado, que pode custar até US $ 500 por hora. E preparará as empresas para o futuro, quando a IA generativa provavelmente evoluirá para um modelo como serviços em nuvem: uma empresa compra a solução com a expectativa de alcançar a qualidade em escala da padronização e confiabilidade do provedor de nuvem. Tais modelos dependem completamente da funcionalidade e do conhecimento do domínio dos dados de treinamento do modelo principal; Eles também estão restritos às modalidades disponíveis, que hoje são compostas principalmente por modelos de idiomas. E eles oferecem opções limitadas para proteger dados proprietários-por exemplo, LLMs de ajuste fino que são armazenados totalmente em instalações. Adapting existing open-source or paid models is cost effective—in a 2022 experiment, Snorkel AI found that it cost between $1,915 and $7,418 to fine-tune a LLM model to complete a complex legal classification. Such an application could save hours of a lawyer’s time, which can cost up to $500 per hour.
Fine-tuning can also jumpstart experimentation, whereas using in-house capabilities will siphon off time, talent, and investment. And it will prepare companies for the future, when generative AI is likely to evolve into a model like cloud services: a company purchases the solution with the expectation of achieving quality at scale from the cloud provider’s standardization and reliability.
But there are downsides to this approach. Such models are completely dependent on the functionality and domain knowledge of the core model’s training data; they are also restricted to available modalities, which today are comprised mostly of language models. And they offer limited options for protecting proprietary data—for example, fine-tuning LLMs that are stored fully on premises.
Treinar um modelo novo ou existente. Configuração, de acordo com os laboratórios AI21. Para colocar esse investimento em contexto, a AI21 Labs estimou que o Google gastou aproximadamente US $ 10 milhões para o treinamento de Bert e Training a custom LLM will offer greater flexibility, but it comes with high costs and capability requirements: an estimated $1.6 million to train a 1.5-billion-parameter model with two configurations and 10 runs per configuration, according to AI21 Labs. To put this investment in context, AI21 Labs estimated that Google spent approximately $10 million for training BERT and
OpenAI
Gastou US $ 12 milhões em um único treinamento para
These costs—as well as data center, computing, and talent requirements—are significantly higher than those associated with other AI models, even when managed through a partnership. The bar to justify this investment is high, but for a truly differentiated use case, the value generated from the model could offset the cost.
Plan Your Investment
Leaders will need to carefully assess the timing of such an investment, weighing the potential costs of moving too soon on a complex project for which the talent and technology aren’t yet ready against the risks of falling behind. Today’s generative AI is still limited by its propensity for error and should primarily be implemented for use cases with a high tolerance for variability. CEOs will also need to consider new funding mechanisms for data and infrastructure—whether, for example, the budget should come from IT, R&D, or another source—if they determine that custom development is a critical and time-sensitive need.
The “fine-tune versus train” debate has other implications when it comes to long-term competitive advantage. Previously, most research on generative AI was public and models were provided through open-source channels. Because this research is now moving behind closed doors, open-source models are already falling far behind state-of-the-art solutions. In other words, we’re on the brink of a generative AI arms race. (See “The Future State of the LLM Market.”)
The Future of the LLM Market
As próximas melhorias em modelos generativos com um grande número de usuários provavelmente virão de logs de sua interação do usuário, dando a esses modelos uma vantagem competitiva significativa sobre novos participantes. Essa realidade, combinada com os custos pesados de dados, infraestrutura e talento necessários para treinar LLMs, significa que o mercado de LLM tem economia e qualidade da escala. Os avanços na IA generativa, portanto, podem estar limitados a grandes empresas, enquanto a democratização do desenvolvimento de IA para pequenas e médias empresas pode ser limitada a casos de uso não diferenciados. Várias grandes empresas investiram fortemente em soluções de pesquisa, mas a facilidade de uso e a precisão do Google ajudaram a diferenciá-lo dos concorrentes. Depois que os usuários preferiram o Google, outros motores não poderiam acompanhar - porque todas as solicitações de pesquisa recebidas pelo Google recebiam melhor e mais inteligentes. Logo, todas as outras soluções B2C desapareceram. Uma situação semelhante ao vencedor-take-all poderia ser exibida no mercado da LLM, com os grandes participantes iniciais eventualmente possuindo os modelos e tendo controle total sobre o acesso.
The jury is still out, but this dynamic appears comparable to the “search-engine wars.” Several large companies invested heavily in search solutions, but Google’s user-friendliness and accuracy helped set it apart from competitors. Once users preferred Google, other engines could not keep up—because every search request Google received made it better and smarter. Soon, all other B2C solutions faded away. A similar winner-take-all situation could play out in the LLM market, with the big, early entrants eventually owning the models and having full control over access.
A winner-take-all situation could play out in the LLM market.
Vale a pena notar, no entanto, que o Google não alcançou o mesmo nível de sucesso no mercado de pesquisa corporativo, que possui requisitos e desafios exclusivos em comparação com o B2C. No nível da empresa, os engenheiros de pesquisa não têm a escala para criar experiência em domínio e não têm o volume de dados do usuário para criar esse recurso. Da mesma forma, as empresas obterão o máximo de valor dos LLMs que são treinados em seus dados proprietários e que possuem modalidades que conduzem casos de uso exclusivos. Isso pode dificultar para qualquer jogador dominar o mercado B2B. O provedor LLM dominará o mercado B2B; A chave para as empresas é encontrar modelos grandes com a modalidade e funcionalidade que correspondem a seus casos de uso de ouro ou casos de uso que requerem dados confidenciais.
There is also the potential for companies and governments to fund open-source models to keep them state of the art—similar to how IBM funded Linux.
These market dynamics have key implications for CEOs as they make customization and implementation decisions:
- It is unlikely that any single LLM provider will dominate the B2B market; the key for companies is to find large models with the modality and functionality that match their golden use cases or use cases that require sensitive data.
- Enquanto a Treination LLMS é uma opção para grandes empresas, a qualidade da escala pode tornar as soluções de compra mais confiáveis (semelhantes à nuvem). Se apenas um pequeno número de pessoas tiver a experiência de avançar e manter o modelo, isso causará um único ponto de falha se esses pesquisadores optarem por sair. Os cientistas de dados precisarão de treinamento especial, habilidades avançadas e profunda experiência para entender como os modelos funcionam - suas capacidades, limitações e utilidade para novos casos de uso de negócios. Grandes players que desejam permanecer independentes enquanto usam a mais recente tecnologia de IA precisarão criar fortes equipes de tecnologia interna. Inscreva -se
- If choosing to train in-house, be wary of relying too much on individual researchers. If only a small number of people have the expertise to advance and maintain the model, this will cause a single point of failure if those researchers choose to leave.
As research accelerates and becomes more and more proprietary, and as the algorithms become increasingly complex, it will be challenging to keep up with state-of-the-art models. Data scientists will need special training, advanced skills, and deep expertise to understand how the models work—their capabilities, limitations, and utility for new business use cases. Large players that want to remain independent while using the latest AI technology will need to build strong internal tech teams.
Subscribe to our Artificial Intelligence E-Alert.
Pessoas: Prepare sua força de trabalho
como formas existentes de Inteligência Artificial , IA generativa é uma força disruptiva para os seres humanos. No curto prazo, os CEOs precisam trabalhar com suas equipes de liderança e líderes de RH para determinar como essa transformação deve se desenrolar dentro de suas organizações-redefinindo as funções e responsabilidades dos funcionários e ajustando os modelos operacionais de acordo. Os algoritmos tradicionais de IA e aprendizado de máquina (às vezes incorretamente chamados de IA analítica), que usam lógica ou estatística poderosa para analisar dados e automatizar ou aumentar a tomada de decisões, permitiram que as pessoas trabalhassem mais autônomas e os gerentes se concentrem cada vez mais na dinâmica da equipe e na sua capacitação. e criatividade. Os funcionários de mais funções clericais, como paralegais e profissionais de marketing, podem usar IA generativa para criar os primeiros rascunhos, permitindo que gastem mais tempo refinando o conteúdo e identificando novas soluções. Os codificadores poderão se concentrar em atividades, como melhorar a qualidade do código em linhas de tempo apertadas e garantir a conformidade com os requisitos de segurança. Os CEOs precisam estar cientes do efeito que a IA tem sobre o bem-estar emocional dos funcionários e a identidade profissional. As melhorias de produtividade geralmente estão conflitadas com a redução da equipe geral, e a IA já empolgou a preocupação entre os funcionários; Muitos graduados acreditam que a IA tornará seu trabalho irrelevante em alguns anos. Mas também é possível que a IA crie tantos empregos quanto deslocará. À medida que as iniciativas de IA são lançadas, as verificações regulares de pulso devem ser realizadas para rastrear o sentimento dos funcionários; Os CEOs também precisarão desenvolver uma iniciativa transparente de gerenciamento de mudanças que ajudará os funcionários a adotar seus novos colegas de trabalho da IA e garantir que os funcionários mantenham a autonomia. A mensagem deve ser que os seres humanos não vão a lugar nenhum - e de fato são necessários para implantar a IA de maneira eficaz e eticamente. (Consulte o Anexo 2.)
Redefine Roles and Responsibilities
Some AI-related shifts have already occurred. Traditional AI and machine-learning algorithms (sometimes incorrectly referred to as analytical AI), which use powerful logic or statistics to analyze data and automate or augment decision making, have enabled people to work more autonomously and managers to increasingly focus on team dynamics and goal setting.
Now generative AI, in its capacity as a first-draft content generator, will augment many roles by increasing productivity, performance, and creativity. Employees in more clerical roles, such as paralegals and marketers, can use generative AI to create first drafts, allowing them to spend more of their time refining content and identifying new solutions. Coders will be able to focus on activities such as improving code quality on tight timelines and ensuring compliance with security requirements.
Of course, these changes cannot (and should not) happen in a vacuum. CEOs need to be aware of the effect that AI has on employees’ emotional well-being and professional identity. Productivity improvements are often conflated with reduction in overall staff, and AI has already stoked concern among employees; many college graduates believe AI will make their job irrelevant in a few years. But it’s also possible that AI will create as many jobs as it will displace.
The impact of AI is thus a critical culture and workforce issue, and CEOs should work with HR to understand how roles will evolve. As AI initiatives roll out, regular pulse checks should be conducted to track employee sentiment; CEOs will also need to develop a transparent change-management initiative that will both help employees embrace their new AI coworkers and ensure employees retain autonomy. The message should be that humans aren’t going anywhere—and in fact are needed to deploy AI effectively and ethically. (See Exhibit 2.)

À medida que a adoção da IA acelera, os CEOs precisam aprender à medida que usam essas lições para desenvolver um plano de trabalho estratégico - em fato o fato de que eles devem começar a criar esse plano e se adaptarem a ele como as lições. Trata -se de mais do que determinar como certas descrições do trabalho mudarão - é garantir que a empresa tenha as pessoas e a gerência certas para se manter competitiva e aproveitar ao máximo seus investimentos em IA. Entre as perguntas, os CEOs devem fazer, pois avaliam os pontos fortes, fraquezas e prioridades de sua empresa: Preparado para liderar uma força de trabalho com união de AI?
- What competencies will project leaders need to ensure that individual contributors’ work is of sufficient quality?
- How can CEOs create the optimal experience curve to produce the right future talent pipeline—ensuring, for example, that employees at a more junior level are upskilled in AI augmentation and that supervisors are prepared to lead an AI-augmented workforce?
- Como o treinamento e o recrutamento devem ser ajustados para construir uma força de trabalho de alto desempenho agora e no futuro?
Adjust Your Operating Model
We expect that Modelos ágeis (ou biônicos) permanecerá o mais eficaz e escalável a longo prazo, mas com os departamentos de TI e P&D centralizados com especialistas que podem treinar e personalizar o LLMS. Essa centralização deve garantir que os funcionários que trabalham com tipos semelhantes de dados tenham acesso aos mesmos conjuntos de dados. Quando os dados são siliados dentro de departamentos individuais-uma ocorrência muito comum-as comprasão terão dificuldades para realizar o verdadeiro potencial generativo da IA. Mas, nas condições certas, a IA generativa tem o poder de eliminar o compromisso entre agilidade e escala. Este executivo deve colocar pequenas equipes de ciência de dados ou engenharia em cada unidade de negócios para adaptar modelos para tarefas ou aplicativos específicos. As equipes técnicas terão, portanto, a experiência do domínio e o contato direto para apoiar colaboradores individuais, limitando idealmente a distância entre os líderes da plataforma ou da tecnologia e os colaboradores individuais de uma camada. Plataformas. As implicações dessa característica, também conhecida como "alucinação", podem variar de pontos fracos humorísticos a erros prejudiciais ou perigosos. Mas a IA generativa também apresenta outros riscos críticos para empresas, incluindo violação de direitos autorais; vazamentos de dados proprietários; e funcionalidade não planejada que é descoberta após uma liberação de produto, também conhecida como excesso de capacidade. (Consulte Anexo 3.) Por exemplo, a rifusão usou um modelo de texto a imagem, difusão estável, para criar novas músicas convertendo dados musicais em espectrogramas. O desempenho está dentro de corrimões bem estabelecidos. A experimentação deve ser incentivada; No entanto, é importante rastrear todos os experimentos em toda a organização e evitar “experimentos de sombra” que correm o risco de expor informações confidenciais. Essas políticas também devem garantir a propriedade clara de dados, estabelecer processos de revisão para impedir que conteúdo incorreto ou prejudicial seja publicado e proteger os dados proprietários da empresa e de seus clientes. As propriedades de baixo código e código de IA generativos podem fazer com que os funcionários se sintam excessivamente confiantes em sua capacidade de concluir uma tarefa para a qual não têm a formação ou habilidade necessária; A equipe de marketing, por exemplo, pode ser tentada a ignorar as regras corporativas de TI e escrever código para criar uma nova ferramenta de marketing. Cerca de 40% do código gerado pela IA é inseguro, de acordo com o Centro de Segurança Cibernética da NYU - e porque a maioria dos funcionários não está qualificada para avaliar as vulnerabilidades do código, isso cria um risco de segurança significativo. A assistência da IA na redação do código também cria um risco de qualidade, de acordo com um estudo da Universidade de Stanford, porque os codificadores podem se tornar super-confiantes na capacidade da IA de evitar vulnerabilidades. A política da empresa deve ditar que os funcionários usam apenas dados que entendem completamente e que todo o conteúdo gerado pela IA é minuciosamente revisado pelos proprietários de dados. Aplicativos generativos de IA (como bate -papo) já começaram a implementar a capacidade de fazer referência a dados de origem, e essa função pode ser expandida para identificar os proprietários de dados.
Because of the increased importance of data science and engineering, many companies will benefit from having a senior executive role (for example, a chief AI officer) oversee the business and technical requirements for AI initiatives. This executive should place small data-science or engineering teams within each business unit to adapt models for specific tasks or applications. Technical teams will thus have the domain expertise and direct contact to support individual contributors, ideally limiting the distance between the platform or tech leaders and individual contributors to one layer.
Structurally, this could involve department-focused teams with cross-functional members (for example, sales teams with sales reps and dedicated technical support) or, preferably, cross-departmental and cross-functional teams aligned to the business and technical platforms.
Policies: Protect Your Business
Generative AI lacks a credible truth function, meaning that it doesn’t know when information is factually incorrect. The implications of this characteristic, also referred to as “hallucination,” can range from humorous foibles to damaging or dangerous errors. But generative AI also presents other critical risks for companies, including copyright infringement; leaks of proprietary data; and unplanned functionality that is discovered after a product release, also known as capability overhang. (See Exhibit 3.) For example, Riffusion used a text-to-image model, Stable Diffusion, to create new music by converting music data into spectrograms.

Prepare for Risk
Companies need policies that help employees use generative AI safely and that limit its use to cases for which its performance is within well-established guardrails. Experimentation should be encouraged; however, it is important to track all experiments across the organization and avoid “shadow experiments” that risk exposing sensitive information. These policies should also guarantee clear data ownership, establish review processes to prevent incorrect or harmful content from being published, and protect the proprietary data of the company and its clients.
Another near-term imperative is to train employees how to use generative AI within the scope of their expertise. Generative AI’s low-code, no-code properties may make employees feel overconfident in their ability to complete a task for which they lack the requisite background or skills; marketing staff, for example, might be tempted to bypass corporate IT rules and write code to build a new marketing tool. About 40% of code generated by AI is insecure, according to NYU’s Center for Cybersecurity—and because most employees are not qualified to assess code vulnerabilities, this creates a significant security risk. AI assistance in writing code also creates a quality risk, according to a Stanford University study, because coders can become overconfident in AI’s ability to avoid vulnerabilities.
Leaders therefore need to encourage all employees, especially coders, to retain a healthy skepticism of AI-generated content. Company policy should dictate that employees only use data they fully understand and that all content generated by AI is thoroughly reviewed by data owners. Generative AI applications (such as Bing Chat) have already started implementing the ability to reference source data, and this function can be expanded to identify data owners.
Ensure Quality and Security
Leaders can adapt existing recommendations regarding Publicação responsável Para orientar os lançamentos de conteúdo e código generativos de IA. Eles devem exigir documentação robusta e configurar um Conselho de Revisão Institucional para revisar a priori Considerações de impacto, semelhantes aos processos para publicar pesquisas científicas. O licenciamento de usos a jusante, como a licença de IA responsável (Rail), apresenta outro mecanismo para gerenciar a falta de uma função de verdade da IA generativa. Todas as informações digitadas em ferramentas generativas de IA serão armazenadas e usadas para continuar treinando o modelo; Até a Microsoft, que fez investimentos significativos em IA generativa, alertou seus funcionários a não compartilhar dados confidenciais com o ChatGPT. Uma opção para a privacidade de dados é armazenar o modelo completo em instalações ou em um servidor dedicado. (O Bloom, um modelo de código aberto do grupo Bigscience do Hugging Face, é do tamanho do GPT-3, mas requer apenas cerca de 512 gigabytes de armazenamento.) Isso pode limitar a capacidade de usar soluções de ponta. Além de compartilhar dados proprietários, há outras preocupações de dados ao usar o LLMS, incluindo a proteção de informações de identificação pessoal. Os líderes devem considerar alavancar técnicas de limpeza, como o reconhecimento de entidade nomeado para remover nomes de pessoa, local e organização. À medida que os LLMs amadurecem, as soluções para proteger informações confidenciais também ganharão sofisticação - e os CEOs devem atualizar regularmente seus protocolos e políticas de segurança. Mas também força os CEOs a lidar com incógnitas imponentes e a fazê -lo em um espaço que possa parecer desconhecido ou desconfortável. A criação de uma abordagem estratégica eficaz para a IA generativa pode ajudar a distinguir o sinal do ruído. Os líderes que estão preparados para reimaginar seus modelos de negócios-identificando as oportunidades certas, organizando sua força de trabalho e modelos operacionais para apoiar a inovação generativa da IA e garantir que a experimentação não seja às custas de segurança e ética-podem criar vantagem competitiva de longo prazo. François Candelon
Finally, leaders should caution employees against using public chatbots for sensitive information. All information typed into generative AI tools will be stored and used to continue training the model; even Microsoft, which has made significant investments in generative AI, has warned its employees not to share sensitive data with ChatGPT.
Today, companies have few ways to leverage LLMs without disclosing data. One option for data privacy is to store the full model on premises or on a dedicated server. (BLOOM, an open-source model from Hugging Face’s BigScience group, is the size of GPT-3 but only requires roughly 512 gigabytes of storage.) This may limit the ability to use state-of-the-art solutions, however. Beyond sharing proprietary data, there are other data concerns when using LLMs, including protecting personally identifiable information. Leaders should consider leveraging cleaning techniques such as named entity recognition to remove person, place, and organization names. As LLMs mature, solutions to protect sensitive information will also gain sophistication—and CEOs should regularly update their security protocols and policies.
Generative AI presents unprecedented opportunities. But it also forces CEOs to grapple with towering unknowns, and to do so in a space that may feel unfamiliar or uncomfortable. Crafting an effective strategic approach to generative AI can help distinguish the signal from the noise. Leaders who are prepared to reimagine their business models—identifying the right opportunities, organizing their workforce and operating models to support generative AI innovation, and ensuring that experimentation doesn’t come at the expense of security and ethics—can create long-term competitive advantage.