JA

Projetando produtos generativos de IA que os usuários vão adorar

por Matthew Kropp, Matt Scharpnick, Nathan Medford, Jerry Ronaghan, Nick Cristea e Melanie Herschfeld
Artigo 12 Min Read

Tecla toca

A construção de produtos generativos de IA (Genai) para escala envolve desafios únicos. Uma chave para realizar todo o potencial dessa nova tecnologia poderosa é otimizar a experiência do usuário (UX). UP. validando saídas críticas com base na relevância, precisão e alinhamento da marca; testar o produto para usabilidade, confiança e capacidade; Analítica ao vivo em tempo real com usuários reais; e monitoramento contínuo adicional com ferramentas genai que atuam como usuários sintéticos.
  • Our UX design framework was developed to help organizations better integrate GenAI tools into new and existing workflows.
  • The framework focuses on four modes of user interaction with GenAI: analyzing content, defining intent, refining outputs, and acting and following up.
  • To reduce the risk of misinformation and inaccurate responses, we created a five-step methodology to continuously monitor and test GenAI outputs.
  • These steps include an early-stage task force review; validating critical outputs based on relevance, accuracy, and brand alignment; pilot-testing the product for usability, trust, and capability; real-time, live analytics with actual users; and further continuous monitoring with GenAI tools that act as synthetic users.
= Salvo para Meu conteúdo salvo

para empresas interessadas em lançar AI generativa (Genai) Ferramentas, experimentar a tecnologia é relativamente fácil devido ao poder dos grandes modelos fundamentais de linguagem, como GPT-3 e GPT-4 do OpenAI, LLAMA da Meta e Palm2 do Google. Mas o sucesso inicial com uma prova de conceito da Genai pode levar a um falso senso de que será fácil escalar em um produto pronto para a empresa. De fato, os executivos estão aprendendo rapidamente que a criação de produtos Genai para escala introduz incertezas e desafios muito maiores do que com muitas outras tecnologias. Neste artigo, nos aprofundamos nos meandros de otimizar a experiência do usuário, compartilhando uma estrutura de design de UX e metodologia de teste. Isso é especialmente verdadeiro quando as ferramentas assumem a forma de um "agente" da Genai que possui recursos criativos e proativos que podem operar em segundo plano em nome das pessoas - tudo de procurar fatos relevantes para adicionar a uma discussão para conduzir entrevistas com PME em nome da equipe. Com isso em mente, desenvolvemos uma estrutura de design UX para ajudar as organizações a integrar melhor as ferramentas da Genai em seus novos e existentes fluxos de trabalho. Essa estrutura pode orientar os designers de produtos, como eles pensam pelas maneiras mais prováveis ​​das maneiras que as pessoas interagem com esses sistemas. Nós os classificamos como analisando, definindo, refinando e atuando. (Consulte o Anexo 1.)

One critical area that must be examined to realize the full potential of GenAI is the user experience (UX). In this article we delve into the intricacies of optimizing user experience by sharing a UX design framework and testing methodology.

Designing the User Experience

When a technology as powerful as GenAI emerges, leaders have to consider the many possible ways that people will need to interact with it. This is especially true when the tools take the form of a GenAI “agent” that possesses creative and proactive capabilities that can operate in the background on people’s behalf—everything from seeking out relevant facts to add to a discussion to conducting SME interviews on behalf of the team. With this in mind, we have developed a UX design framework to help organizations better integrate GenAI tools into their new and existing workflows. This framework can guide product designers as they think through the most likely ways people will interact with these systems.

Our UX framework focuses on four distinct modes of interaction that people are likely to have with these technologies. We classify them as Analyzing, Defining, Refining, and Acting. (See Exhibit 1.)

Analisando o conteúdo

Grande parte da promessa da IA ​​está em sua capacidade de eliminar tarefas mundanas ou repetitivas dos fluxos de trabalho. Os agentes da Genai “sempre atendidos” são configuráveis ​​para funcionar em paralelo com atividades humanas, oferecendo um aumento útil em tempo real. Por exemplo, um assistente pode ouvir as reuniões da equipe e determinar quando há uma lacuna de informação ou antecipar e sugerir as melhores ações. Os agentes sempre atendidos já estão presentes em ferramentas como equipes da Microsoft e zoom para transcrição e resumo e estão se espalhando rapidamente em cenários específicos de tarefas, como centers de contato de atendimento ao cliente.

Nesse modo de interação, as considerações de UX são sobre controlar o que a IA está prestando atenção - registro, análise etc. - e deixar claro para os usuários o que está fazendo. Projetar onde, quando e como o genai é usado em um modo sempre on-line deve ser feito em consulta direta com os usuários pretendidos e através de um processo de treinamento iterativo e construção de confiança. (Uma mistura de voz e imagem, por exemplo). Essas são novas maneiras de interagir com as máquinas - e ao descrever o que alguém quer em palavras pode parecer um ato simples, a maioria dos usuários não tem experiência em engenharia imediata. Sem o conhecimento deles, o modelo pode produzir respostas variáveis ​​ou aparentemente inconsistentes com pequenas alterações de palavras ou atualizações de modelo. Além disso, os campos de entrada de texto não são os métodos de interação mais rápidos ou precisos. Qual é a experiência de integração? Como os usuários podem avançar progressivamente sua confiança, velocidade para saída e qualidade geral? E como as próprias ferramentas da Genai podem aprender sobre as necessidades, interesses e comportamentos de seus usuários para oferecer melhores experiências? Por exemplo, o aumento das interfaces de bate-papo com controles familiares de interface, como botões ou filtros, pode ajudar a reduzir os erros e permitir que os usuários oriem o Genai em direção a resultados com uma chance muito maior de sucesso pela primeira vez. O processo de iteração em direção à resposta ou saída correta é uma parte fundamental da interação usuário -AI - uma interação que se torna cada vez mais complexa à medida que a IA se integra ao software corporativo existente e envolve vários usuários ao mesmo tempo. Considere um itinerário de viagem, painel de análise ou vídeo de marketing como saídas da Genai. Cada um contém diferentes tipos de mídia combinados de maneiras únicas. Embora essas saídas possam ser exibidas dentro do corpo de uma conversa de texto, é estranho refiná -las sozinhas na conversa. Idealmente, um usuário pode selecionar parte de uma saída e refiná -lo isoladamente. Às vezes, é mais eficiente aproveitar os elementos UX existentes para refinar uma imagem, principalmente para tarefas familiares, simples e repetíveis. Outras vezes, a linguagem natural abre as portas para tarefas complexas e sob medida, como remixar uma imagem no estilo do artista favorito do usuário.

Defining Intent

As opposed to the traditional button clicks of most user interfaces, engaging with GenAI tools often involves unstructured natural language text, verbal inputs, or even multi-modal inputs (a mix of voice and image, for example). These are new ways of interacting with machines—and while describing what someone wants in words may seem like a simple act, most users are not experienced in prompt engineering. Unbeknownst to them, the model can produce variable or seemingly inconsistent responses with slight word changes or model updates. Moreover, text input fields are not the fastest or most precise methods of interaction.

Since some users will struggle to understand the full capabilities of the GenAI tool or what it’s ideally built to accomplish, the learning curve for both the user and the tool should be fully considered. What is the onboarding experience? How can users progressively advance their confidence, speed-to-output, and overall quality? And how can the GenAI tools themselves learn about their users’ needs, interests, and behaviors to deliver better experiences? For example, augmenting chat interfaces with familiar interface controls, such as buttons or filters, could help reduce mistakes and enable users to guide the GenAI toward outcomes with a much higher chance of first-time success.

Refining Outputs

Even when user intent is clearly understood, the GenAI tool rarely delivers results perfectly with its first output. The process of iterating toward the correct answer or output is a fundamental part of the user–AI interaction—an interaction that becomes increasingly complex as the AI integrates with existing enterprise software and involves multiple users at the same time.

Another source of complexity is that GenAI outputs have different constituent parts. Consider a travel itinerary, analytics dashboard, or marketing video as GenAI outputs. Each contains different types of media combined in unique ways. While these outputs could all be displayed within the body of a text conversation, it’s awkward to refine them through conversation alone. Ideally, a user can select part of an output and refine it in isolation. Sometimes it’s most efficient to leverage existing UX elements to refine an image, particularly for familiar, simple, and repeatable tasks. Other times, natural language opens the door for complex and bespoke tasks, such as remixing an image in the style of the user’s favorite artist.

Acting and Following Up

As GenAI agent models move Inteligência Artificial Desde apenas entregar informações até também tomar ações, surgem novas possibilidades e complexidades. Os agentes da Genai conversam com outros agentes da Genai e as APIs precisam exibir visualmente suas intenções aos usuários humanos, mas essas interações devem ser projetadas com cuidado. Isso pode parecer uma ótima maneira de ajudar a equipe a ser mais eficiente na conclusão de sua tarefa. Mas quando as pessoas realmente se sentem confortáveis, permitindo que a IA tome essas etapas? Como eles impedem que ele interrompa constantemente com sugestões e maximize o que pode fazer pelo grupo? Como essas perguntas mudam com base em se uma equipe - ou um membro individual da equipe - está interagindo com a IA? A confiança crescerá ao longo do tempo à medida que a equipe treina a IA, exigindo menos intervenção e permitindo uma atividade de fundo mais proativa? Mas, à medida que esses agentes desenvolvem um histórico de sucesso, é provável que as atividades proativas sem intervenção humana sejam cada vez mais permitidas. Como observado, por exemplo, as ferramentas genai podem fornecer respostas que variam de acordo com o usuário e até por interação. Além disso, essa variabilidade aumenta à medida que as ferramentas obtêm acesso a conjuntos de dados maiores fora do controle da organização. Isso aumenta os riscos de desinformação e respostas imprecisas. (Veja o Anexo 2.)

For example, imagine that during a live meeting an AI agent identifies the need for certain data, then proactively does research and delivers that data to the team before the meeting ends. That might sound like a great way to help the team be more efficient in completing its task. But when are people actually comfortable allowing the AI to take these steps? How do they prevent it from constantly interrupting with suggestions while maximizing what it can do for the group? How do these questions change based on whether a team—or an individual team member—is interacting with the AI? Will confidence grow over time as the team trains the AI, requiring less intervention and allowing for more proactive background activity?

Early on, we expect that teams will want GenAI agents to deliver preliminary input that humans modify and approve before deploying. But as these agents develop a successful track record, it’s likely that proactive background activities without human intervention will be increasingly permitted.

Implementing a Testing Methodology

Although well-designed workflows are certainly possible, the unpredictable nature of GenAI is causing some organizations to hesitate in rolling out GenAI tools across the enterprise. As noted, for example, GenAI tools can give answers that vary by user and even by interaction. Moreover, this variability increases as the tools gain access to larger datasets outside the organization’s control. This increases the risks of misinformation and inaccurate responses. (See Exhibit 2.)

To ensure that a particular application of GenAI is effective and remains so, it’s important to continuously monitor and test the outputs using a robust methodology. BCG’s newly developed monitoring and testing methodology has five key activities designed specifically for GenAI tools. These methodologies are still developing as the technology rapidly advances, and companies may wish to modify some of these steps to meet their needs. That said, elements like these are highly recommended to de-risk exposure and improve the desirability of the tool. (See Exhibit 3.)

1. Identificação em estágio inicial
Aconselhamos que os testes de produtos da Genai devem começar com uma força -tarefa de incubação em um ambiente interno controlado antes de se estender a um público mais amplo. Durante a fase de incubação, o objetivo é validar as respostas da ferramenta Genai e, por extensão, os dados usados ​​para treinar o modelo subjacente. Esse processo inclui a identificação das perguntas ou tarefas cruciais que a ferramenta deve responder ou executar sem produzir resultados inconsistentes, como listar os tamanhos e as cores disponíveis para um determinado produto. Ao definir claramente essas perguntas "deve responder", uma empresa pode definir um nível de precisão da linha de base exigido pela ferramenta Genai antes de colocá -la nas mãos dos usuários.

2. Critérios de aceitação
Depois que uma força -tarefa interna é selecionada e um conjunto de perguntas "deve responder" criadas, é hora de começar a validar o produto. As respostas do produto às perguntas são classificadas usando três critérios em uma escala de 1 a 5:

Scoring against these criteria provides robust data on the improvements needed to better satisfy each “must answer” question and mitigates the chances for hallucinations (nonsensical or outright false answers) and other inaccuracies. Once the tool achieves a satisfactory score (as determined by each company) for each task or question, the tool can move to a broader pilot.

During the pilot phase, it’s likely that the set of “must answer” questions and tasks has expanded to incorporate new capabilities based on user feedback during the incubation phase. Each task and question in the pilot is also scored on a scale of 1–5 based on relevance, accuracy, and brand alignment.

3. Teste de produto
Além dos critérios de aceitação, é fundamental validar a usabilidade do produto. Além das métricas tradicionais de usabilidade, a confiança e a capacidade são lentes adicionais a serem consideradas com genai. Realize com a ferramenta? Uma vez que o produto atinge uma pontuação alta o suficiente nos critérios de aceitação e nas métricas de teste do produto, a empresa pode mover o produto do piloto para os testes "em escala".

We recommend that product testing criteria are introduced in the late incubation or early pilot stages, when users are more likely to receive high-quality responses. Once the product achieves a high-enough score on both the acceptance criteria and the product testing metrics, the company can move the product from the pilot to “at-scale” testing.

4. Analytics ao vivo Para avaliar com precisão o impacto de um produto Genai, pois ele escala do piloto para uma solução de nível corporativo, a empresa precisa incorporar análises em tempo real no produto. Um exemplo simples é o polegar para cima/para baixo após cada resposta no ChatGPT. Uma versão mais robusta seria se o produto Genai seguisse os usuários fazendo perguntas adaptadas às suas sessões. Por exemplo, As instruções o ajudaram a corrigir o problema do seu servidor? Isso ajuda a garantir um declínio na qualidade das respostas e usabilidade, enquanto o produto permanece alinhado com os critérios de aceitação estabelecidos na Etapa 2. These analytics gather rich qualitative and quantitative data on hyper-specific use cases at a scale usually unattainable with human research teams alone. This helps to ensure against a decline in the quality of responses and usability, while the product remains aligned with the acceptance criteria established in step 2.

5. Monitoramento AI A fase final da metodologia de teste é o monitoramento contínuo e a melhoria das respostas de risco em uma escala corporativa. Para esse fim, as empresas podem implantar outras ferramentas da Genai que atuam como usuários sintéticos, classificando as respostas do produto usando os critérios de aceitação e teste de produto. Esse monitoramento ajuda as organizações a avaliar se são necessárias alterações nos dados usados ​​para treinar o modelo subjacente, adicionando assim uma camada extra de controle de qualidade juntamente com o teste do usuário. As empresas também podem ajustar a sensibilidade de vários modelos de validação para definir limites para respostas altamente aceitáveis ​​e altamente inaceitáveis. Essas descobertas podem ser alimentadas de volta ao produto para refinar suas respostas futuras e garantir um processo de melhoria contínua. Exige que uma empresa aborde uma série de processos -chave - incluindo a compreensão das implicações para pessoas e processos organizacionais - e gerencia as mudanças que o acompanham. Nossa estrutura para projetar a experiência do usuário e nossa metodologia para testar produtos Genai pode ajudar os executivos a navegar nessas complexidades com precisão e criar uma experiência verdadeiramente diferenciada para clientes e funcionários. Inscreva -se

Mastering the User Experience

Moving from a GenAI proof of concept to a full-scale implementation is no easy task. It requires that a company addresses a range of key processes—including understanding the implications for people and organizational processes—and manages the accompanying changes. Our framework for designing the user experience and our methodology for testing GenAI products can help executives navigate these complexities with precision and create a truly differentiated experience for customers and employees alike.

Subscribe to our Artificial Intelligence E-Alert.

Autores

Diretor Gerente e Parceiro Sênior

Matthew Kropp

Diretor Gerente e Parceiro Sênior
São Francisco - Área da Baía

Diretor Associado

Matt Scharpnick

Diretor Associado
São Francisco - Área da Baía

Designer estratégico Lead

Nathan Medford

Designer estratégico principal
Filadélfia

Diretor Gerente, BCG X

Jerry Ronaghan

Diretor Gerente, BCG X
Nova Iorque

Diretor Associado

Nick Cristea

Diretor Associado
São Francisco - Área da Baía

Diretor Associado de Platinion

Melanie Herschfeld

Diretor Associado de Platinion
Washington, DC

Conteúdo relacionado

Salvo para Meu conteúdo salvo
Salvo para Meu conteúdo salvo