Toda equipe de TI que decide implementar IA no service desk passa pelo mesmo momento: a ferramenta está configurada, o agenteestá no ar, e as respostas são genéricas, incorretas ou incompletas. O diagnóstico instintivo é que a ferramenta precisa de ajuste. O diagnóstico correto, quase sempre, é outro.
A Gestão do Conhecimento é o pré-requisito de qualquer projeto de IA para operações de TI. E ela não precisa de meses de planejamento para começar a funcionar. Com foco nas etapas certas, quatro semanas são suficientes para ter uma base estruturada, com artigos que a IA consegue usar, e resultados visíveis para apresentar para a liderança.
Este post tem um plano semana a semana, sem teoria por teoria. No final, há um template gratuito com tudo que você vai precisar para executar. Esse é o mesmo material que uso como base nas mentorias individuais do ITIL Data Master.
Por que 30 dias? E por que agora?
A Gestão do Conhecimento é a prática que mais sofre com o perfeccionismo. Equipes passam meses planejando a taxonomia ideal, a ferramenta certa, o fluxo de aprovação perfeito, e no final a base continua vazia. O plano de 30 dias existe para quebrar esse ciclo.
A urgência do “agora” vem diretamente da IA. Se a sua operação já usa ou está prestes a usar agente de IA, triagem automática ou qualquer ferramenta de IA generativa para suporte, cada semana com uma base desestruturada é uma semana em que o sistema responde mal, e constrói desconfiança no usuário que vai ser difícil de reverter depois.
Ao final dos 30 dias, você vai ter:
Diagnóstico: entenda o que existe hoje
Antes de criar qualquer artigo ou definir qualquer taxonomia, você precisa saber o que já existe, e em que estado está. O diagnóstico evita que você construa por cima de um problema que vai te sabotar depois.
Inventário de repositórios
Mapeie todos os lugares onde o conhecimento da operação existe hoje, independente do formato. O que você vai encontrar na maioria das operações:
| Repositório | O que verificar | Situação típica |
|---|---|---|
| Base de conhecimento no ITSM | Quantidade de artigos, data do último update, campos preenchidos | Desatualizada ou incompleta |
| SharePoint / wiki interno | Documentos de procedimento, runbooks, guias de troubleshooting | Descentralizado, sem padrão |
| E-mails com soluções | Respostas de analistas sênior nunca documentadas formalmente | Conhecimento preso em caixas de entrada |
| Histórico de tickets | Soluções registradas no campo “resolução” dos chamados | Qualidade muito variável |
| Cabeças da equipe | Conhecimento que existe só na memória dos analistas mais experientes | O maior risco operacional |
Os 10 incidentes mais recorrentes
Este é o entregável mais importante da Semana 1. Extraia do seu ITSM os 10 incidentes com maior volume de ocorrência nos últimos 90 dias. Eles serão os primeiros artigos a serem criados, e os de maior impacto imediato no agente. Para cada um, verifique se já existe um artigo de conhecimento correspondente. Provavelmente a maioria não tem.
Avaliação de qualidade
Para os artigos que existem, aplique um teste rápido: um analista novo consegue resolver o problema lendo apenas o artigo, sem pedir ajuda? Se a resposta for não , o artigo não serve para a IA também.
Estrutura: taxonomia, modelo e RACI
Com o diagnóstico em mãos, a Semana 2 é de construção. Você vai definir a arquitetura da base, como o conhecimento é organizado, e o modelo padrão que garante que a IA consiga usar cada artigo.
A política de Gestão do Conhecimento
A política é o documento que formaliza o processo. Sem ela, cada pessoa documenta de um jeito diferente. Ela precisa responder seis perguntas: qual o objetivo, qual o escopo, quem são os responsáveis, quais são os prazos, com que frequência os artigos são revisados e o que acontece quando um artigo expira. Um artigo expirado não deve estar visível para a IA e essa regra precisa estar escrita.
O modelo padrão de artigo — IA-ready
Todo artigo criado na base precisa seguir a mesma estrutura para ser considerado “IA-ready”. São seis campos obrigatórios:
- Sintoma — o que o usuário ou sistema reporta, de forma específica. Não “não funciona”, mas o erro exato, como ele aparece e em qual contexto.
- Contexto de aplicação — quando este artigo se aplica e quando não se aplica. Esse campo evita que a IA sugira o procedimento certo para o problema errado.
- Procedimento — passo a passo numerado, com verbos no imperativo. A IA transcreve o que está escrito, sem passos implícitos.
- Critério de sucesso — como confirmar que o problema foi resolvido. Resultado observável, sem ambiguidade.
- Tags — mínimo de três tags para recuperação pelo índice vetorial da IA. Artigo sem tags pode não ser recuperado mesmo sendo o correto.
- Revisor e data de revisão — sem responsável nominado, ninguém revisa quando o prazo expira. Artigo expirado sem revisão deve ser oculto automaticamente da IA.
Taxonomia
A taxonomia define como o conhecimento é categorizado. Ela é o que permite a IA filtrar o contexto antes de recuperar o artigo. As categorias mínimas para uma operação de TI: Acesso e Identidade, Infraestrutura, Aplicações Corporativas, Segurança, Service Desk/FAQ e Erros Conhecidos (KEDB). Adapte à sua realidade. O que importa é que toda a equipe use as mesmas categorias.
RACI: quem faz o quê
A Gestão do Conhecimento falha quando não está claro quem é responsável por cada etapa. Defina formalmente: o Knowledge Manager governa o processo e aprova artigos; os analistas criam e atualizam; os gestores de Incidentes e Problemas identificam os candidatos a se tornarem artigos; a equipe de IA reporta erros/lacunas; a liderança aprova investimentos e acompanha KPIs.
Conteúdo: os 10 primeiros artigos
Esta é a semana de maior impacto prático. Cada artigo criado aqui representa um problema que a IA vai conseguir resolver (ou pelo menos sugerir a solução correta) sem intervenção humana. A meta é simples: dois artigos por dia útil, revisados e publicados até o final da semana.
Priorização: qual artigo criar primeiro
Use os 10 incidentes identificados na Semana 1 como guia. Priorize os que combinam alto volume de ocorrência com solução sempre a mesma, pois são esses que a IA vai automatizar com mais facilidade. Incidentes onde a solução varia muito por contexto ficam para depois.
O fluxo de criação
Analista preenche o modelo padrão em até 2 horas por artigo. Submete com status Rascunho. Knowledge Manager revisa no mesmo dia e verifica linguagem para IA, completude dos campos, tags corretas. Aprovado vira Publicado e o SKMS é reindexado. A IA já pode usar o artigo naquele mesmo dia.
Integração com a ferramenta de IA
Na Semana 3 também acontece a conexão técnica. Se a ferramenta usa RAG (Retrieval-Augmented Generation), configure o pipeline de recuperação apontando para a base do SKMS. Faça testes com 10 cenários reais dos incidentes documentados. Se a IA não retornar o artigo correto para pelo menos 7 dos 10 cenários, o problema está nas tags ou na estrutura do artigo, não na ferramenta.
Implemente também o mecanismo de feedback: o botão “isso não resolveu” no agente deve gerar automaticamente uma tarefa de melhoria do artigo correspondente. Sem esse mecanismo, os erros da IA se acumulam sem gerar melhoria da base.
Medição e rotina permanente
A Semana 4 transforma o projeto de implantação em processo permanente. Você ativa os indicadores, apresenta os primeiros resultados para a liderança e institui a rotina semanal que vai manter a base saudável.
Os indicadores que realmente importam
| Indicador | O que mede | Meta inicial |
|---|---|---|
| Taxa de deflexão (%) | Chamados resolvidos pela IA sem intervenção humana | Baseline no mês 1 — meta crescente |
| MTTR com base ativa | Tempo médio de resolução comparado ao período anterior | Redução de ≥ 20% em 90 dias |
| % Artigos com revisão em dia | Governança da qualidade da base | ≥ 90% |
| % Artigos com tags completas | Qualidade do índice para a IA | ≥ 95% |
| Artigos expirados sem revisão | Risco de conhecimento desatualizado na IA | 0 |
| Feedback loops executados | Ritmo de melhoria contínua da base | ≥ 3 nos primeiros 30 dias |
A rotina permanente
Após os 30 dias, a base se mantém com uma rotina semanal de 45 minutos: revisar os candidatos a artigo da semana (incidentes, problemas, mudanças), classificar os feedbacks negativos da IA acumulados, atribuir correções ao analista responsável e suspender da IA qualquer artigo com erro crítico identificado. Simples o suficiente para executar sem depender de agenda e complexo o suficiente para evitar que a base degrade.
O que muda quando a base está funcionando
| Dimensão | Sem base estruturada | Com base estruturada para IA |
|---|---|---|
| Resolução de incidentes | Analista busca em e-mails ou pergunta ao colega | IA sugere o procedimento correto no primeiro contato |
| Onboarding | 3 a 6 meses para atingir produtividade plena | 2 a 4 semanas com acesso à base estruturada |
| Chamados de N1 | 100% resolvidos por humanos | 30–40% resolvidos automaticamente pelo agente |
| Saída de colaboradores | Conhecimento crítico vai junto com a pessoa | Conhecimento permanece na base — independente de quem sai |
| Qualidade da IA | Respostas genéricas ou incorretas | Respostas precisas, contextualizadas e atualizadas |
| Posição da TI | Centro de custo que “apaga incêndio” | Área estratégica que entrega automação com resultado |
A conexão com as outras práticas
A Gestão do Conhecimento não funciona isolada. Ela se alimenta das outras práticas, e as potencializa. Da Gestão de Incidentes vêm os artigos de solução: cada incidente recorrente resolvido sem documentação é uma oportunidade perdida. Da Gestão de Problemas vêm os workarounds e soluções definitivas: cada entrada da KEDB deveria gerar um artigo correspondente. Da Gestão de Mudanças vêm os procedimentos validados: mudanças executadas com sucesso são conhecimento que a IA pode usar com confiança.
Como estruturar sua Gestão de Incidentes em 30 dias (com template)
Como estruturar sua Gestão de Problemas em 30 dias (com template)
Template gratuito: o que está incluído
O template é o mesmo documento que uso como base nas mentorias individuais do ITIL Data Master. Ele foi construído para ser adaptado diretamente à sua operação e não para ficar na “gaveta”.
O arquivo Word (.docx) tem sete seções que cobrem os 30 dias completos:
- Seção 1 — Por que 30 dias: tabela de entregáveis por semana com o benefício de cada um
- Seção 2 — Semana 1 (Diagnóstico): tabela de inventário de repositórios, avaliação de qualidade e lista dos 10 incidentes mais recorrentes com campos para preenchimento
- Seção 3 — Semana 2 (Estrutura): política completa, taxonomia com 7 categorias adaptáveis, modelo padrão de artigo IA-ready com todos os campos obrigatórios e matriz RACI com 8 atividades
- Seção 4 — Semana 3 (Conteúdo): tabela de priorização de artigos, fluxo de criação e os 6 critérios de qualidade IA-ready
- Seção 5 — Semana 4 (Medição): painel de KPIs com 7 indicadores e agenda da rotina semanal permanente
- Seção 6 — Checklist dos 30 dias: todas as atividades das quatro semanas com campo de data de conclusão
- Seção 7 — Sobre o ITIL Data Master: links para os outros materiais da série
Por onde começar agora
Se você leu até aqui e está pensando “precisamos fazer isso”, o primeiro passo já está na Semana 1: extrair da sua ferramenta de ITSM os 10 incidentes mais recorrentes dos últimos 90 dias. Isso leva 15 minutos. O resultado desse levantamento já justifica a conversa com a liderança sobre priorizar o projeto.
A base de conhecimento que alimenta bem a IA não é a maior. É a mais consistente. E consistência se constrói com 10 artigos, não com um projeto de seis meses.
Quer fazer isso com acompanhamento personalizado?
Na mentoria individual do ITIL Data Master, trabalhamos juntos desde o diagnóstico da sua operação até a integração com IA, com plano de ação, revisões práticas e entregáveis reais para a sua realidade.
>>>>>>>>>Conhecer a Mentoria
Ou me encontre no LinkedIn para conversar diretamente
Deixe sua dúvida nos comentários. Leio todos e respondo.
Pedro Marques
Deixe um comentário