OpenAI 創辦團隊成員、Tesla 前 AI 總監 Andrej Karpathy 在 X 上發布「LLM Knowledge Bases」工作流程,並解釋他近期把大量 token 用量從「操控程式碼」轉向「操控知識」—用 LLM 把分散的論文、文章、資料夾、影像整理成一個自動維護的個人 wiki。整套流程已在他自己的研究專案上累積 ~100 篇文章、~40 萬字,且全程由 LLM 寫入與更新。本文整理 Karpathy 的完整 setup、給想自己複製的開發者一張可實作清單。
核心理念:raw 資料 → LLM 编译 → wiki → Q&A
A filosofia de design de Karpathy pode ser resumida em uma frase: «raw data entra, o LLM compila em wiki, o wiki é consultado novamente pelo LLM, e o resultado da consulta continua sendo escrito de volta no wiki». O ponto-chave de todo o sistema é trocar o papel humano de «fazer anotações» para «monitorar as anotações escritas pelo LLM». A base de conhecimento deixa de ser mantida manualmente no Notion ou Roam Research, passando a ser um conjunto de arquivos markdown automaticamente escritos e mantidos pelo LLM.
Ele descreve que edita o wiki diretamente com pouca frequência—quem faz a escrita, a adição de links, a extração de estrutura e a checagem de consistência é o LLM. Esse modelo de «conteúdo liderado por LLM, humanos acompanhando» é totalmente diferente do hábito da maioria de escrever manualmente no Obsidian/Notion, e é a grande virada por trás desse workflow.
Step 1:Data Ingest—jogar todo o raw em uma pasta raw/
A entrada de Karpathy é bem simples: crie uma pasta raw/, coloque dentro todas as fontes de dados—PDFs de pesquisas, artigos de notícias, repositórios de código, datasets, imagens, roteiros. O LLM usa essa pasta como entrada e, aos poucos, «compila» um wiki.
Ele destaca especialmente duas ferramentas:
Obsidian Web Clipper—o plugin que transforma artigos de páginas da web diretamente em arquivos .md e os salva em raw/
hotkey customizado—baixa imagens relacionadas da web para o seu computador local, para que o LLM consiga referenciar essas imagens diretamente nas etapas posteriores
Design essencial: todo material externo fica em «modo offline, local», evitando que, em consultas futuras, o LLM trave por «não achar o link original».
Step 2:LLM 编译 wiki—gerar automaticamente categorias, artigos e backlinks
Com o raw/ pronto, Karpathy «compila» incrementavelmente um wiki com LLM—ou seja, uma estrutura de diretórios composta por muitos arquivos .md. O LLM faz quatro coisas:
Escreve resumos para todo o conteúdo dentro de raw/
Classifica os dados em conceitos (concepts)
Escreve um artigo para cada conceito
Cria backlinks entre os artigos
Esse processo é «incremental»: novos dados adicionados em raw/ só exigem atualização das partes afetadas do wiki; não é necessário recompilar tudo do zero. Para temas de pesquisa acumulados ao longo do tempo (o wiki de pesquisas do próprio Karpathy já tem ~100 artigos e ~40 mil palavras), esse tipo de atualização incremental costuma ser muito mais útil do que uma compilação grande única.
Step 3:usar Obsidian como IDE «front-end» e expandir com plugins como Marp
Karpathy usa Obsidian como a camada de visualização dessa plataforma—dá para ver ao mesmo tempo o raw/, o wiki compilado e as visualizações derivadas (slides, gráficos e tabelas). A vantagem do Obsidian é que ele já é um editor de markdown, é compatível nativamente com os .md gerados pelo LLM e oferece suporte a plugins.
Ele menciona especialmente o plugin Marp—que consegue renderizar markdown diretamente em formato de slides, permitindo que o LLM não apenas produza texto, mas também gere apresentações.
Step 4:Q&A—fazer o wiki virar o objeto de consulta do LLM
Quando o wiki chega ao tamanho de «~100 artigos, ~40 mil palavras», aparece a capacidade mais interessante: você consegue fazer ao LLM perguntas arbitrariamente complexas como agente; ele mesmo vai buscar a resposta, pesquisando dentro do wiki e citando trechos relevantes.
Inicialmente, ele esperava que precisasse de um «RAG fancy» (busca vetorial, modelos de embeddings, re-ranking etc.) para funcionar nesse volume, mas na prática descobriu: o próprio LLM mantém arquivos de index e pequenos resumos de cada artigo. Na hora da consulta, ele usa esses index e resumos para encontrar trechos relevantes; no tamanho de «~40 mil palavras», até um RAG mais simples roda bem, sem precisar de algo complexo.
Essa constatação coincide com o consenso da indústria desde 2024 sobre «vector DB em excesso, e em muitos cenários nem precisa». Se sua base de conhecimento estiver abaixo de um milhão de palavras, e você tiver markdown estruturado + index gerenciado pelo LLM, geralmente já é suficiente.
Step 5:output—não é só texto; é markdown/slides/gráficos
Outro design de Karpathy: ele não quer que o LLM devolva apenas texto no terminal. Em vez disso, ele faz o LLM produzir saídas estruturadas—arquivos markdown, apresentações Marp, gráficos do matplotlib, dados para visualização. Esses outputs podem ser revisados dentro do Obsidian.
Mais importante ainda é o ciclo: o resultado gerado frequentemente vira um «arquivo/registro» que Karpathy arquiva de volta no wiki, reforçando consultas futuras. Ele descreve que «a própria exploração e as consultas vão sempre somando (add up) até virar base de conhecimento»—um modelo stateful, que cresce, e que contrasta com a dinâmica do ChatGPT de conversar «sempre do zero».
Step 6:Linting—LLM fazendo auto-checagem, achando problemas de consistência e candidatos a novos artigos
Karpathy faz o LLM rodar «check-ups de saúde» no wiki, lidando com três tipos de problemas:
Detectar inconsistências de dados (descrições conflitantes do mesmo conceito em artigos diferentes)
Usar busca na web para preencher informações faltantes
Encontrar conexões interessantes entre conceitos e recomendar candidatos a novos artigos
Esse linting é um dos pontos-chave para manter o wiki «cada vez mais limpo» com o tempo. Sem isso, o wiki gerado automaticamente vai acumulando contradições e ruído. O LLM se sai bem nessa tarefa, e Karpathy aponta isso como uma das razões para acreditar que o workflow pode rodar a longo prazo.
Step 7:ferramentas extras feitas em casa—por exemplo, um mecanismo de busca no seu próprio wiki
Karpathy menciona que «vibe coded» um pequeno mecanismo de busca, rodando em cima do próprio wiki. Esse recurso tem dois usos: (1) ele mesmo faz consultas direto via web UI; (2) mais comum é integrar o mecanismo de busca em uma interface CLI e entregá-lo ao LLM como uma ferramenta, para que, em consultas grandes, o LLM consiga acertar trechos relevantes com precisão.
Esse padrão (o humano monta uma CLI e o LLM a usa como ferramenta) é um design central em frameworks de agentes como Claude Code e OpenAI Codex: o LLM não lê todo o acervo, ele obtém só o subconjunto necessário por meio de ferramentas (CLI, engine de busca, sistema de arquivos).
Step 8:direções futuras—geração de dados sintéticos e fine-tuning de modelos
Quando o wiki cresce o bastante, Karpathy propõe dois caminhos avançados:
Usar o wiki para gerar dados sintéticos (synthetic data)—fazer com que o LLM produza automaticamente pares de Q&A, textos de ensino e exemplos para certos temas
Fine-tuning com dados sintéticos para treinar um LLM dedicado—deixar seu LLM pessoal «saber» esses dados nos pesos, em vez de apenas lê-los no context window
Essas direções levam a base de conhecimento de «memória externa» para «memória internalizada», que é o próximo passo do AI personalizado. Mas Karpathy também admite que isso exige mais infraestrutura e, por enquanto, ainda está em fase de exploração.
A ideia de «Idea File» do Karpathy: compartilhar concepções, não código
Depois do post viral, Karpathy propôs um novo conceito: «idea file». Na era dos agentes de LLM, em vez de compartilhar código específico, você compartilha «ideias» para que o agent da outra pessoa personalize e construa algo sob medida para você.
Ele coloca a «idea file» desse LLM Knowledge Bases em um GitHub gist, mantendo de propósito tudo abstrato e deixando espaço para o agent de cada pessoa fazer seu próprio trabalho. Isso pode virar um novo modelo de compartilhamento na comunidade dev no futuro—não é repositório do GitHub, não é pacote npm, e sim «um documento de instruções» para ser lido pelo LLM, como um spec open-source.
Recomendação prática: por onde leitores de Taiwan começam
Para desenvolvedores em Taiwan que querem replicar esse sistema, o caminho prático de entrada:
Obsidian é gratuito, funciona em macOS/Windows/Linux, e pode ser baixado no site oficial
O plugin Web Clipper pode ser instalado no Chrome/Firefox/Edge
No lado do LLM você pode escolher Claude Code (CLI), ChatGPT (API) ou Ollama local (se você tiver uma placa de vídeo forte)
A recomendação é colocar duas pastas—raw/ e wiki/—no mesmo nível do Obsidian vault, e adicionar um controle de versão além do .gitignore (para o caso de o LLM escrever algo errado e dar para recuperar)
Comece por um tema de pesquisa que você conheça bem—por exemplo, «dinâmica de conformidade de exchange cripto em 2026» ou «arquitetura de inferência em LLM»; depois de acumular 30–50 artigos, a capacidade de Q&A melhora visivelmente
No fim do post, Karpathy disse: «Aqui existe espaço para construir um novo produto excelente, não este formato grosseiro de scripts colados». Para builders, essa thread é tanto uma explicação de workflow quanto um tema para empreender—wiki automática por LLM é um mercado que ainda não tem um vencedor de produto bem definido.
Este artigo, no qual Karpathy revela pessoalmente o método completo para construir um banco de conhecimento pessoal com LLM, apareceu primeiro em 鏈新聞 ABMedia.
Related Articles
Bitcoin Treasury Firm K Wave Media garante até $485M para a construção da infraestrutura de IA
A Antimatter lança um plano de data center de IA com financiamento de €300 milhões
Ministério da Educação “A biblioteca tem IA”: livros da biblioteca gratuitos para usar ChatGPT, Claude! Veja de uma vez o período e os locais de aplicação
Economia de modelos virtuais com IA: Aitana, Emily e análise de 4 sistemas Markdown
TipTip atinge lucratividade de EBITDA à medida que a IA impulsiona a bilheteria de entretenimento
Co-fundador da Astro disponibiliza Rosie como open-source: sincroniza habilidades entre 10 agentes de IA para codificação