Karpathy agora mostra: o método completo para criar um banco de conhecimento pessoal usando LLM

ChainNewsAbmedia

OpenAI 創辦團隊成員、Tesla 前 AI 總監 Andrej Karpathy 在 X 上發布「LLM Knowledge Bases」工作流程,並解釋他近期把大量 token 用量從「操控程式碼」轉向「操控知識」—用 LLM 把分散的論文、文章、資料夾、影像整理成一個自動維護的個人 wiki。整套流程已在他自己的研究專案上累積 ~100 篇文章、~40 萬字,且全程由 LLM 寫入與更新。本文整理 Karpathy 的完整 setup、給想自己複製的開發者一張可實作清單。

核心理念:raw 資料 → LLM 编译 → wiki → Q&A

A filosofia de design de Karpathy pode ser resumida em uma frase: «raw data entra, o LLM compila em wiki, o wiki é consultado novamente pelo LLM, e o resultado da consulta continua sendo escrito de volta no wiki». O ponto-chave de todo o sistema é trocar o papel humano de «fazer anotações» para «monitorar as anotações escritas pelo LLM». A base de conhecimento deixa de ser mantida manualmente no Notion ou Roam Research, passando a ser um conjunto de arquivos markdown automaticamente escritos e mantidos pelo LLM.

Ele descreve que edita o wiki diretamente com pouca frequência—quem faz a escrita, a adição de links, a extração de estrutura e a checagem de consistência é o LLM. Esse modelo de «conteúdo liderado por LLM, humanos acompanhando» é totalmente diferente do hábito da maioria de escrever manualmente no Obsidian/Notion, e é a grande virada por trás desse workflow.

Step 1:Data Ingest—jogar todo o raw em uma pasta raw/

A entrada de Karpathy é bem simples: crie uma pasta raw/, coloque dentro todas as fontes de dados—PDFs de pesquisas, artigos de notícias, repositórios de código, datasets, imagens, roteiros. O LLM usa essa pasta como entrada e, aos poucos, «compila» um wiki.

Ele destaca especialmente duas ferramentas:

Obsidian Web Clipper—o plugin que transforma artigos de páginas da web diretamente em arquivos .md e os salva em raw/

hotkey customizado—baixa imagens relacionadas da web para o seu computador local, para que o LLM consiga referenciar essas imagens diretamente nas etapas posteriores

Design essencial: todo material externo fica em «modo offline, local», evitando que, em consultas futuras, o LLM trave por «não achar o link original».

Step 2:LLM 编译 wiki—gerar automaticamente categorias, artigos e backlinks

Com o raw/ pronto, Karpathy «compila» incrementavelmente um wiki com LLM—ou seja, uma estrutura de diretórios composta por muitos arquivos .md. O LLM faz quatro coisas:

Escreve resumos para todo o conteúdo dentro de raw/

Classifica os dados em conceitos (concepts)

Escreve um artigo para cada conceito

Cria backlinks entre os artigos

Esse processo é «incremental»: novos dados adicionados em raw/ só exigem atualização das partes afetadas do wiki; não é necessário recompilar tudo do zero. Para temas de pesquisa acumulados ao longo do tempo (o wiki de pesquisas do próprio Karpathy já tem ~100 artigos e ~40 mil palavras), esse tipo de atualização incremental costuma ser muito mais útil do que uma compilação grande única.

Step 3:usar Obsidian como IDE «front-end» e expandir com plugins como Marp

Karpathy usa Obsidian como a camada de visualização dessa plataforma—dá para ver ao mesmo tempo o raw/, o wiki compilado e as visualizações derivadas (slides, gráficos e tabelas). A vantagem do Obsidian é que ele já é um editor de markdown, é compatível nativamente com os .md gerados pelo LLM e oferece suporte a plugins.

Ele menciona especialmente o plugin Marp—que consegue renderizar markdown diretamente em formato de slides, permitindo que o LLM não apenas produza texto, mas também gere apresentações.

Step 4:Q&A—fazer o wiki virar o objeto de consulta do LLM

Quando o wiki chega ao tamanho de «~100 artigos, ~40 mil palavras», aparece a capacidade mais interessante: você consegue fazer ao LLM perguntas arbitrariamente complexas como agente; ele mesmo vai buscar a resposta, pesquisando dentro do wiki e citando trechos relevantes.

Inicialmente, ele esperava que precisasse de um «RAG fancy» (busca vetorial, modelos de embeddings, re-ranking etc.) para funcionar nesse volume, mas na prática descobriu: o próprio LLM mantém arquivos de index e pequenos resumos de cada artigo. Na hora da consulta, ele usa esses index e resumos para encontrar trechos relevantes; no tamanho de «~40 mil palavras», até um RAG mais simples roda bem, sem precisar de algo complexo.

Essa constatação coincide com o consenso da indústria desde 2024 sobre «vector DB em excesso, e em muitos cenários nem precisa». Se sua base de conhecimento estiver abaixo de um milhão de palavras, e você tiver markdown estruturado + index gerenciado pelo LLM, geralmente já é suficiente.

Step 5:output—não é só texto; é markdown/slides/gráficos

Outro design de Karpathy: ele não quer que o LLM devolva apenas texto no terminal. Em vez disso, ele faz o LLM produzir saídas estruturadas—arquivos markdown, apresentações Marp, gráficos do matplotlib, dados para visualização. Esses outputs podem ser revisados dentro do Obsidian.

Mais importante ainda é o ciclo: o resultado gerado frequentemente vira um «arquivo/registro» que Karpathy arquiva de volta no wiki, reforçando consultas futuras. Ele descreve que «a própria exploração e as consultas vão sempre somando (add up) até virar base de conhecimento»—um modelo stateful, que cresce, e que contrasta com a dinâmica do ChatGPT de conversar «sempre do zero».

Step 6:Linting—LLM fazendo auto-checagem, achando problemas de consistência e candidatos a novos artigos

Karpathy faz o LLM rodar «check-ups de saúde» no wiki, lidando com três tipos de problemas:

Detectar inconsistências de dados (descrições conflitantes do mesmo conceito em artigos diferentes)

Usar busca na web para preencher informações faltantes

Encontrar conexões interessantes entre conceitos e recomendar candidatos a novos artigos

Esse linting é um dos pontos-chave para manter o wiki «cada vez mais limpo» com o tempo. Sem isso, o wiki gerado automaticamente vai acumulando contradições e ruído. O LLM se sai bem nessa tarefa, e Karpathy aponta isso como uma das razões para acreditar que o workflow pode rodar a longo prazo.

Step 7:ferramentas extras feitas em casa—por exemplo, um mecanismo de busca no seu próprio wiki

Karpathy menciona que «vibe coded» um pequeno mecanismo de busca, rodando em cima do próprio wiki. Esse recurso tem dois usos: (1) ele mesmo faz consultas direto via web UI; (2) mais comum é integrar o mecanismo de busca em uma interface CLI e entregá-lo ao LLM como uma ferramenta, para que, em consultas grandes, o LLM consiga acertar trechos relevantes com precisão.

Esse padrão (o humano monta uma CLI e o LLM a usa como ferramenta) é um design central em frameworks de agentes como Claude Code e OpenAI Codex: o LLM não lê todo o acervo, ele obtém só o subconjunto necessário por meio de ferramentas (CLI, engine de busca, sistema de arquivos).

Step 8:direções futuras—geração de dados sintéticos e fine-tuning de modelos

Quando o wiki cresce o bastante, Karpathy propõe dois caminhos avançados:

Usar o wiki para gerar dados sintéticos (synthetic data)—fazer com que o LLM produza automaticamente pares de Q&A, textos de ensino e exemplos para certos temas

Fine-tuning com dados sintéticos para treinar um LLM dedicado—deixar seu LLM pessoal «saber» esses dados nos pesos, em vez de apenas lê-los no context window

Essas direções levam a base de conhecimento de «memória externa» para «memória internalizada», que é o próximo passo do AI personalizado. Mas Karpathy também admite que isso exige mais infraestrutura e, por enquanto, ainda está em fase de exploração.

A ideia de «Idea File» do Karpathy: compartilhar concepções, não código

Depois do post viral, Karpathy propôs um novo conceito: «idea file». Na era dos agentes de LLM, em vez de compartilhar código específico, você compartilha «ideias» para que o agent da outra pessoa personalize e construa algo sob medida para você.

Ele coloca a «idea file» desse LLM Knowledge Bases em um GitHub gist, mantendo de propósito tudo abstrato e deixando espaço para o agent de cada pessoa fazer seu próprio trabalho. Isso pode virar um novo modelo de compartilhamento na comunidade dev no futuro—não é repositório do GitHub, não é pacote npm, e sim «um documento de instruções» para ser lido pelo LLM, como um spec open-source.

Recomendação prática: por onde leitores de Taiwan começam

Para desenvolvedores em Taiwan que querem replicar esse sistema, o caminho prático de entrada:

Obsidian é gratuito, funciona em macOS/Windows/Linux, e pode ser baixado no site oficial

O plugin Web Clipper pode ser instalado no Chrome/Firefox/Edge

No lado do LLM você pode escolher Claude Code (CLI), ChatGPT (API) ou Ollama local (se você tiver uma placa de vídeo forte)

A recomendação é colocar duas pastas—raw/ e wiki/—no mesmo nível do Obsidian vault, e adicionar um controle de versão além do .gitignore (para o caso de o LLM escrever algo errado e dar para recuperar)

Comece por um tema de pesquisa que você conheça bem—por exemplo, «dinâmica de conformidade de exchange cripto em 2026» ou «arquitetura de inferência em LLM»; depois de acumular 30–50 artigos, a capacidade de Q&A melhora visivelmente

No fim do post, Karpathy disse: «Aqui existe espaço para construir um novo produto excelente, não este formato grosseiro de scripts colados». Para builders, essa thread é tanto uma explicação de workflow quanto um tema para empreender—wiki automática por LLM é um mercado que ainda não tem um vencedor de produto bem definido.

Este artigo, no qual Karpathy revela pessoalmente o método completo para construir um banco de conhecimento pessoal com LLM, apareceu primeiro em 鏈新聞 ABMedia.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

Bitcoin Treasury Firm K Wave Media garante até $485M para a construção da infraestrutura de IA

De acordo com o ChainCatcher, a empresa de tesouraria de bitcoin listada na Nasdaq, K Wave Media, anunciou em 4 de maio uma mudança estratégica para infraestrutura de IA, garantindo até US$ 485 milhões em apoio de capital para investimentos em data centers, serviços de aluguel de GPUs e aquisições e parcerias de infraestrutura de IA. A empresa

GateNews3h atrás

A Antimatter lança um plano de data center de IA com financiamento de €300 milhões

A Antimatter, empresa francesa de infraestrutura em nuvem para cargas de trabalho de IA, foi lançada em 4 de maio ao combinar três empresas existentes: Datafactory, Policloud e Hivenet. A empresa está captando € 300 milhões (US$ 351 milhões) para implantar 100 unidades de micro data centers em 2026 para inferência de IA

CryptoFrontier5h atrás

Ministério da Educação “A biblioteca tem IA”: livros da biblioteca gratuitos para usar ChatGPT, Claude! Veja de uma vez o período e os locais de aplicação

O Ministério da Educação está promovendo o programa “館館有 AI”. A partir do 4º trimestre deste ano, bibliotecas nacionais como a Biblioteca Nacional vão instalar 5 computadores de IA em cada unidade. A população poderá usar gratuitamente ferramentas como ChatGPT, Claude, Gemini etc. apenas com a carteirinha de empréstimo, reduzindo a diferença entre o acesso pago e o uso de IA e ampliando o programa para 47 bibliotecas de universidades nacionais. Os recursos serão provenientes de captação pela própria escola ou de solicitação de subsídios; ao mesmo tempo, é preciso superar desafios como horários de uso, gestão de contas, privacidade e licenças.

ChainNewsAbmedia6h atrás

Economia de modelos virtuais com IA: Aitana, Emily e análise de 4 sistemas Markdown

A modelo virtual com IA saiu do campo dos experimentos e virou uma empresa de verdade, faturando mensalmente dezenas de milhares de dólares, com todo o seu stack tecnológico amadurecendo rapidamente em 18 meses. Este artigo reúne três casos típicos: Aitana López, do grupo The Clueless (Barcelona, € 10.000 por mês), Emily Pellegrini, criada por um autor anônimo (renda semanal de cerca de 10 mil dólares) e o recente caso “Maya” que viralizou no X — uma estudante do Texas que, alegadamente, construiu uma personalidade virtual de IA usando 4 arquivos markdown e obteve US$ 43.000 de receita no primeiro mês na conta do OnlyFans. Aitana López: a modelo virtual própria da The Clueless, com renda mensal de até € 10.000 Aitana López é de

ChainNewsAbmedia8h atrás

TipTip atinge lucratividade de EBITDA à medida que a IA impulsiona a bilheteria de entretenimento

A plataforma indonésia de entretenimento e experiências TipTip anunciou em 4 de maio que alcançou lucratividade em EBITDA em toda a empresa no início de 2026, impulsionada por controles de custos, melhoria da economia unitária e parceria com o investidor líder East Ventures. Crescimento de ingressos de entretenimento O crescimento de bilheteria do TipTip's entertainment t

CryptoFrontier10h atrás

Co-fundador da Astro disponibiliza Rosie como open-source: sincroniza habilidades entre 10 agentes de IA para codificação

De acordo com Beating, Matthew Phillips, cofundador do framework Astro para frontend, disponibilizou Rosie como código aberto, uma ferramenta de linha de comando para gerenciar pacotes de habilidades de agentes de IA. A ferramenta detecta automaticamente agentes de codificação instalados localmente e sincroniza habilidades em 10 plataformas, incluindo Claude

GateNews13h atrás
Comentário
0/400
Sem comentários