Karpathy revela em primeira mão: um método completo para construir uma base de conhecimento pessoal com LLM

A equipa fundadora da OpenAI e antiga diretora-geral de IA da Tesla, Andrej Karpathy, publicou no X o trabalho “LLM Knowledge Bases”, detalhando um fluxo de trabalho que explica como, recentemente, aumentou o uso massivo de tokens ao passar de “manipular código” para “manipular conhecimento”: usar LLM para transformar papers, artigos, pastas, imagens dispersas num wiki pessoal auto-assegurado. Todo o processo foi acumulado nos seus próprios projetos de investigação, com ~100 artigos, ~400 mil palavras, e todo o conteúdo foi escrito e atualizado ao longo do tempo por LLM. Este artigo reúne o setup completo de Karpathy, deixando uma lista de verificação executável para os programadores que queiram replicar.

Ideia central: dados brutos → compilação em LLM → wiki → Q&A

A filosofia de design de Karpathy pode resumir-se a uma frase: “raw data entra, LLM compila em wiki, wiki é usada para pesquisa pelo LLM, e os resultados da pesquisa voltam a ser escritos no wiki”. A chave de todo o sistema é retirar o papel humano de “fazer anotações” e passar a “vigiar as anotações que o LLM está a escrever”. A knowledge base deixa de ser algo mantido manualmente, como Notion ou Roam Research, passando a ser um conjunto de ficheiros markdown escritos e mantidos automaticamente por LLM.

Ele descreve que edita o wiki muito raramente — a escrita, o acrescentar de ligações, a extração de estrutura, a verificação de consistência, tudo é feito por LLM. Este modelo “LLM a liderar o conteúdo, humano a vigiar”, contrasta totalmente com o hábito da maioria de escrever manualmente no Obsidian/Notion e é a mudança central deste fluxo de trabalho.

Passo 1: Data Ingest — deitar todos os dados brutos numa pasta raw/

A entrada de Karpathy é simples: criar uma pasta raw/ e despejar lá dentro todos os dados de origem — PDFs de papers, artigos de notícias, repositórios de código, conjuntos de dados, imagens, transcrições de palestras. O LLM usa esta pasta como entrada e vai “compilando” um wiki.

Ele menciona especialmente duas ferramentas:

A extensão Obsidian Web Clipper — converter artigos de páginas web diretamente para ficheiros .md e guardá-los em raw/

Hotkey personalizado — descarregar imagens relevantes das páginas para o computador, para o LLM conseguir lê-las diretamente quando fizer referência mais tarde

Design-chave: todo o conteúdo externo fica guardado em formato “offline, local”, garantindo que, quando o LLM fizer pesquisa mais tarde, não fique bloqueado com o problema de “não encontrar as ligações originais”.

Passo 2: Compilar wiki com LLM — gerar automaticamente categorias, artigos e ligações de retorno

Com raw/ pronto, Karpathy “compila” incrementamente um wiki com LLM — uma estrutura de diretórios feita de uma série de ficheiros .md. O LLM faz quatro coisas:

Escrever resumos de todos os materiais dentro de raw/

Classificar os dados em conceitos

Escrever um artigo para cada conceito

Criar ligações de retorno (backlinks) entre os artigos

Este processo é “incremental” — os novos dados em raw/ fazem o LLM atualizar apenas as secções do wiki afetadas, sem ser necessário recompilar tudo de uma vez. Para temas de investigação acumulados a longo prazo (o wiki de investigação de Karpathy já tem ~100 artigos, ~400 mil palavras), esta atualização incremental é muito mais útil do que uma recompilação grande feita uma única vez.

Passo 3: Usar Obsidian como “front-end” IDE e expandir com Marp, entre outros plugins

Karpathy usa Obsidian como front-end visual do sistema — permitindo ver simultaneamente raw/, o wiki compilado e visualizações derivadas (slides, gráficos). A vantagem do Obsidian é que ele próprio é um editor de markdown, é naturalmente compatível com os ficheiros .md que o LLM escreve e também suporta extensões via plugins.

Ele menciona especialmente o plugin Marp — que permite renderizar markdown diretamente em formato de apresentações, para que o LLM não consiga apenas produzir texto, mas também produzir apresentações.

Passo 4: Q&A — transformar o wiki inteiro no objeto de pesquisa do LLM

Quando o wiki de Karpathy atinge uma escala de “~100 artigos, ~400 mil palavras”, surgem as capacidades mais interessantes: é possível fazer ao agente de LLM qualquer pergunta complexa, e ele vai sozinho investigar a resposta, citando os parágrafos relevantes no wiki.

Inicialmente, ele esperava precisar de “RAG sofisticado” (busca vetorial, modelos de embeddings, re-ranking, etc.) para funcionar a esta escala, mas na prática verificou o seguinte: o LLM mantém um ficheiro de index e pequenos resumos de cada artigo; na pesquisa, basta usar estes index e resumos para encontrar os parágrafos relevantes. Neste patamar de “~400 mil palavras”, nem um RAG complexo é necessário — funciona bastante bem.

Esta observação está alinhada com o consenso da indústria desde 2024 de que “a moda das vector DB arrefeceu; em muitos cenários nem precisa”. Quando a knowledge base está abaixo de milhões de palavras e o markdown estruturado + index sob controlo do LLM já chegam, é suficiente.

Passo 5: Saída — não é apenas texto puro, mas markdown/slides/gráficos

A outra decisão de design de Karpathy: ele não quer que o LLM responda apenas com texto no terminal; quer que o LLM produza saídas estruturadas — ficheiros markdown, apresentações Marp, gráficos matplotlib e dados para visualização. Estas saídas podem ser consultadas dentro do Obsidian.

Mais importante ainda é o ciclo: muitas vezes os resultados produzidos são “arquivados” por Karpathy de volta no wiki, reforçando assim as pesquisas futuras. Ele descreve que “a exploração e a pesquisa se vão sempre somando (add up) à knowledge base” — ou seja, um sistema com estado, que cresce, e que contrasta com o modo do ChatGPT, onde cada conversa “recomeça do zero”.

Passo 6: Linting — o LLM faz auto-check de saúde, encontra problemas de consistência e candidatos a novos artigos

Para o wiki, Karpathy faz o LLM correr uma “saúde” — lidando com três tipos de problemas:

Identificar inconsistências de dados (descrições em conflito do mesmo conceito em artigos diferentes)

Usar pesquisa na web para preencher dados em falta

Encontrar ligações interessantes entre conceitos e recomendar candidatos a novos artigos

Este passo de linting é a chave para o wiki ir ficando “cada vez mais limpo” com o tempo — sem isso, o wiki compilado automaticamente vai acumulando contradições e ruído. O LLM mostra bom desempenho nesta tarefa, sendo uma das razões pelas quais Karpathy acredita que este fluxo de trabalho pode ser mantido a longo prazo.

Passo 7: Ferramentas extra feitas à medida — por exemplo, construir um motor de pesquisa para o wiki

Karpathy referiu que “codificou por vibe” um motor de pesquisa pequeno, a correr no próprio wiki. Esta ferramenta tem dois usos: (1) ele usa o web UI diretamente; (2) mais comum, é ligar o motor de pesquisa via interface CLI, entregá-lo ao LLM como ferramenta e permitir que o LLM, em pesquisas grandes, acerte com precisão os parágrafos relevantes.

Este padrão (o humano montar um CLI, o LLM usá-lo como ferramenta) é o desenho central em frameworks de agentes como o Claude Code e o OpenAI Codex: o LLM não lê diretamente todo o conteúdo, antes obtém o subconjunto necessário através de ferramentas (CLI, motor de pesquisa, sistema de ficheiros).

Passo 8: Direções futuras — geração de dados sintéticos e afinação (fine-tuning) do modelo

Quando o wiki tiver uma dimensão suficiente, Karpathy propõe duas direções avançadas:

Usar o wiki para gerar dados sintéticos — fazer com que o LLM produza automaticamente pares Q&A, artigos de ensino e exemplos para certos temas

Fazer fine-tuning de um LLM especializado com dados sintéticos — para o seu LLM pessoal “saber” estes dados dentro dos pesos, em vez de só os ler no context window

Esta direção leva a knowledge base de “memória externa” para “memória interna”, sendo o próximo passo da IA personalizada. Mas Karpathy também reconhece que isto exige mais infraestrutura e, por agora, continua a ser uma fase de exploração.

A ideia de “Idea File” de Karpathy: partilhar a ideia, não partilhar o código

Depois do post ter ficado viral, Karpathy avançou com um novo conceito nos posts seguintes: “idea file”. Na era dos agentes de LLM, em vez de partilhar código concreto, mais vale partilhar “ideias”, para que o agente personalize e construa algo por si.

Ele colocou o “idea file” deste sistema de LLM Knowledge Bases num GitHub gist, mantendo-o propositadamente abstrato e deixando espaço para os agentes de cada pessoa se manifestarem livremente. Isto pode vir a ser um novo modelo de partilha para a comunidade dev: não um repositório no GitHub, nem um pacote npm, mas sim “documentos de instruções”, especificações abertas pensadas para LLM.

Sugestão de implementação: como começar para leitores de Taiwan

Para programadores de Taiwan que queiram replicar este sistema, um caminho de entrada prático:

O Obsidian é gratuito, funciona em macOS/Windows/Linux e pode ser descarregado do site oficial

A extensão Web Clipper pode ser instalada na Chrome/Firefox/Edge

No lado do LLM, pode escolher Claude Code (CLI), ChatGPT (API) ou Ollama local (se tiver um GPU com boa performance)

Recomenda-se colocar as duas pastas raw/ e wiki/ ao lado do Obsidian vault, e adicionar controlo de versão além de .gitignore (para, caso o LLM escreva algo mal, ainda conseguir recuperar)

Começar com um tema de investigação que conheça bem — por exemplo, “dinâmica de conformidade de bolsas cripto em 2026”, “arquitetura de inferência de LLM”. Depois de acumular 30–50 artigos, a capacidade de Q&A melhora de forma clara

No fim do post, Karpathy diz: “Há espaço para construir um produto novo e excelente, e não este formato de scripts grosseiros e colagem.” Para quem constrói (builder), esta thread é tanto uma explicação do fluxo de trabalho como matéria para uma ideia de negócio — LLM wiki automática, um mercado que ainda não tem um vencedor de produto claramente definido.

Este artigo, em que Karpathy revela pessoalmente o método completo para construir uma base de conhecimento pessoal com LLM, apareceu pela primeira vez em 鏈新聞 ABMedia.

Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.

Related Articles

Empresa de tesouraria de Bitcoin K Wave Media assegura até $485M para a construção de infraestruturas de IA

De acordo com o ChainCatcher, a empresa de tesouraria de bitcoin cotada na Nasdaq, K Wave Media, anunciou a 4 de maio uma viragem estratégica para infraestruturas de IA, garantindo até 485 milhões de dólares em apoio de capital para investimentos em centros de dados, serviços de aluguer de GPU e aquisições e parcerias em infraestruturas de IA. A empresa

GateNews3h atrás

A Antimatter lança um plano de centro de dados de IA com financiamento de 300 milhões de euros

A Antimatter, uma empresa francesa de infraestruturas cloud para cargas de trabalho de IA, lançou-se a 4 de maio ao reunir três empresas já existentes: Datafactory, Policloud e Hivenet. A empresa está a angariar 300 milhões de euros (351 milhões de dólares) para implementar 100 unidades de micro centros de dados em 2026 para inferência de IA

CryptoFrontier5h atrás

O Ministério da Educação “Bibliotecas com AI” — bibliotecas gratuitas para usar ChatGPT e Claude! Prazo e locais: veja de uma vez

O Ministério da Educação está a impulsionar “as bibliotecas têm IA”, com início no quarto trimestre deste ano, a partir da Biblioteca Nacional e outras bibliotecas nacionais, com a instalação de 5 computadores de IA em cada biblioteca. Os cidadãos podem utilizar gratuitamente ferramentas como o ChatGPT, o Claude e o Gemini apenas com o cartão de leitor, reduzindo a diferença no acesso a IA paga, e expandindo-se para bibliotecas de 47 universidades nacionais; os fundos serão angariados pela escola ou mediante candidatura a apoios. Em simultâneo, é necessário ultrapassar desafios como os horários de utilização, a gestão de contas, a privacidade e as autorizações.

ChainNewsAbmedia6h atrás

Economia de modelos virtuais com IA: Aitana, Emily e a análise de 4 sistemas em Markdown

As modelos virtuais de IA passaram de experimentos de assunto a entidades comerciais que conseguem ganhar dezenas de milhar de dólares por mês, com todo o stack tecnológico a amadurecer rapidamente num prazo de 18 meses. Este artigo reúne três casos típicos: Aitana López, da The Clueless (Barcelona, rendimentos mensais de €10,000), Emily Pellegrini, criada por um autor anónimo (cerca de 1万美元 por semana), e o recente caso da “Maya” que circula na plataforma X — uma estudante do Texas que terá construído uma personalidade virtual de IA com 4 ficheiros markdown, gerando 43 mil dólares na conta OnlyFans no primeiro mês. Aitana López: A modelo virtual própria da The Clueless, com rendimentos até €10,000 Aitana López é do

ChainNewsAbmedia8h atrás

TipTip atinge a rentabilidade em EBITDA à medida que a IA reforça a bilhética de entretenimento

A plataforma indonésia de entretenimento e experiências TipTip anunciou a 4 de maio que atingiu a rentabilidade em EBITDA a nível de empresa no início de 2026, impulsionada por controlos de custos, melhoria da economia unitária e parceria com o investidor líder East Ventures. Crescimento do bilheteira de entretenimento A TipTip's entretenimento t

CryptoFrontier10h atrás

O cofundador da Astro disponibiliza Rosie como open-source: sincroniza capacidades em 10 agentes de programação com IA

Segundo Beating, Matthew Phillips, cofundador da framework Astro para frontend, disponibilizou Rosie em open-source, uma ferramenta de linha de comandos para gerir pacotes de competências de agentes de IA. A ferramenta detecta automaticamente agentes de programação instalados localmente e sincroniza competências em 10 plataformas, incluindo Claude

GateNews13h atrás
Comentar
0/400
Nenhum comentário