Resultados da pesquisa por "SOURCE"
Hoje
12:15

Tether lança Mining Development Kit (MDK), estrutura de código aberto para mineradores de Bitcoin

Mensagem da Gate News, 27 de abril — A Tether anunciou o lançamento do Mining Development Kit (MDK), uma estrutura de desenvolvimento full-stack de código aberto projetada para fornecer controle unificado sobre toda a pilha de infraestrutura para mineradores e desenvolvedores de Bitcoin. O MDK apresenta uma arquitetura modular aberta com
Mais
BTC-1,69%
11:57

Spark Protocol Reporta Superávit Líquido do 31.5M 2026 de US$ 3,46M e Lança Programa de Recompra do Token SPK

Mensagem do Gate News, 27 de abril — O Spark Protocol lançou seu relatório financeiro do 46.1M 2026 em 27 de abril, mostrando retornos brutos do protocolo de US$ 31,5 milhões (queda de 31% trimestre contra trimestre) e retornos líquidos do protocolo de US$ 6,91 milhões (queda de 30% QoQ). O superávit líquido do protocolo atingiu US$ 3,46 milhões (queda de 47% QoQ), enquanto o tesouro do protocolo chegou a US$ 46,1 milhões no fim do trimestre alta de 5,7% QoQ. O protocolo iniciou um programa de recompra de tokens SPK, investindo US$ 986.000 em compras no mercado aberto. Q1, a estrutura de receita passou por mudanças significativas, com as recompensas de distribuição surgindo como a maior fonte de retorno líquido, totalizando US$ 3,31 milhões, superando pela primeira vez o lucro líquido do Spark Liquidity Layer SLL. A SLL implantou, em média, US$ 1,93 bilhão de capital com uma rentabilidade anualizada média de 5,8%. A SparkLend continua apoiando empréstimos institucionais, com os cofres de poupança em USDT apresentando crescimento sustentado. O produto de empréstimos institucionais implantou milhões no fim do trimestre, com a governança aprovando um teto de bilhões. O relatório observou que condições desfavoráveis do mercado de empréstimos DeFi reduziram os spreads da SLL, embora o segmento de distribuição do protocolo tenha crescido de forma significativa. O USDS funciona como um mecanismo de retorno baseado em poupança escalável em meio a condições desafiadoras do mercado, com canais de distribuição se expandindo por várias cadeias e tipos de stablecoin.
Mais
SPK-5,66%
USDS-0,01%
10:49

Ant Group Lança Ling-2.6-1T: Modelo com Trilhão de Parâmetros Otimizado para Execução Eficiente em Tokens

Mensagem do Gate News, 27 de abril — O Ant Group, inclusãoAI, lançou o Ling-2.6-1T, um novo modelo de instrução carro-chefe da série Ling com um trilhão de parâmetros. Diferente dos modelos de raciocínio de longas cadeias, o Ling-2.6-1T emprega um mecanismo de "Fast-Thinking" projetado para a execução precisa de tarefas com o mínimo de tokens
Mais
07:17

Alibaba lança em código aberto o modelo AgenticQwen: versão 8B se aproxima do desempenho de 235B via dual data flywheels

Mensagem da Gate News, 27 de abril — A equipe da PAI da Alibaba lançou e disponibilizou em código aberto o AgenticQwen, um modelo de linguagem agentic de pequena escala projetado para aplicações industriais de chamada de ferramentas. O modelo vem em duas versões: 8B e 30B-A3B. Treinado por meio de uma inovadora estrutura de aprendizado por reforço "dual data flywheel"
Mais
05:17

GPT-5.5 Volta ao Topo em Codificação, mas a OpenAI Troca os Benchmarks Depois de Perder para o Opus 4.7

Mensagem do Gate News, 27 de abril — A SemiAnalysis, uma empresa de análise de semicondutores e IA, divulgou um benchmark comparativo de assistentes de codificação, incluindo GPT-5.5, Claude Opus 4.7 e DeepSeek V4. A principal descoberta: GPT-5.5 marca o primeiro retorno da OpenAI ao limite do que há de mais avançado em modelos de codificação em seis meses, com engenheiros da SemiAnalysis agora alternando entre Codex e Claude Code depois de anteriormente dependerem quase exclusivamente de Claude. O GPT-5.5 é baseado em uma nova abordagem de pré-treinamento codificada como "Spud" e representa a primeira expansão do OpenAI na escala de pré-treinamento desde o GPT-4.5. Em testes práticos, surgiu uma divisão clara de funções. Claude fica com o planejamento de projetos novos e a configuração inicial, enquanto Codex se destaca em correções de bugs que exigem raciocínio intensivo. O Codex demonstra uma compreensão mais forte de estruturas de dados e raciocínio lógico, mas tem dificuldades para inferir a intenção ambígua do usuário. Em uma tarefa única no painel, o Claude replicou automaticamente o layout da página de referência, mas fabricou grandes quantidades de dados, enquanto o Codex pulou o layout, mas entregou dados significativamente mais precisos. A análise revela um detalhe de manipulação de benchmark: o post do blog da OpenAI de fevereiro incentivou a indústria a adotar o SWE-bench Pro como o novo padrão para benchmarks de codificação. No entanto, o anúncio do GPT-5.5 mudou para um novo benchmark chamado "Expert-SWE." O motivo, escondido nas letras miúdas, é que o GPT-5.5 foi superado pelo Opus 4.7 no SWE-bench Pro e ficou muito aquém do não lançado Mythos da Anthropic 77.8%. Em relação ao Opus 4.7, a Anthropic publicou uma análise pós-mortem uma semana após o lançamento, reconhecendo três bugs no Claude Code que persistiram por várias semanas de março a abril, afetando quase todos os usuários. Vários engenheiros já haviam relatado degradação de desempenho na versão 4.6, mas foram dispensados como observações subjetivas. Além disso, o novo tokenizador do Opus 4.7 aumenta o uso de tokens em até 35%, algo que a Anthropic admitiu abertamente—o que, efetivamente, constitui um aumento de preço oculto. O DeepSeek V4 foi avaliado como "acompanhando o ritmo da fronteira, mas não liderando," posicionando-se como a alternativa de menor custo entre modelos de código fechado. A análise também observou que "Claude continua a superar o DeepSeek V4 Pro em tarefas de escrita em chinês de alta dificuldade," comentando que "Claude venceu o modelo chinês na própria língua. O artigo apresenta um conceito-chave: a precificação dos modelos deve ser avaliada por "custo por tarefa" em vez de "custo por token." A precificação do GPT-5.5 é o dobro da do GPT-5.4 input $5, output por um milhão de tokens, mas ele conclui as mesmas tarefas usando menos tokens, tornando o custo real não necessariamente mais alto. Os dados iniciais da SemiAnalysis mostram que a proporção input-to-output do Codex é de 80:1, menor do que a do Claude Code, de 100:1.
Mais
03:53

Singapore's Foreign Minister Deploys Custom AI Assistant on Raspberry Pi Using Claude Code

Mensagem do Gate News, 27 de abril — O ministro das Relações Exteriores de Singapura, Vivian Balakrishnan, anunciou recentemente que construiu um sistema personalizado de assistente de IA, que ele chama de "segundo cérebro do diplomata", rodando em um Raspberry Pi 5 (um microcomputador do tamanho de um cartão de crédito). O sistema se integra ao WhatsApp e ao Gmail dele, permitindo a transcrição de notas de voz, a sumarização de artigos, a redação de discursos, o fornecimento de respostas a perguntas e a acumulação contínua de conhecimento. Balakrishnan afirmou que "não se atreve a desligá-lo". Ele esclareceu no X que nunca usou uma IDE ambiente de desenvolvimento integrado, com toda a edição de código feita pelo Claude Code, descrevendo o trabalho como "montagem de ferramentas" para diferenciá-lo do conceito de "vibe coding" de Andrej Karpathy. O sistema é construído sobre o framework de agentes de código aberto NanoClaw e roda o Claude Agent SDK dentro de contêineres Docker isolados, com cada grupo de chat operando de forma independente. A integração com o WhatsApp usa Baileys, uma implementação de código aberto do protocolo do WhatsApp Web, evitando depender de APIs comerciais. A transcrição de voz é tratada localmente via whisper.cpp, sem fazer upload para serviços em nuvem. O armazenamento de conhecimento emprega uma arquitetura em três camadas inspirada no modelo da LLM Wiki de Karpathy. A primeira camada armazena materiais brutos discursos, artigos sem modificação; a segunda camada usa mnemon, um grafo de conhecimento baseado em SQLite que extrai fatos como nós independentes e realiza recuperação semântica via nomic-embed-text, um modelo local de embeddings de 274MB; a terceira camada compila fatos em páginas Wiki legíveis por humanos organizadas por entidades, conceitos e cronologias, sincronizadas com o Obsidian no telefone dele via iCloud. Ao receber mensagens, o sistema consulta automaticamente o grafo de conhecimento e injeta fatos relevantes no contexto. As medidas de segurança incluem acesso a APIs por meio de proxies de credenciais do OneCLI, sem expor chaves brutas, montagem de caminhos restrita por lista de permissões que bloqueia diretórios sensíveis como .ssh e .aws, e processamento local de toda a transcrição de voz e embeddings vetoriais. Balakrishnan publicou a documentação completa da arquitetura no GitHub, afirmando "diplomatas que aprendem a colaborar com IA terão uma vantagem real, e acredito que essa janela de vantagem agora está aberta."
Mais
02:33

A China rompe um esquema de roubo de criptomoedas avaliado em mais de $140 Milhão, prende 5 suspeitos

Mensagem da Gate News, 27 de abril — Uma unidade de cibercrimes em Wuhan, província de Hubei, na China, desmantelou um esquema de roubo de criptomoedas que envolvia aplicativos de carteira falsificados, com investigações revelando mais de 100 milhões de yuans (aproximadamente $14 milhões) em proveitos ilícitos. Cinco suspeitos foram
Mais
11:19
1

Contratos Perpétuos de Bitcoin: Grandes detentores ganham taxas enquanto traders de varejo pagam, diz economista-chefe

Mensagem de Notícias do Gate, 26 de abril — Fu Peng, recém-nomeado economista-chefe do Xinhuojituan, explicou nas redes sociais o modelo de negócios subjacente dos contratos perpétuos de Bitcoin, comparando-o com as "taxas diferidas" ou "taxas overnight" usadas nas finanças tradicionais em negociações à vista de metais preciosos e commodities
Mais
BTC-1,69%