Mensagem do Gate News, 23 de abril — A equipa de engenharia da Anthropic confirmou que a degradação da qualidade do Claude Code reportada pelos utilizadores ao longo do último mês resultou de três alterações independentes na camada de produto, e não de problemas na API ou no modelo subjacente. Os três problemas foram corrigidos a 7 de abril, 10 de abril e 20 de abril, respetivamente, com a versão final agora na v2.1.116.
A primeira alteração ocorreu a 4 de março, quando a equipa reduziu o nível de esforço de raciocínio predefinido do Claude Code de “high” para “medium” para abordar picos ocasionais e extremos de latência no Opus 4.6 sob elevada intensidade de raciocínio. Após reclamações generalizadas de utilizadores sobre desempenho reduzido, a equipa reverteu a alteração em 7 de abril. O valor predefinido atual é agora “xhigh” para o Opus 4.7 e “high” para outros modelos.
O segundo problema foi um bug introduzido a 26 de março. O sistema foi concebido para limpar registos antigos de raciocínio após a inatividade na conversa exceder uma hora, de modo a reduzir os custos de recuperação da sessão. No entanto, uma falha na implementação fez com que a limpeza fosse executada repetidamente em cada turno subsequente em vez de uma única vez, levando o modelo a perder progressivamente o contexto de raciocínio anterior. Isso manifestou-se como aumento de esquecimento, operações repetidas e invocações anormais de ferramentas. O bug também resultou em faltas de cache em cada pedido, acelerando o consumo das quotas dos utilizadores. Dois testes internos não relacionados mascararam as condições de reprodução, alargando o processo de depuração para mais de uma semana. Após a correção em 10 de abril, a equipa analisou código problemático usando o Opus 4.7 e verificou que o Opus 4.7 conseguia identificar o bug, enquanto o Opus 4.6 não conseguia.
A terceira alteração foi lançada a 16 de abril em conjunto com o Opus 4.7. A equipa adicionou instruções ao prompt do sistema para reduzir a saída redundante. Testes internos ao longo de várias semanas não mostraram regressão, mas após o lançamento, a interação com outros prompts degradou a qualidade da codificação. Uma avaliação alargada revelou uma queda de 3% no desempenho tanto no Opus 4.6 como no 4.7, levando a uma reversão a 20 de abril.
Estas três alterações afetaram grupos de utilizadores diferentes em momentos diferentes, e o efeito combinado criou uma queda de qualidade generalizada e inconsistente, dificultando o diagnóstico. A Anthropic afirmou que agora será necessário envolver mais funcionários internos para utilizarem a mesma versão pública de compilação que os utilizadores, executarem conjuntos completos de avaliação do modelo para cada modificação de prompt do sistema e implementarem períodos de rollout faseado. Como compensação, a Anthropic repôs as quotas de utilização de todos os utilizadores com subscrição.
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a
Isenção de responsabilidade.
Related Articles
Coachella recorre à IA DeepMind da Google para reinventar concertos além do palco
A Coachella fez parceria com a Google DeepMind para testar novas ferramentas de IA que transformam a forma como as actuações de música ao vivo são criadas e experienciadas.
Resumo
A Coachella testou ferramentas de IA com a Google DeepMind para transformar actuações ao vivo em ambientes digitais interactivos.
Foram construídos três protótipos,
Cryptonews4m atrás
Guo Mingqiang: A OpenAI vai fazer um telemóvel com um agente de IA, MediaTek, Qualcomm e Luxshare Precision são uma cadeia de fornecimento chave
Guo Ming-qiang alega que a OpenAI está a colaborar com a MediaTek, a Qualcomm e a Luxshare Precision para desenvolver telemóveis com AI Agent, prevendo-se a produção em massa em 2028. O novo telemóvel terá como base central a conclusão de tarefas: os agentes de IA compreenderão e executarão os requisitos, combinando computação na cloud e no dispositivo, com foco em sensores e compreensão de contextos. As especificações e a lista da cadeia de fornecimento deverão ser definidas em 2026–2027; se se concretizar, poderá trazer um novo ciclo de substituição de telemóveis para o mercado de gama alta, e a Luxshare tem potencial para ser a principal beneficiária.
ChainNewsAbmedia13m atrás
IEA: O investimento em infraestruturas de IA já ultrapassou o investimento na produção de petróleo e gás; em 2026, prevê-se que aumente mais 75%
De acordo com a análise e os dados de mercado divulgados pela Agência Internacional da Energia (IEA) a 26 de abril, o investimento de capital (capex) total das cinco principais empresas tecnológicas em 2025 ultrapassa 400 mil milhões de dólares, sendo aplicado principalmente à construção de infraestruturas de IA, num nível já superior ao do investimento anual global em produção de petróleo e gás natural. A IEA estima que os capex relacionados poderão aumentar mais 75% em 2026.
MarketWhisper45m atrás
O senador Bernie Sanders emite um aviso sobre a ameaça existencial da IA
Sanders sublinhou que, mesmo que a maioria dos cientistas de IA reconheça a possibilidade de a IA escapar ao controlo e se tornar um perigo para a nossa existência, não foram tomadas medidas importantes para evitar isso. “Temos de garantir que a IA beneficia a humanidade, e não nos prejudica”, afirmou.
Principais lições:
Bernie Sanders
Coinpedia55m atrás
Responsável pelo grande modelo da Xiaomi: a competição em IA está a mudar para a era dos agentes, e a autoevolução é um evento-chave para a AGI
A responsável da equipa de grandes modelos da Xiaomi, Luo Fuli, concedeu uma entrevista aprofundada na plataforma Bilibili em 24 de abril (número do vídeo: BV1iVoVBgERD). A entrevista teve a duração de 3,5 horas e foi a sua primeira exposição pública e sistemática das suas perspetivas técnicas enquanto responsável técnico. Luo Fuli afirmou que a competição na área dos grandes modelos já passou da era do Chat para a era do Agent, e indicou que «autoevolução» será o acontecimento-chave para a AGI no próximo ano.
MarketWhisper55m atrás
A Voz do Grok da xAI assume a linha de atendimento ao cliente da Starlink, 70% das chamadas são arquivadas automaticamente
De acordo com o comunicado oficial publicado pela xAI a 23 de abril, a xAI lançou o agente de IA de voz Grok Voice Think Fast 1.0 e já o colocou em funcionamento na linha telefónica de apoio ao cliente +1 (888) GO STARLINK. Com base nos dados de testes divulgados no anúncio, 70% das chamadas são encerradas automaticamente por IA, sem necessidade de intervenção humana.
MarketWhisper1h atrás