O Google está testando contratações por meio de exames que permitem que engenheiros usem ferramentas de IA

De acordo com o The Chosun Daily, a Google está fazendo testes de exames de contratação que permitem que candidatos a engenheiros de software dos EUA usem ferramentas de IA em cargos selecionados de nível inicial e intermediário. O teste inclui tarefas de compreensão de código em que os candidatos analisam código existente, corrigem bugs e melhoram o desempenho. Os entrevistadores vão avaliar como os candidatos orientam a IA, verificam a saída, editam os resultados e fazem o debug do código, em vez de avaliar apenas a capacidade de escrever código do zero.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

ByteDance planeja aumentar em 25% os gastos com infraestrutura de IA para 200 bilhões de yuanes este ano

De acordo com a ChainCatcher citando a Golden Data, a ByteDance planeja aumentar os gastos com infraestrutura de IA em 25% para 200 bilhões de iuanes este ano, impulsionada pelos custos crescentes de chips de memória e pelo desenvolvimento acelerado da inteligência artificial.

GateNews19m atrás

Plataforma de IA para empresas encerra rodada de financiamento $16M liderada pela a16z

De acordo com a Odaily, a plataforma corporativa de IA Pit anunciou a conclusão de uma rodada de financiamento de US$ 16 milhões, liderada pela a16z, com participação da Lakestar e de executivos da OpenAI, Anthropic, Google, Deel e Revolut. A Pit se posiciona como “time de produto de IA como serviço”, projetado para substituir planilhas tradicionais e sistemas SaaS rígidos.

GateNews26m atrás

A OpenAI descontinua a API de fine-tuning com efeito imediato; usuários existentes poderão acessar até 6 de janeiro de 2027

De acordo com o anúncio oficial da OpenAI monitorado pela Beating, a empresa está descontinuando sua API de Fine-tuning self-serve para desenvolvedores a partir de agora. Novos usuários não podem mais criar tarefas de fine-tuning, enquanto usuários ativos existentes podem acessar o serviço até 6 de janeiro de 2027. Modelos fine-tunados implantados terão seus serviços de inferência vinculados ao ciclo de vida de seus modelos base, encerrando quando o modelo base for desativado. A OpenAI afirmou q

GateNews3h atrás

Sakana AI e Nvidia alcançam inferência do H100 30% mais rápida, pulando 80% dos cálculos inválidos

Sakana AI e Nvidia disponibilizaram TwELL em código aberto, um formato de dados esparso que permite que as GPUs H100 ignorem 80% das computações inválidas em grandes modelos de linguagem sem comprometer a precisão. A solução oferece até 30% mais velocidade na inferência e 24% mais rapidez no treinamento nas H100, ao mesmo tempo em que reduz o uso máximo de memória. Em testes em um modelo de 1,5 bilhão de parâmetros, a abordagem reduziu os neurônios ativos para abaixo de 2% por meio de regulariza

GateNews4h atrás

A Microsoft disponibiliza como código aberto o modelo Phi-Ground 4B, superando o OpenAI Operator e o Claude em precisão ao clicar na tela

Segundo Beating, a Microsoft recentemente disponibilizou em código aberto a família de modelos Phi-Ground, projetada para resolver o problema de onde a IA deve clicar em uma tela de computador. A versão de 4 bilhões de parâmetros, combinada com modelos de linguagem maiores para planejamento de instruções, superou a precisão de clique do OpenAI Operator e do Claude Computer Use no benchmark Showdown e ficou em primeiro lugar entre todos os modelos com menos de 100 bilhões de parâmetros em cinco a

GateNews4h atrás

A Tilde Research descobre que o Muon Optimizer mata 25% dos neurônios; a alternativa Aurora alcança um ganho de eficiência de dados 100x

De acordo com a Tilde Research, o otimizador Muon adotado por modelos de IA de ponta, incluindo DeepSeek V4 e Kimi K2.5, tem uma falha oculta: ele faz com que mais de 25% dos neurônios das camadas MLP morram permanentemente durante o treinamento inicial. A equipe projetou a Aurora, um otimizador alternativo, e a disponibilizou em código aberto. Um modelo com 1,1B parâmetros treinado com apenas 100B tokens conseguiu igualar o desempenho do Qwen3-1.7B treinado em 36T tokens em benchmarks de compre

GateNews5h atrás
Comentário
0/400
Sem comentários