Як повідомляє The Chosun Daily, Google тестує іспити для найму, які дозволяють кандидатам на посади для US-інженерів програмного забезпечення використовувати інструменти ШІ в окремих позиціях початкового та середнього рівня. У межах експерименту передбачені завдання на розуміння коду, де заявники переглядають наявний код, виправляють помилки та покращують продуктивність. Інтерв’юери оцінюватимуть, як кандидати формулюють запити до ШІ, перевіряють його результат, редагують отримані дані та налагоджують код, а не лише те, наскільки вони здатні писати код з нуля.
Застереження: Інформація на цій сторінці може походити від третіх осіб і не відображає погляди або думки Gate. Вміст, що відображається на цій сторінці, є лише довідковим і не є фінансовою, інвестиційною або юридичною порадою. Gate не гарантує точність або повноту інформації і не несе відповідальності за будь-які збитки, що виникли в результаті використання цієї інформації. Інвестиції у віртуальні активи пов'язані з високим ризиком і піддаються значній ціновій волатильності. Ви можете втратити весь вкладений капітал. Будь ласка, повністю усвідомлюйте відповідні ризики та приймайте обережні рішення, виходячи з вашого фінансового становища та толерантності до ризику. Для отримання детальної інформації, будь ласка, зверніться до
Застереження.
Пов'язані статті
OpenAI припиняє API для тонкого налаштування з негайною дією; чинні користувачі можуть отримувати доступ до 6 січня 2027 року
У офіційному оголошенні OpenAI, яке відстежує Beating, компанія припиняє роботу власного Fine-tuning API для самостійного використання розробниками — з негайним набранням чинності. Нові користувачі більше не можуть створювати завдання для доопрацювання, тоді як чинні активні користувачі можуть отримувати доступ до сервісу до 6 січня 2027 року. Розгорнуті fine-tuned моделі матимуть сервіси інференсу, прив’язані до життєвого циклу їхніх базових моделей: вони припинять роботу, коли базову модель бу
GateNews1год тому
Sakana AI та Nvidia досягають на 30% швидшого виведення на H100, пропускаючи 80% некоректних обчислень
Sakana AI та Nvidia оприлюднили з відкритим кодом TwELL — розріджений формат даних, який дає змогу GPU H100 пропускати 80% невалідних обчислень у великих мовних моделях без втрати точності. Рішення забезпечує до 30% швидшого виведення та на 24% швидшого навчання на H100, водночас зменшуючи пікове споживання пам’яті. Під час тестування на моделі з 1,5 мільярда параметрів підхід знизив активні нейрони до менш ніж 2% завдяки легкій регуляризації під час навчання, не спричинивши погіршення продуктив
GateNews2год тому
Microsoft відкриває вихідний код моделі Phi-Ground 4B, перевершує OpenAI Operator і Claude за точністю кліків по екрані
За Beating, Microsoft нещодавно відкрито опублікувала у відкритому доступі сімейство моделей Phi-Ground, створених для вирішення проблеми того, куди саме ШІ має клікати на екрані комп’ютера. Версія з 4 мільярдами параметрів у парі з більшими мовними моделями для планування інструкцій перевищила точність кліків OpenAI Operator і Claude Computer Use у бенчмарку Showdown та посіла перше місце серед усіх моделей із менш ніж 100 мільярдами параметрів у п’яти оцінюваннях, зокрема в ScreenSpot-Pro. Ком
GateNews2год тому
Tilde Research виявляє, що Muon Optimizer знищує 25% нейронів; альтернативний Aurora досягає приросту ефективності збирання даних у 100 разів
За даними Tilde Research, оптимізатор Muon, який використовують провідні моделі ШІ, зокрема DeepSeek V4 та Kimi K2.5, має прихований недолік: він спричиняє, що понад 25% нейронів шарів MLP назавжди гинуть під час раннього тренування. Команда розробила Aurora — альтернативний оптимізатор — і відкрила його код. Модель із 1,1B параметрами, натренована лише на 100B токенів, досягла продуктивності на рівні Qwen3-1.7B, навченої на 36T токенів, у бенчмарках розуміння мови, зокрема HellaSwag і Winogrand
GateNews3год тому
Nvidia інвестує понад 40 мільярдів доларів у проєкти зі ШІ на початку 2026 року, зокрема 30 мільярдів доларів для OpenAI
За даними TechCrunch, Nvidia у перші місяці 2026 року спрямувала понад 40 мільярдів доларів на інвестиції в акціонерний капітал AI-компаній, причому інвестиція в OpenAI на 30 мільярдів доларів стала найбільшою окремою угодою. Виробник чипів також пообіцяв до 3,2 мільярда доларів склозаводу Corning і до 2,1 мільярда доларів оператору дата-центрів IREN, що включає дворічну гарантію та окремий контракт на 3,4 мільярда доларів на керовані GPU-хмарні сервіси з використанням систем Nvidia Blackwell. З
GateNews6год тому
NVIDIA відкрила довгострокове партнерство з Deepinfra, який залучив 107 млн доларів у раунді B для створення «токен-фабрики»
ШІ-стартап DeepInfra оголосив про завершення раунду B на $1,07 млрд, який очолюють 500 Global і ранній інженер Google Georges Harik; у ньому також беруть участь стратегічні інвестори, зокрема NVIDIA (輛輝達), Samsung Next та Supermicro. Як повідомляє офіційне джерело, ці вливання будуть спрямовані на розширення потужностей глобальних дата-центрів, щоб подолати поточні виклики, з якими стикаються застосунки ШІ під час переходу від етапу «тренування моделей» до «масштабного інференсу», зокрема щодо о
ChainNewsAbmedia7год тому