Швидкі повені щороку забирають тисячі життів. Вони трапляються швидко, найсильніше вражають міста, і протягом десятиліть майже нічого не могли зробити вчені, щоб передбачити їхню появу, оскільки даних для тренування моделей прогнозування просто не існувало. У четвер Google повідомила, що знайшла спосіб вирішити цю проблему — за допомогою читання новин. Компанія представила Groundsource — систему, яка використовує Gemini AI для аналізу мільйонів новинних статей, опублікованих з 2000 року, витягує з них посилання на повені та прив’язує кожне до місця та дати. Результатом є набір даних з 2,6 мільйона історичних швидких повеней, що охоплює понад 150 країн, і тепер відкритий для завантаження та використання будь-ким.
Цей набір даних був використаний для тренування нової AI-моделі, здатної прогнозувати ймовірність швидкої повені в міській зоні протягом наступних 24 годин. Прогнози вже доступні на Flood Hub Google — тій самій платформі, яку компанія вже використовує для попередження близько 2 мільярдів людей про повені, пов’язані з річками. Проблема, яку вирішує Groundsource, досить проста. У річок є фізичні датчики — сенсори, що встановлені у воді і фіксують рівень води десятиліттями. Саме так метеорологи навчилися прогнозувати, коли річка переповниться. У міських вулицях таких датчиків немає. Коли сильний дощ потрапляє на pavement і перевантажує дренажні системи, повінь трапляється дуже швидко і локально, щоб її можна було відстежити за допомогою традиційних інструментів. Без історичних записів ви не можете навчити AI-модель розпізнавати цей патерн. Вирішення Google полягало в тому, щоб вважати новинні статті відсутніми датчиками.
«Перетворюючи публічну інформацію у корисні дані, ми не просто аналізуємо минуле — ми будуємо більш стійке майбутнє для всіх, щоб ніхто не був несподівано застигнений природною катастрофою», — заявила Google.
Джерело: Google
Після фільтрації реклами, навігаційних меню та дублікатів, а також перекладу статей з інших мов англійською, команда перетворила мільйони хаотичних текстових описів у чисті, геолокалізовані часові ряди даних. Модель, навчена на цих даних, використовує нейронну мережу LSTM — тип AI, створений для обробки послідовностей у часі — для аналізу погодних прогнозів по годинах разом із локальними факторами, такими як щільність урбанізації, швидкість поглинання ґрунтом і топографія. Вона видає простий сигнал: середній або високий ризик повені протягом наступних 24 годин для будь-якої міської зони з щільністю населення понад 100 осіб на квадратний кілометр. Система має свої обмеження. Вона охоплює лише приблизно 20 квадратних кілометрів за раз, не може точно визначити ступінь серйозності повені і погано працює у регіонах з малою кількістю новинного висвітлення. Проте перші результати вже вражають. Регіональний орган з надзвичайних ситуацій у Південній Африці отримав сповіщення Flood Hub під час бета-тестування, підтвердив повінь на місці та направив гуманітарного працівника для реагування. За словами директора з кризової стійкості Google Juliet Rothenberg, «цей ланцюг подій — від прогнозу у Flood Hub до присутності на місці — саме те, для чого створений Flood Hub».