Материал раздела Основной
Татьяна Бочарникова
Цифровая трансформация бизнеса, затрагивая инфраструктуру, мобильные устройства и интернет вещей, продуцирует колоссальные объемы данных, которые постепенно становится практически невозможно обрабатывать традиционными методами анализа. С развитием проектов и увеличением количества данных — а исследователи IDC ожидают, что рынок будет расти в среднем на 13,2% ежегодно и составит $274,3 млрд к 2022 году, — для бизнеса становится все важнее избегать задержки при обращении к той или иной информации. Иначе текущая работа будет прерываться, клиенты потеряют лояльность, а компания понесет убытки.
Термин «гравитация данных» придумал инженер-программист Дэйв МакКрори в 2010 году. По аналогии с физическим законом всемирного тяготения данные обладают «силой притяжения» — «притягивают» к себе приложения, сервисы, время, специалистов, ресурсы. И чем больше массив данных, тем больше его «сила притяжения».
Под влиянием этого феномена меняются и сами инструменты анализа больших данных. Пользователям требуется обрабатывать информацию в реальном времени без секунды задержки вне зависимости от местонахождения. У компаний возникает потребность анализировать большие массивы распределенных данных с умом (пусть и искусственным), который позволяет выявлять закономерности, предсказывать изменения и корректировать стратегию развития.