7 трендов в аналитике больших данных
Сегодня тема работы с большими данными уже не вызывает большого шума и бурных обсуждений. Заказчики и вендоры перешли от слов к делу. Первые осознали ценность больших данных и полностью поменяли подход к ним — стали более избирательными и требовательными в отношении сбора и хранения информации. А вторые предлагают рынку аналитические системы для решения любых задач: корпоративные инструменты, обслуживаемые командой специалистов, решения self-service, системы ситуативной аналитики и центры мониторинга данных. О семи трендах, которые получили влияние на рынке аналитики больших данных, рассказывает Максим Комлев, технический директор компании Quillis.
Максим Комлев, технический директор компании Quillis |
Тренд 1: использование искусственного интеллекта и машинного обучения
На практике это означает, что появляется все больше аналитических систем, где пользователь может задавать системе запросы на обычном языке. После появления ChatGPT использование в ИТ-решениях языковых моделей стало трендом, и многие поставщики аналитических систем внедряют эту возможность в свои продукты.
Использование искусственного интеллекта и машинного обучения может иметь множество преимуществ для бизнеса:
- Автоматизация и оптимизация процессов. Это касается не только рутинных и повторяющихся задач, но и оптимизации бизнес-процессов с помощью анализа больших объемов данных.
- Анализ и прогнозирование данных. Это помогает бизнесу получить ценную информацию для принятия решений, выявления тенденций, прогнозирования рыночных условий и потребностей клиентов.
- Персонализация и улучшение пользования. Например, рекомендательные системы могут адаптироваться к предпочтениям и поведению клиентов, чтобы предлагать им наиболее релевантные решения.
- Прогнозирование и управление рисками. С помощью алгоритмов машинного обучения можно разработать модели, которые будут предсказывать вероятность возникновения определенных рисковых ситуаций или мошенничества.
Тренд 2: внимание к точности, целостности и безопасности данных
Подход к данным изменился. Если раньше компании собирали все данные, не имея четкой стратегии их дальнейшего использования, сейчас такое отношение — большая редкость. Заказчики не просто планируют, какие данные собирать и для каких задач использовать. Бизнесу часто требуется собирать данные из различных систем, чтобы получить полную картину и принять информированное решение. Однако эти данные могут быть некачественными или несогласованными в разных системах, что затрудняет их использование. Для решения этой проблемы бизнес может привлекать человеческий ресурс.
Люди играют важную роль в обеспечении сбора и хранения качественных данных. Этот ресурс можно использовать для выполнения таких задач, как:
- Проверка данных на соответствие заранее определенным стандартам и критериям.
- Устранение дубликатов и ошибок.
- Внесение данных, которые невозможно автоматически собрать. Некоторые данные могут быть доступны только в неструктурированной форме или требовать специализированных навыков для их сбора.
- Обработка и классификация данных.
Тренд 3: использование систем аналитики для построения цифровых двойников
Один из ключевых трендов уходящего года — создание цифровых двойников. Например, разработчики Quillis с помощью собственных инструментов создают для клиента полную цифровую копию бизнеса. Этот двойник — визуализированная аналитика по всем аспектам деятельности — полностью отражает текущее положение дел в компании, в реальном времени отображает критически важные показатели, динамику изменений и многие другие факторы, важные для клиента.
Цифровые двойники можно создавать для любой области, любого бизнеса. Они с успехом заменяют традиционные аналитические отчеты, перегруженные избыточными показателями и необъективной информацией. Табличные отчеты или аналитика, отрисованная силами дизайнеров, не оставляют пользователю выбора, тогда как визуализация цифрового двойника может гибко настраиваться в зависимости от задач и требований заказчика.
Тренд 4: расширение возможностей Self-Service-аналитики и снижение зависимости от ИТ-отделов
Инструменты Self-Service аналитики представляют собой решения, которыми сотрудник компании может пользоваться самостоятельно, создавать отчеты, не привлекая ИТ-специалистов. Такие продукты, как, например, Lerimi от Quillis, появились в ответ на потребность среднего и высшего менеджмента заказчиков самостоятельно анализировать информацию, собирать отчеты в реальном времени, не дожидаясь, пока команда аналитиков подготовит их с использованием более серьезных систем.
Подобные решения есть у многих вендоров. Они не менее функциональны, чем большие корпоративные системы: работают одновременно с несколькими источниками, позволяют создавать множество моделей данных, имеют развитые средства визуализации и создания отчетов.
Тренд 5: растет спрос на обработку данных в реальном времени
RTBI — real-time business intelligence — это ближайшее будущее большинства систем бизнес-аналитики. Искушенные пользователи привыкли получать любую информацию здесь и сейчас. Те же требования ставятся и перед сложными бизнес-приложениями. На сегодня стандартным временем отклика BI-системы от запроса до выдачи изображений стал интервал в 6–7 секунд. Пользователи хотят получать аналитику быстро, очень быстро. И это касается не только критически важных систем, используемых в здравоохранении, на производстве, для мониторинга безопасности, но и в более «спокойных» сегментах, таких как ретейл.
Тренд 6: интеграция с облачными технологиями
Вендоры все чаще предоставляют заказчику свои ресурсы для работы с большими данными. Это снимает с бизнеса необходимость приобретать серверные мощности, нанимать специалистов, контролировать работоспособность ИТ-систем. С использованием облачных мощностей решения становятся более гибкими и масштабируемыми. Для государственных компаний и тех, кто предъявляет повышенные требования к безопасности данных, по-прежнему актуальны инструменты, которые можно внедрять в контур организации.
Тренд 7: компании все чаще инвестируют в хранилища данных и лэйкхаусы для глубокого анализа больших данных
Бизнес подходит к аналитике данных все более осознанно, предъявляя требования и к самим данным, их качеству и объему, и к тому, как организовано их хранение. Очевидно, что сбор данных из нескольких разрозненных источников не позволит добиться требуемого уровня производительности аналитических систем. Качество аналитики и скорость отклика системы напрямую зависят от того, как эти данные собираются и хранятся.
Бизнес, оценивая объем данных и его ежегодное увеличение, все чаще приходит к идее организации хранилищ данных — масштабируемых и быстрых, способных обеспечить работоспособность системы в нужном режиме.
Хранилище данных — фундамент, основа, на которой в дальнейшем может быть развернута аналитическая система.