2023/04/11 12:56:42

Big Data и BI Day 2023

22 марта 2023 года состоялась конференция «Big Data и BI Day 2023»

Содержание

22 марта в Москве прошла конференция, посвященная большим данным и бизнес-анализу — Big Data и BI Day 2023. Участники мероприятия ознакомились с результатами проектов по импортозамещению, возможностями отечественных BI-решений, планами вендоров по их развитию, опытом компаний различных отраслей экономики по разработке BI-систем собственными силами.

В мероприятии приняли участие представители таких организаций, как РТИ им. Академика А.Л. Минца, Государственный университет управления, Росгосстрах, Уральский завод гражданской авиации, Выксунский металлургический завод, ТАСС, АКБ «Алмазэргиэнбанк», «Сумитек Интернейшнл», SberAutoTech. Вел конференцию Алексей Воронин.

Ставка на облака

Как увеличить банковские кросс-продажи в течение года на 5%, окупив при этом все вложения? Своим опытом решения этой задачи поделились с участниками конференции представители «Уральского банка реконструкции и развития» Александр Павлюк, руководитель Центра аналитики больших данных, и Василий Зюзин, руководитель блока моделирования Центра аналитики больших данных.

Александр Павлюк, руководитель Центра аналитики больших данных, «Уральский банк реконструкции и развития»

Александр Павлюк подчеркнул, что выбирать клиентов случайным образом неэффективно. Таргетирование способно решить задачу максимизации продаж при снижении их стоимости и повышении лояльности клиента. Для этого, во-первых, нужна ИТ-инфраструктура, а также интеграция с бизнес-системами банка с целью консолидации и тщательного изучения данных. Во-вторых, потребуются замкнутые процессы по подготовке качественных данных, мониторинг моделей и их своевременное переобучение. Без этого на конкурентном банковском рынке кросс-продажи не повысить, констатировал спикер, добавив, что по итогам реализации проекта в банке оперируют более 500 признаками клиентов.

Здесь сделали ставку на облачную инфраструктуру (поставщик услуг — Yandex Cloud). Во внутреннем контуре развернули озеро данных, одновременно выстраивая цикл разработки, и уже через год в банке появился полноценный сервис кросс-продаж, который начал приносить прибыль, отметил Александр Павлюк.

«
Важно, чтобы бизнес понимал пользу от больших данных при построении системы кросс-продаж. Стоит выделить бюджеты на работу с ними, поставив задачу за год окупить проект, — считает докладчик. — Мы пошли в облачную сферу, где и развернули фреймворк. Всю ИТ-поддержку отдали на откуп провайдеру, а сами занялись построением процесса, модели, сервисов и извлечением прибыли.

»

Василий Зюзин, руководитель блока моделирования Центра аналитики больших данных, «Уральский банк реконструкции и развития»

Василий Зюзин рассказал о том, как модели работы с данными поддерживаются в актуальном состоянии. Качество моделей отслеживается постоянно, а сбор признаков клиентов и их агрегация происходит ежедневно.

«
В сервисе кросс-продаж у нас целый пул моделей, которые мы постоянно поддерживаем, — сообщил он. — В целом, сервис позволил снизить количество ненужных коммуникаций и дал возможность гибко управлять стоимостью взаимодействия с клиентами.
»

Михаил Граденко, руководитель подразделения Data Science, группа НЛМК, рассказал про то, как собственными силами была создана DSML-платформа (Data Science & Mashing Learning) для разработки и выпуска новых цифровых продуктов на базе технологий открытого кода.

Михаил Граденко, руководитель подразделения Data Science, НЛМК

В традиционном ИТ-ландшафте (виртуализация, СХД, коробочные решения и отделы ИТ) нет места машинному обучению, уверен докладчик. Но когда компания следует облачному тренду (облако вычислений, облако хранения, открытый код, DevOps-организация), подразделение Data Science органично встраивается в такую структуру.

«
Мы строили DSML-платформу силами подразделения Data Sсience, — пояснил он. — У нас были малые ресурсы и небольшие бюджеты, и мы сфокусировались на главном: на «передаваемости» моделей, реализации проекта минимальными усилиями, низкой стоимости разработки и поддержки DSML-платформы. В итоге мы ни копейки не заплатили интеграторам, вендорам или консультантам, все делали собственными силами.
»

Михаил Граденко уверен, что машинным обучением необходимо заниматься системно, иначе ML-решения будут «умирать сразу после подписания акта». Неправильный выбор подрядчика приводит к тому, что не удается качественно передать модель от подрядчика к исполнителю или от одного исполнителя к другому.

В НЛМК отказались от варианта с публичным облаком, поскольку, во-первых, были не готовы поставить себя в зависимость от облачного провайдера, а, во-вторых, подпадают под объекты КИИ. Вариант с выбором готовой DSML-платформы от вендора с рынка тоже был отвергнут, поскольку решения на базе Hadoop, по оценке спикера, не подходят для НЛМК (гомогенная среда выполнения, сложность обновлений, недостаточная изоляция на уровне вычислительных ресурсов и др.).

В результате платформа создавалась силами подразделения Data Science. Потребовалось пять разработчиков, они же занимаются сейчас поддержкой и эксплуатацией. Для построения платформы использовался набор следующих инструментов: Python-Only, JupyterHub, Pandas on Spark, Jupyter Stack. В общей сложности «под капотом» у платформы более 600 компонентов из стека открытых технологий, принято решение вывести это решение в Open Source.

На выходе получилась DSML-платформа как среда, предоставляющая инструменты и сервисы в рамках утвержденной методологии для разработки, внедрения и эксплуатации новых цифровых продуктов. Опыт ее использования в группе компаний уже внушительный — три года. На платформе работает более 100 пользователей (аналитики, подрядчики). В результате сократилась стоимость эксплуатации моделей, в разы увеличилась скорость вывода новых продуктов.

Если решений на рынке нет, бизнес делает их самостоятельно

Вместе выступили Галина Полищук, управляющий директор, и Владимир Гура, директор по данным. Оба спикера представляли направление «корпоративный бизнес» компании «Випсервис» — крупнейшего российского холдинга в сфере путешествий.

Галина Полищук, управляющий директор, «Випсервис»

Галина Полищук рассказала о собственном центре разработки, а также об ИТ-экосистеме компании. Центром данной экосистемы является онлайн-платформа по бронированию услуг в командировку, которой пользуются и клиенты, и сотрудники «Випсервис». В экосистему входят следующие модули:

  • отельный агрегатор;
  • транспортный агрегатор;
  • платформа аналитики командировок и бюджет-помощник ОКО;
  • модуль управления авансовыми отчетами;
  • ряд других систем.

Далее оба спикера поочередно обрисовывали подробности работы платформы аналитики ОКО. Она обладает широким функционалом, в частности, здесь есть:

  • показатели по командировкам всех сотрудников в одном окне, есть возможность «провалиться» в детали, выгрузить отчет в любом разрезе данных и составить годовой бюджет на поездки;
  • выгрузка данных в любом формате (PowerPoint, PDF, XLS);
  • контроль расходов: ОКО регистрирует отклонения от норм расходов на командировки, принятых в компании, и выявляет причины превышения бюджета;
  • бюджет-помощник: можно сегментировать затраты за прошлый период по видам услуг (отели, железнодорожные билеты, авиабилеты и трансферы), прогнозировать бюджет на новый финансовый год с разбивкой по категориям;
  • любые разрезы данных.

«
В числе прочего мы управляем деловыми поездками и помогаем клиентам экономить выделяемые на это бюджеты. Для того, чтобы делать это эффективно, нужны профессиональные инструменты. На рынке ничего подобного не существовало, поэтому мы создали такой продукт самостоятельно, — пояснила Галина Полищук.
»

Владимир Гура, директор по данным, «Випсервис»

К платформе можно «прикручивать» любые внешние BI-решения.

«
Как и многие другие компании, мы прошли эволюционный путь от использования Excel к BI-решению, — говорит Владимир Гура. — Поначалу данные из различных информационных систем подкачивались в Excel, формировались отчеты для руководителей, менеджеров среднего звена — и это занимало много времени. Постепенно мы подошли к созданию платформы ОКО. На начальном этапе использовали внешних разработчиков, а затем стали разрабатывать все самостоятельно. Решение позволило сократить время подготовки отчетов. Клиент может в режиме онлайн видеть расходы на командировки.
»

Евгений Линник, руководитель офиса по анализу и управлению данными «Российского футбольного союза» рассказал, что в компании для анализа и визуализации данных ранее использовали Tableau, а когда западный вендор ушел, то рассматривали:

  • BI-системы с открытым исходным кодом;
  • системы бизнес-анализа, разработанные и поддерживаемые российскими производителями;
  • китайские решения (Fine BI).

Евгений Линник, руководитель офиса по анализу и управлению данными, «Российский футбольный союз»

Спикер отметил, что анализ представленных на рынке вариантов BI-решений и возможных путей миграции отчетности из старой системы показал, что нет ни одного варианта, позволяющего осуществить перенос файлов отчетности в формате .twbx.

«
Аналитика в спортивных организациях сейчас не развивается со стороны вендоров и интеграторов. Внедрений BI-решений мало. Люди, видимо, просто не доходят до спортивных организаций,— констатировал Евгений Линник.
»

В результате старые отчеты на Tableau использовались только как примеры визуализации, а перенос отчетности сводился к полной переработке отчетов под новую платформу. BI-решение решили создавать самостоятельно на базе Superset. В ходе доработки вокруг базового дистрибутива было сделано следующее:

  • разработка собственных чартов на Java;
  • реализация переходов между листами отчета;
  • реализация фильтрации по чартам;
  • реализация кастомизированных главных страниц;
  • встраиваемые чарты.

Основные задачи на будущее — создать спортивные отчеты, перерисовать все реализованные отчеты с учетом требований к корпоративному стилю и с использованием дизайн-системы CONSTA, встроить отчеты и чарты во внутренние системы РФС.

Вадим Уланов, директор по данным, «ВсеИнструменты.ру», рассказал, как обстояли дела с бизнес-анализом год назад, когда он пришел в компанию. Здесь могли похвастаться не только множеством заказчиков — всего остального было тоже много. Более 250 отчетных аналитических форм, 100 метрик, при этом ассортимент — свыше миллиона. При расчете метрик в разных подразделениях были индивидуальные ограничения.

Вадим Уланов, директор по данным, «ВсеИнструменты.ру»

На начальном этапе стояли три основные задачи. Нужно было сформулировать список метрик, обеспечить единый алгоритм их расчета в централизованных инструментах аналитики, а также сделать данные, необходимые для принятия управленческих решений, доступными.

«
Направление аналитики должно знать бизнес, показывать бизнесу точки для развития. Это предъявляет большие требования к команде, — подчеркнул Вадим Уланов.
»

Тактика, которой придерживались в ходе решения этих задач:

  • разделить понятия «метрика» и «аналитический разрез»;
  • метрика считается на основе рыночной практики, не надо придумывать что-то новое;
  • понимание аналитиками бизнеса;
  • подход от «общего к частному»;
  • аналитический инструмент — это не выгрузка данных.

После известных событий компании потребовалось срочно переезжать с Oracle BI на одну из отечественных платформ, причем в самые сжатые сроки — на все два месяца. В кризис перестроили команду на три линии: первая — линия поддержки, сдерживающая прессинг бизнеса, вторая занималась быстрой разработкой, третья отвечала за архитектуру системы.

Древняя история

Антон Слученков, заместитель директора департамента аналитики и развития, ПЭК, прошелся по истории ИТ, началом которой можно считать создание антикитерского механизма, датируемого II веком до н.э. Это был «компьютер» на шестеренках, позволявший рассчитывать движение небесных тел, вычислять даты астрономических событий.

Антон Слученков, заместитель директора департамента аналитики и развития, ПЭК

Другие вехи эволюции, выделенные спикером:

  • гомеоскоп Корсакова (1832 год), где впервые использованы пластины с отверстиями для хранения и кодирования информации;
  • книга Джона Тьюки Exploratory Data Analysis («Разведочный анализ данных»), где автором была предложена научная дисциплина «анализ данных», а также компьютерные термины software и bit (от binary digit, двоичное число);
  • появление языков программирования (Fortran, Basic, Pascal, C, Python)
  • появление визуализации данных (VisiCalc, Lotus, Excel);
  • GPT-чат с искусственным интеллектом.

«
Сейчас начинается эра искусственного интеллекта, — считает Антон Слученков. — Из новинок могу назвать GPT-чат. К чему эта технология приведет пока непонятно, но, скорее всего, добавит на рынок дополнительных рабочих мест.
»

В заключение доклада он упомянул, что в компании ПЭК установлена и продолжает эксплуатироваться Power BI, но не в облачной реализации, а на площадке заказчика.

Алексей Никитин, генеральный директор, Visiology, тоже коснулся истории, но локальной — истории своей компании. Разработка аналитической платформы Visiology здесь началась еще в 2016 году.

«
Визуализацией информации мы занимаемся 14 лет и семь лет — разработкой собственной системы бизнес-анализа. Первый релиз у нас вышел в далеком 2016 году, когда импортозамещение еще не было мейнстримом, — поделился Алексей Никитин. — Мы ежегодно участвуем в различных конкурсах. Так, в прошлом году участвовали и победили в конкурсе «Лучшее цифровое решение», проводившимся Аналитическим центром при Правительстве РФ, а в конце прошлого года победили в номинации «Лучшее решение» в рамках хакатона на конференции «Битва BI-систем», которая прошла при поддержке Минцифры, РФРИТ на площадке Координационного центра при Правительстве РФ».
»

Алексей Никитин, генеральный директор, Visiology

Кроме того, докладчик поделился видением недостатков BI-системы с внешним хранилищем данных, в зоне ответственности ИТ-специалистов и в сравнении со встроенной в BI аналитической базой данных. Когда аналитическое хранилище находится в зоне ответственности ИТ, наблюдается следующая картина:

  • у пользователей нет возможности проводить исследовательский анализ самостоятельно за пределами централизованного хранилища;
  • скорость ответа на запросы и надежность решения зависят от компетенций и стоимости ИТ-команды;
  • стоимость поддержки сильно увеличивается с ростом объема информации.

Устранить эти недостатки и перейти к режиму самообслуживания помогают специализированные базы данных, встроенные в BI-решение. Такая база данных есть в составе Visiology — это ViQube, in-memory база данных собственной разработки. Плюсы такого подхода в том, что стоимость ИТ-поддержки решения снижается, а у пользователей появляется возможность самостоятельно проводить исследовательский анализ за пределами централизованного хранилища. Скорость ответа на запросы и надежность решения не зависит от компетенций ИТ-команды, что гарантирует быструю аналитику.

В завершение доклада спикер рассказал про новую версию аналитической платформы Visiology 3, выпуск релиза которой ожидается в апреле. Решение имеет интерфейс, привычный для пользователей Power BI, что облегчает для них переход на новый продукт. Ядром встроенной базы данных ViQube стала аналитическая база данных ClickHouse.

О том, как с помощью импортозамещающих технологий возможно снизить нагрузку на SAP HANA рассказал Антон Гельмут, архитектор решений, Sapiens solutions. Он перечислил задачи, которые можно решить предлагаемым способом:

  • снижение нагрузки на SAP HANA (SAP BW/4HANA, SAP BW on HANA) и решение проблем с производительностью без покупки дополнительного железа;
  • снижение роли продуктов SAP в корпоративном хранилище данных вплоть до полного ухода на импортозамещающие технологии.

Антон Гельмут, архитектор решений, Sapiens solutions

Суть подхода к решению этих задач такова. В ИТ-ландшафте размещается дополнительная база данных (Arenadata DB и т.д.), данные разделяются по степени актуальности («температуре»), в новой базе данных размещаются холодные данные. Перенесение ядра КХД осуществляется в три шага:

  • «охлаждение» истории — создаются таблицы-копии объектов SAP BW, в них копируются данные, к Arenadata DB предоставляется доступ опытным пользователям, аналитическая отчетность продолжает работать на SAP BW;
  • освобождение оперативной памяти и CPU, проектирование и миграция наиболее ресурсоемких ETL-процессов;
  • полный перенос процессов ETL.

Спикер обратил внимание на то, что третий шаг понадобится только в случае полного отказа от SAP BW. Для реализации гибридной миграции был разработан специальный фреймворк. Алексей Никитин подчеркнул, что конкретных проектов по миграции пока не было.

«
Наш подход был сформирован в течение 2022 года совместно с клиентами, его условно можно назвать гибридной миграцией с продуктов SAP HANA, — резюмировал он. — Подход помогает решить проблему с производительностью SAP HANA и перейти на новый технологический импортозамещающий стек, сохраняя при этом привычный для пользователя интерфейс.
»

Как экономить на ИТ-инфраструктуре

Алексей Пятов, заместитель директора департамента бизнес-решений, VK Cloud, перечислил преимущества облачного подхода к размещению ИТ-инфраструктуры:

  • сокращается срок реализации бизнес-идей;
  • стоимость владения снижается на горизонте 3-5 лет;
  • растет рентабельность инвестиций.

«
В случае работы с большими данными на площадке наблюдается либо дефицит мощностей, либо их избыток, — рассказывает Алексей Пятов. — На старте проекта мощности закупаются с запасом, по прошествии времени их начинает не хватать и приходится работать в условиях дефицита вычислительных ресурсов. После очередных закупок оборудования опять возникает ситуация избытка мощностей. В случае с облаками всегда есть соответствие спроса и мощностей, поскольку есть возможность горизонтально масштабироваться.
»

Алексей Пятов, заместитель директора департамента бизнес-решений, VK Cloud

Компания, внедряющая решение на своей площадке, несет все расходы, связанные с покупкой и эксплуатацией СХД, серверов, сети, виртуализации, операционных систем, прикладного софта, считает спикер. Облачная реализация, в зависимости от выбранного варианта — IaaS, PaaS, SaaS — позволяет сократить эти расходы. Результатом является снижение TCO. В подтверждение своих слов Алексей Пятов привел кейс «Ашана», реализованный еще в 2021 году.

Спикер остановился и на причинах возникновения сложностей в проектах по большим данным (ниже они расположены в порядке убывания актуальности, по результатам опроса 150 специалистов):

  • недостаток компетенций в команде;
  • плохо каталогизированные данные;
  • отсутствие понимания ценности работы с большими данными;
  • высокая стоимость проекта, отсутствие бюджета;
  • неготовность ИТ-инфраструктуры к таким проектам;
  • сложность выбора технологического стека;
  • обеспечение безопасности;
  • недостаточная поддержка вендоров и провайдеров.

В этом году VK Cloud планирует пополнить список своих услуг сервисами, помогающими хранить, находить, анализировать данные, распределенные по разным облачным средам, дата-центрам и приложениям, то есть осуществлять управление данными (Data Governance).

На кейсе внедрения системы для управления клиентскими данными остановился в своем докладе Алексей Сандаков, директор по внедрению, CleverData (входит в ГК ЛАНИТ), отметив при этом, что система применима и для других отраслей экономики.

Алексей Сандаков, директор по внедрению, CleverData

Заказчик проекта хотел работать со своей клиентской базой более персонализировано, выстраивая в цифровых каналах эффективные коммуникации. Исходные данные проекта были таковы, что клиентская база исчислялась миллионами человек, а данные хранились в нескольких системах. В этих условиях требовалось решить ряд сложных технологических задач, чтобы реализовать омниканальное обслуживание: организовать сбор данных из разных источников, обнаружить пересечения, провести сегментацию, доставку клиентских списков по различным сегментам в различные системы коммуникации и аналитики.

Использование готового решения позволило существенно сократить расходы на разработку, внедрение и ускорило вывод продуктов на рынок. Тут Алексей Сандаков перечислил возможности CleverData Join — решения, на котором и был реализован проект. Докладчик описал этапы внедрения и его результаты по направлениям: новые возможности исследования клиентской базы, рост продаж и др.

«
Мы можем помочь структурировать данные и помочь организовать работу с ними, построить более эффективные коммуникации в цифровых каналах, — заверил он. — Для этого требуется решить задачу формирования единого профиля клиента.
»

На возможностях платформы CedrusData для сквозного анализа данных предприятия и удешевления ИТ-инфраструктуры остановился Владимир Озеров, генеральный директор, «Кверифай Лабс». Он обозначил особенности обычных хранилищ данных, которые приводят к дополнительным издержкам:

  • загрузка данных при помощи ETL, подключение новых источников и другие изменения требуют участия инженеров;
  • дублирование данных;
  • хранилища данных (Greenplum, Teradata, Vertica и т.д.) обладают низкой отказоустойчивостью и ограниченной масштабируемостью из-за совмещения процессов вычислений и хранения;
  • объединение данных из разных систем затруднено, поскольку каждая система имеет свой интерфейс.

Владимир Озеров, генеральный директор, «Кверифай Лабс»

Владимир Озеров объяснил, как эти проблемы можно снять использованием платформы CedrusData, описал возможные сценарии реализации в зависимости от конфигурации ИТ-инфраструктуры заказчика. Например, в организации используют озеро данных для выполнения задач пакетной обработки (batch processing), в то время как задачи интерактивной аналитики решаются посредством хранилищ данных. Технология CedrusData позволяет выполнять задачи интерактивной аналитики путем отправки SQL-запросов к озеру данных. Это дает снижение расходов на инфраструктуру за счет уменьшения дублирования данных, а также на лицензии и инфраструктуру хранилищ данных за счет переноса нагрузки в более дешевое озеро данных.

Платформа CedrusData построена на открытом коде Trino, промышленных внедрений нет, но запущено несколько пилотных проектов.

«
Наша платформа — набор вычислительных узлов. Мы не храним данные, они подтягиваются из озера данных и других источников, обрабатываются и выдаются в бизнес-приложения, — рассказал Владимир Озеров. — Получаем запрос на получение данных из разных источников и превращаем его в ряд команд.
»

Эдуард Федечкин, эксперт по системам бизнес-аналитики, «Терн», начал с определения BI-системы. По его словам, это набор совместимых друг с другом технологий сбора, хранения и анализа данных, позволяющих предоставлять пользователям, не имеющим прямого отношения к ИТ, достоверную информацию в удобном виде для принятия управленческих решений.

Эдуард Федечкин, эксперт по системам бизнес-аналитики, «Терн»


Отметив большой опыт компании по внедрению различных BI-систем, в особенности, системы BusinessObjects, впоследствии купленной SAP, спикер перешел к описанию собственных разработок компании: системы «Терн-Аналитика» и платформы «Терн Юниверс».

«Терн-Аналитика» — система поиска и исследования информации с целью поддержки принятия решений руководством компании, службой безопасности, различными департаментами. Эта система способна помочь решить такие задачи:

  • проверка деловой репутации, благонадежности, финансовой устойчивости, факторов риска контрагента;
  • поиск связей между компаниями, учредителями и руководителями, сервис по построению «корпоративной семьи» со структурными, дочерними организациями и корневыми владельцами;
  • автоматизированное формирование аналитических заключений в пакетном режиме;
  • анализ рынка по данным из открытых источников, увеличение доли рынка;
  • поиск надежных поставщиков и платежеспособных покупателей;
  • возможность самостоятельного персонализированного аналитического исследования информации сотрудниками компании.

«Терн Юниверс» — цифровая аналитическая платформа, близкая по духу к Business Objects, как особо отметил спикер. Платформа предназначена для создания корпоративных систем поддержки принятия решений. Она имеет собственный вычислительный препроцессор, который позволяет автоматически формировать динамические OLAP-кубы для пользователей в рамках выбранных ими объектов семантического слоя.

«
Наши аналитические системы позволяют объединять массивы разнородной информации из разнотипных источников, включая внешние, и создавать на их основе взаимосвязанную ассоциативную модель с собственной семантикой, — сказал Эдуард Федечкин.
»

Решаем проблемы

Сергей Мигалин, руководитель направления BI, «Центр информационных технологий», рассказал о методологических подходах к внедрению системы управления рисками, практикуемых компанией при реализации интеграционных проектов. Он обозначил проблемы управления рисками в современных условиях:

  • большое количество рисков;
  • постоянное возникновение новых рисковых факторов;
  • несвоевременность выявления рисков;
  • некоторые риски не выявляются вовсе, но вызывают возмущения на рынке;
  • каждый риск имеет свою специфику, природу возникновения, связан с разными факторами, имеет разные последствия;

актуальные знания о рисках фрагментированы.

Сергей Мигалин, руководитель направления BI, «Центр информационных технологий»

Современная система управления рисками (СУР) должна быть построена на технологиях искусственного интеллекта и анализа больших данных, что позволяет выявлять, в том числе, новые типологии рисковых ситуаций. Автоматизированной идентификации новых рисков Сергей Мигалин уделил особое внимание, подчеркнув, что их необходимо выявлять в процессе оценки с использованием гибридного подхода на основе анализа аномалий и с автоматическим формированием профиля потенциального риска.

«
Каждый риск — это вызов, нереализованные проекты, упущенные возможности, недополученная прибыль, — сказал Сергей Мигалин. — Мы исходим из понимания, что востребован механизм быстрого реагирования на актуальные вызовы. Современная система управления рисками является таким механизмом. И она должна быть построена на технологиях искусственного интеллекта и анализа больших данных, поскольку далеко не все рисковые ситуации, возникающие на рынке, выявляются.
»

Юрий Ефаров, генеральный директор, Easy Report, обозначил три основные проблемы бизнеса при использовании BI:

  • интуитивное принятие решений;
  • редкое информирование о KPI;
  • сложность масштабирования BI-системы.

«
Мы сделали сервис, позволяющий написать запрос в чате словами и получить ответ в виде таблицы или набора данных, словами попросить что-то детализировать, уточнить, — делится подробностями Юрий Ефаров. — Это позволяет приблизить BI-систему к лицу, принимающему решения. Ему не нужно заходить в систему, открывать отчет.
»

В числе преимуществ внедрения Easy Report не только быстрый доступ к отчетности для топ-менеджеров, отметил Юрий Ефаров, но и то, что после этого руководство чаще обращается к основной BI-системе.

Юрий Ефаров, генеральный директор, Easy Report

Докладчик рассказал про результаты нескольких кейсов. Так, после внедрения Easy Report в арабской ИТ-компании Giza Systems (26 офисов в ОАЭ и в Африке), руководству компании стали доступна быстрая отчетность, в том числе — в WhatsApp на английском языке. Внедрение в компании «Самолет» обеспечило доставку данных для менеджеров по продаже квартир, получение оперативной сводки о ходе строительства домов, удобную отчетность для руководства.

Стоимость лицензии не зависит от количества пользователей, а мессенджер может быть любой, подчеркнул спикер и резюмировал в завершение доклада особенности сервиса Easy Report. Среди них:

  • отчетность в чате;
  • высокая скорость внесения изменений;
  • работа с любыми типами данных;
  • экономия бюджета.

Александр Бочкин, основатель компании «Инфомаксимум», рассказал о структуре, функциях и интерфейсе активной системы для анализа данных PROCESET.

«
Ключевая задача любой системы бизнес-аналитики — найти в бизнес-процессе узкие места и оптимизировать процесс, устранив их, — уверен он.
»

Александр Бочкин, основатель компании «Инфомаксимум»

В означенный продукт входят следующие модули:

  • визуализация — создание интерактивных отчетов (Business Intelligence);
  • автоматизация — автоматическая загрузка данных из разных источников и реакция на отклонение KPI;
  • повышение эффективности бизнес-процессов и контроль их выполнения (Process Mining);
  • детальный анализ действий сотрудников и трудозатрат, оптимизация операций (TaskMining).

Спикер озвучил результаты некоторых внедрений:

  • сотовый оператор из топ-3 — экономия времени одного подразделения составила 16 тыс часов в год;
  • факторинговая компания — на 36% ускорен процесс предоставления новой услуги клиентам;
  • банк из топ-5 — устранены узкие места в потребительском кредитовании, в рамках одного процесса выявлена недополученная прибыль на уровне 200 млн руб. за год.

Азат Камалетдинов, заместитель директора по развитию, Analytic Workspace, поделился интересным кейсом, когда заказчик своими силами, без участия вендора, внедрил платформу Analytic Workspace, заменившую Power BI.

«
У системы Power BI преимущество в большом количестве готовых специалистов, курсов обучения, но она перестала быть надежным решением для российского рынка, — сообщил Азат Камалетдинов. — Мы создали аналитическую платформу, которая не только помогает самообучаться работе в системе, но и позволяет самостоятельно, силами самого заказчика, ее внедрять.
»

Азат Камалетдинов, заместитель директора по развитию, Analytic Workspace

Упомянув очевидные недостатки использования американской аналитики ввиду санкций и ограничений, докладчик перечислил достоинства платформы Analytic Workspace, благодаря которым стала возможной миграция собственными силами:

  • удобный, интуитивно-понятный интерфейс;
  • небольшие сроки внедрения и обучения;
  • возможность создавать любые инструменты анализа данных;
  • продуманная ролевая модель, позволяющая правильно распределять доступ к данным;
  • разумная ценовая политика;
  • облачная реализация и на площадке заказчика
  • гибкая лицензионная политика.

Проект внедрение был реализован компанией «Робот икс», где Power BI использовался в платформе лояльности для розничных сетей в целях анализа эффективности различных программ лояльности (дисконтной, бонусной и др.). В рамках проекта заказчиком создано 30 информационных панелей. И это не единственный пример, когда система Analytic Workspace внедрялась силами заказчика, подчеркнул докладчик.

Антон Томилин, директор департамента аналитических систем, R-Style SoftLab, обозначил экспертизу, которой обладают специалисты департамента: внедрение хранилищ данных, построение витрин, получение управленческой и аналитической отчетности, бюджетирование, внедрение BI-системы, консалтинговые услуги.

Антон Томилин, директор департамента аналитических систем, R-Style SoftLab

В прошлом году вышел первый релиз новой, импортонезависимой платформы, предназначенной для загрузки и обработки больших данных. тестирование проводилось на СУБД Arenadata DB. Ключевые особенности системы:

  • датацентричная платформа на независимых СУБД (ArenaData DB/Greenplum/PostgreSQL);
  • применение методологии «Свод данных» (Data Vault);
  • высокая скорость загрузки и обработки данных;
  • пакетная и потоковая загрузка данных;
  • совместимость с отечественными BI-системами;
  • использование механизмов взаимодействия с Hadoop;
  • применение партнерских решений на базе искусственного интеллекта.

«
Мы концентрируемся на том, чтобы строить системы, где ключевым требованием является качество данных. В рамках платформы нет решения для визуализации, для этого используются решения партнеров, в зависимости от потребностей заказчика, — дополнил Антон Томилин.
»

На текущий момент идут пилотные проекты и переговоры по внедрению решения.

Кирилл Прунтов, бизнес-архитектор, «Ассоциация больших данных», рассказал про сервис обезличенного сопоставления (бенчмаркинга) цен в строительном девелопменте. В рамках этого проекта шесть крупных застройщиков передают ассоциации информацию о своих ценах, при этом сопоставимость цен достигается за счет фильтров данных. Таким образом, застройщики не обмениваются данными напрямую, а видят только обезличенную статистику, тогда как «Ассоциация больших данных» является доверенным посредником.

Кирилл Прунтов, бизнес-архитектор, «Ассоциация больших данных»

Система работает по принципу паритета переданной и полученной информации: застройщику будет доступна статистика только за этот период, за который он сам передал данные и только по переданным им самим товарным позициям.

«
Сервис бенчмаркинга — пример доверенного посредничества на высококонкурентном рынке, — пояснил Кирилл Прунтов. — Застройщики не могут показывать друг другу цены, потому что это несет регуляторные риски, и вообще — они не доверяют друг другу, но при этом хотят быть уверенными в том, что цены рыночные.
»

В общем случае бенчмаркинг цен нужен для:

  • подведения годовых итогов и формирования стратегии закупок;
  • оперативного анализа закупок и принятия тактических решений в течение года;
  • оперативного контроля закупок материалов, при волатильности и зависимости от биржевых цен;
  • объективной оценки эффективности закупок в сравнении с рынком.

Особенности взаимодействия застройщиков с системой:

  • доступ по токену с ограниченным временем действия;
  • доверенная облачная среда Yandex.Cloud;
  • оператор сервиса («Ассоциация больших данных») предоставляет доступ, контролирует разработку, поддерживает систему.

В перерыве и по завершении конференции участники общались в неформальной обстановке, а также имели возможность ознакомиться с решениями и услугами ИТ-поставщиков на стендах, развернутых в холле мероприятия.

Как вам кажется, есть ли уже полноценная замена аналитических продуктов глобальных вендоров, которые покинули Россию?

Максим Комлев, технический директор компании Quillis: На наш взгляд, существуют альтернативы аналитическим продуктам глобальных вендоров, которые покинули Россию. Некоторые из этих альтернатив могут быть даже более эффективными и удобными для использования.

Максим Комлев, технический директор, Quillis

Одним из примеров таких альтернатив являются российские аналитические продукты, которые активно развиваются и улучшаются. Например, существуют компании, которые предоставляют аналитические инструменты для анализа данных, мониторинга социальных медиа и других цифровых платформ. Эти инструменты обеспечивают широкий функционал и могут быть настроены под конкретные потребности пользователей.

Насколько востребованы цифровые копии бизнес-процессов? Как они помогают бизнесу?

Максим Комлев: Цифровая копия бизнес-процессов является актуальным трендом в современном бизнесе. Наш продукт — «Цифровой паспорт» — представляет собой решение для создания цифровых копий бизнес-процессов с элементами геймификации и инфографикой. Он помогает компаниям упростить работу, уменьшить время и затраты на выполнение процессов, а также управлять изменениями и повышать качество продукции или услуг. С помощью «Цифрового паспорта» компании могут более точно представлять схему процессов, а также собирать и анализировать данные для выявления проблем и оптимизации процессов.

Компании из какого сектора экономики чаще заказывают подобное решение?

Максим Комлев: Компании из различных секторов экономики могут воспользоваться преимуществами геймификации и инфографики. Однако наиболее часто подобные решения заказывают компании, занимающиеся разработкой программного обеспечения, финансовые компании, компании, занимающиеся обучением и развитием сотрудников, а также компании из области розничной торговли и услуг.

Информация о партнерах конференции

Российская ИТ-компания, разработчик программного обеспечения для сбора, анализа и визуализации данных. Решения Visiology используются для управления на основе данных в крупнейших компаниях РФ, таких как "Росатом", "Газпром", "Алроса", "Сбермегамаркет", "Россети" и других, а также сотнями представителей среднего и малого бизнеса. Visiology третий год подряд входит в число лидеров исследования Круг Громова, является единственной российской BI-платформой, на которой можно реализовать все важные функции BI по версии Axenix (ex-Accenture), а также по данным Института бизнес-аналитики позволяет максимально точно повторять дашборды PowerBI.

Архив конференций Big Data и BI Day: