Содержание |
24 апреля TAdviser организовал и провел конференцию, посвященную технологиям обработки и хранения больших данных, искусственному интеллекту, а также бизнес-аналитике.
Сюда пришли представители таких организаций, как МФТИ, МГУ им. М. В. Ломоносова, Московский государственный университет геодезии и картографии, Финансовый университет при Правительстве РФ, Roche, «Деловые линии», «Газпромтранс», «Ренессанс Страхование», «Сбербанк», «Сплат Глобал», «Гохран России», «Инстройтехком» и многих других. Вел мероприятие Алексей Воронин.
Искусственный интеллект на финансовом рынке
Марианна Данилина, руководитель управления аналитики и исследования, «Ассоциация ФинТех», рассказала о результатах исследований «Ассоциации» по применению искусственного интеллекта на финансовом рынке, выделив 10 ключевых трендов финтеха 2024 года:
- генеративный ИИ как технология общего назначения,
- сквозная идентификация,
- обмен открытыми данными (Open Data),
- постквантовое шифрование,
- токенизация активов SaaS как модель получения прибыли,
- инновационные подходы к платежам,
- цифровая валюта центрального банка (CBDC),
- суверенитет финансовых инфраструктур,
- цифровое регулирование.
Итогом проведенных исследований также стали карта инструментов открытого кода для машинного обучения и карта экосистемы генеративного интеллекта. Обозначила докладчица и тренды в области искусственного интеллекта. Происходит демократизация этой технологии, то есть большая часть населения получает доступ к техническим знаниям и возможностям генеративного ИИ. Использует интеллект и при разработке ПО. ИИ-ассистент для разработчиков позволяет создавать и тестировать части кода оперативнее, с меньшими трудозатратами. Кроме того, он может обеспечить безопасность разработки: непрерывное управление киберугрозами, совокупность инструментов мониторинга рисков ИБ. На основе ИИ создаются новые бизнес-модели.
Половина организаций, внедряющих платформы оркестровки искусственного интеллекта, к 2025 году будут использовать технологии с открытым исходным кодом, — заодно предсказала Марианна Данилина. |
При внедрении любой технологии, не только искусственного интеллекта, возможны лишь две стратегии: «сверху вниз», когда в наличии требование выполнить некоторые обязательства и есть уверенность в возврате инвестиций, или «снизу вверх», когда ресурсы ограничены и требуется прозрачный возврат инвестиций. В этом уверен Павел Сварник, исполнительный директор по технологической стратегии, «МТС Банк».
Он перечислил направления деятельности банка, где может применяться ИИ:
- контроллинг и корпоративное управление: риски, выявление сценариев мошенничества;
- продукты и сервисы, антифрод на конкретных продуктах;
- операционная деятельность;
- маркетинг и продажи;
- работа с каналами продаж.
На возможностях применения ИИ по каждому из направлений Павел Сварник остановился подробнее. В числе прочего спикер посоветовал при внедрении искусственного интеллекта опираться на компетенции партнера, которым в случае с «МТС Банком» является компания МТС AI.
При применении ИИ в домене контроллинга и корпоративного управления на первый план выходит управление рисками, антифрод, выявление сценариев мошенничества, — подчеркнул он. — В контексте антифрода формируется модель идеального поведения клиента. В случае, если поведение отличается от нормы, оно расценивается как подозрительное, требующее изучения. Искусственный интеллект позволяет сформировать идеальные модели и выявлять триггеры, на которые необходимо реагировать. |
Екатерина Кучерова, Techlead Datalake & ML Platform, «ОТП Банк», рассказала про этапы создания в банке новой PaaS-платформы, реализованной на основе стека открытого кода. Начали тут с перехода от Oracle Exadata на Greenplum и Data Lake. Следующий шаг — построение озера данных и объединение трех ML-платформ, работавших на разных технологических стеках. Создание PaaS для работы с большими данными и машинным обучением прозвучало последним аккордом.
О каждом из перечисленных этапов спикер рассказала подробнее. Так, на этапе построения озера данных было выполнено следующее. Сначала саккумулировали большие массивы сырых и неструктурированных данных. Благодаря комбинации Greenplum и Data Lake обеспечена возможность эффективного анализа и обработки данных любых форматов и структур, а также экономия, гибкость и масштабируемость хранения данных. Кроме того, тут снижена нагрузка на Greenplum и осуществлен запуск ML-инициатив.
Что касается технологического стека, то новое хранилище банка сделано на Greenplum и Arenadata DB, озеро данных — на Arenadata Hadoop, MLOps-платформа — на Kubernetes и Kubeflow, ETLData-платформа — на Apache Airflow.
Основной платформой раньше была Oracle Exadata, но гибко разрабатывать не получалось — она стала узким горлышком. Кроме того, у нас возникло желание использовать открытый код, — поделилась предысторией создания новой PaaS-платформы Екатерина Кучерова. — По результатам проекта мы перешли на новое хранилище, где сейчас хранится уже более 100 Тб информации. |
Большие модели трудиться не хотят
Константин Нерадовский, руководитель направления развития инновационных технологий, НРД, рассказал о том, что со стороны бизнеса появился запрос на создание ИИ-консультанта с целью анализа статистики по состоянию рынка и положению эмитентов.
Первоначально здесь попробовали использовать для этого большие языковые модели. Специалистами депозитария были опробованы ChatGPT, Yandex GPT и GigaChat. Они обнаружили, что все три модели отвечали примерно одинаково и — неправильно, причем процент ошибки в ответах был на уровне 90%.
Выяснилось, что загрузив информацию или пакет документов в ChatGPT, нельзя рассчитывать на получение адекватного и точного ответа на свой запрос, — отметил Константин Нерадовский. — Как показала практика, если пакет документов маленький, ChatGPT ничего не придумывает, а когда много информации и документов, модель начинает что-то изобретать, но ответ, как правило, неточный. Например, вам нужно получить точный ответ на вопрос, какой была прибыль «Газпрома» в 2021 году, но вместо точной цифры выдается некий предположительный диапазон. Чаще всего большие языковые модели придумывают ответ, а не создают его на основе объективного анализа. |
Тогда пошли по пути создания внутренней структурированной базы данных, содержащей отчетность из разных источников для последующего анализа искусственным интеллектом. Также был создан агент, генерирующий SQL-запросы на основании запросов на естественном языке. Выяснилось, что такой подход обеспечивает точные ответы, хотя он и более трудоемок. Кроме того, потребуется использование структурированных данных.
Помимо ИИ-консультанта, в НРД был создан робот для назначения собеседований. Сейчас в разработке находятся автоматизированные тестовые задания для кандидатов, оценка резюме по вакансиям и обучение.
Валентин Каськов, директор по информационным технологиям, «Специальные системы и технологии», выделил три основные цели внедрения искусственного интеллекта в цифровые продукты. ИИ тут нужен для снижения трудозатрат, для автоматизация отчетности и аналитики, а также для предиктивной аналитики.
Раньше все это называлось просто — автоматизация, теперь же говорят — искусственный интеллект. Потому что так сложнее, непонятнее и намного дороже, — иронично подметил Валентин Каськов. |
В ходе доклада он рассказал о системе мониторинга и предиктивного анализа состояния промышленного оборудования SmartDiagnostics, о ГОСТе Р59898-2021 для оценки качества систем искусственного интеллекта, а также рассмотрел вопросы стоимости внедрения и владения ИИ-продуктами.
Спикер подчеркнул, что некоторые компании могут слишком доверять искусственному интеллекту при принятии решений, тогда как он вполне может давать советы, основанные на предубеждениях. Валентин Каськов напомнил, что если алгоритм ИИ основан на данных, которые изначально содержат предубеждения или стереотипы своего создателя, то этот алгоритм будет потом выдавать необъективные результаты, продолжая поддерживать исходные предубеждения при анализе новых данных.
Анализ эффективности
Тигран Саркисов, директор по управлению данными, X5 Group, обрисовал текущую ситуацию. Существуют объективные сложности с рынком труда, наблюдается рост стоимости операций. При этом текущий уровень развития ИТ позволяет автоматизировать когнитивные функции человека. У нас есть потенциал повышения эффективности процессов, тогда как автоматизация существующих процессов «один в один» этот потенциал отнюдь не раскрывают.
Спикер остановился на технологии Task Mining, которая собирает данные о действиях сотрудников для анализа и оптимизации бизнес-процессов и операций. Он привел пример цифрового анализа дня сотрудника, когда в реальных условиях, без человека, замеряющего все вокруг таймером, делается расчет длительности решения конкретной задачи. После этого рассчитывается средняя общая длительность обработки задач и есть возможность отдельно рассчитать среднее время решения задачи, например, только в системе SAP.
Цифровой анализ дня сотрудников выявил, что разрыв в эффективности выполнения операций между сотрудниками бывает десятикратным. Это, как минимум, хороший повод для распространения лучших знаний, а как максимум, дает понимание того, как же в реальности выполняется операция, какие действия у сотрудника лишние, — отмечает докладчик и заодно рассказывает про ИИ-помощника, помогающего сотруднику автоматически распознавать документы и подгружать их в систему. |
Александр Григорук, руководитель по развитию инноваций и внедрению ИИ, банк «Русский Стандарт», затронул широкий круг тем: начиная с практики использования искусственного интеллекта в мире и заканчивая конкретными кейсами компании.
В целом, российский банковский сектор развивается в том же направлении, что и мировой: меняются модели бизнеса, цифровые технологии и внедряется искусственный интеллект, — полагает он. |
Основные направления, на которых внедряется искусственный интеллект в банке, таковы:
- автоматическое преобразование голоса в текст,
- распознавание и классификация документов,
- система принятия кредитных решений,
- анализ и оцифровка разговоров операторов с клиентами,
- рекомендательные системы,
- генерация контента.
Из внутренних кейсов Александр Григорук осветил три: преобразование речевых звонков в текст и анализ эффективности общения оператора с клиентом, автоматическое распознавание документов, удостоверяющих личность, и персонализацию контента и предложений клиенту.
Стандарты и предсказания
Юлия Хорошутина, руководитель направления развития BI-системы Analytic Workspace, «БАРС Груп», перечислила цели использования предиктивной аналитики бизнесом. Таковых несколько: прогнозирование событий и трендов, оптимизация процессов, выдача рекомендаций и предотвращение проблем, возможных сбоев.
Предсказательная аналитика дает возможность заглянуть в будущее, открывает перед бизнесом много возможностей, — уверена докладчица. — Это и прогнозирование событий, и оптимизация процессов, и предотвращение проблем. |
Она обрисовала богатый функционал мультисервисной аналитической системы Analytic Work Space BI (AW BI). Система работает на извлечение данных из различных источников (базы данных, 1С), на трансформацию данных. Тут есть собственное хранилище данных «из коробки», инструменты ИИ для машинного обучения, визуализация и многое другое.
Особое внимание Юлия Хорошутина уделила прогнозированию на основе машинного обучения, которое включает в себя прогнозирование временного ряда (например, прогноз выручки), кластеризацию и классификацию объектов (классификация филиалов по бизнес-метрикам с целью назначения характера маркетинга), а также ранжирование объектов списка по совокупности признаков (например, сайтов в поисковой выдаче).
Выступающая привела результаты нескольких кейсов применения Analytic Workspace. Так, в аптечной сети «Губернские аптеки» был автоматизирован прогноз розничной выручки на 2024 год помесячно, с детализацией для каждого подразделения. Таким образом удалось выявить узкие места, критичные с точки зрения потенциального снижения выручки. Точность прогнозов была на уровне 90%.
Андрей Андриченко, директор по развитию, SDI Solution, обозначил важность стандартизации корпоративных данных, а также рассказал о возможностях платформы управления мастер-данными Semantic MDM и о проекте создания межотраслевого сервиса Semantic OTD.
«Стандартизация форматов обмена мастер данными снижает трудоемкость интеграционных процессов», — подчеркнул Андрей Андриченко. Он пояснил, что созданный компанией Semantic OTD требуется при межотраслевой кооперации. Например, в том случае, когда система мастер-данных Semantic MDM находится в корпоративном контуре и есть внешние контрагенты, с которыми требуется наладить оперативный обмен данными, но нельзя напрямую дать доступ к внутренней MDM-системе из соображений безопасности данных.
Сервис Semantic OTD строится вокруг веб-клиента, реализующего функцию автоматического поиска стандартизованного шаблона, соответствующего классу номенклатурной позиции. Он включает в себя следующие системы:
- Подсистему машинного обучения (Machine Learning). Она предназначена для автоматического распознавания объектов НСИ по введенным исходным описаниям.
- Открытый технический словарь (Open technical dictionary). В нем есть реестр атрибутов, библиотека шаблонов классов и ограничительные таблицы допустимых значений параметров объектов.
- Систему класса MDM, которая отвечает за построение базовой иерархии классов в соответствии с объектно-ориентированным подходом, реализует множественную классификацию объектов НСИ и обеспечивает качество и нормализацию мастер-данных.
- Систему ведения НТД. Она содержит актуальную базу данных правовых и нормативно-технических документов.
Semantic OTD позволяет точно установить свойства товаров, работ и услуг, определить информацию и обмениваться качественными данными между экономическими партнерами в рамках межотраслевой кооперации. С его помощью можно синхронизировать различные базы данных нормативно-справочной информации с минимальным преобразованием, сократить трудоемкость процессов обмена корпоративными мастер-данными и повысить эффективность системы закупок товаров (работ, услуг), в том числе при проведении электронных торгов. Наконец, решение позволяет снизить затраты на каталогизацию товаров.
Директору по данным сложно усидеть на месте
Согласно Gartner, позиция CDO на сегодня является одной из самых уязвимых позиций в области информационных технологий. Среднее время нахождения в должности составляет 2-2,5 года, — отметил Михаил Кортунов, руководитель центра больших данных, ИЦ «Безопасный транспорт. — И одна из причин этого — несоответствие ожиданиям бизнеса. |
Он выделил четыре блока по работе с качеством данных в московской транспортной сети:
- системы как источники данных: систем много, сложная корпоративная сеть;
- базовые проверки витрин, которые находятся в хранилище;
- контроль за доставкой данных;
- бизнес-контекст.
Далее Михаил Кортунов рассказал о типичных проблемах, возникающих на каждом этапе работы с качеством данных. Так, проблемы первого этапа — это сетевые проблемы, дублирование информации, нецелостные данные. И первое, что надо сделать с целью их снятия — это разобраться с работой корпоративной сети. Нужно понять, на каких ее узлах могут возникать сложности при передаче данных, привлекая для этого сетевых специалистов и системы мониторинга сети.
Владимир Озеров, генеральный директор, CedrusData, констатировал проблемы с использованием корпоративных хранилищ данных в условиях разнородных нагрузок. Он отметил, что у озер данных тоже есть проблемы — с качеством данных — и рассказал, как добавить в озера данных то, чего им не хватает — управление схемами и транзакциями. Сделать это можно при помощи любого из трех открытых проектов: Apache Iceberg, Apache Hudi и Delta Lake — которые сейчас активно развиваются.
Идея этих трех технологий — Apache Iceberg, Apache Hudi и Delta Lake — в том, чтобы попытаться смоделировать транзакции путем управления файлами, — разъяснил Владимир Озеров. — Осуществляется это будет посредством файлов с метаданными. Каждая из этих технологий делает это по-своему. |
В будущем все это позволит объединить данные в рамках архитектуры Lake House с недорогим хранилищем данных, к которым подключаются те или иные вычислительные движки в зависимости от требуемой мощности. Далее спикер подробнее рассказал об архитектуре и технологиях, которые используются для построения LakeHouse.
Опыты на местах
Марина Гудимова, ведущий аналитик, «Концепт Разработка», поделилась опытом миграции пользовательских данных заказчика из старого хранилища в новое. На старте проекта все пользовательские объекты заказчика находились внутри песочницы — сегменте хранилища заказчика. При этом в хранилище не был включен механизм автоматической очистки песочниц, из-за чего тут накопилось огромное количество данных
Мы понимали, что, несмотря на все старания, сделать переход бесшовным сложно. От пользователей потребуются дополнительные усилия, чтобы перестроить свои процессы для работы в новом хранилище данных, поэтому провели работу именно с пользователями, — подчеркнула Марина Гудимова. |
Спикер выделила следующие этапы миграции: планирование и анализ, выработка подхода к миграции, автоматизация переноса данных, профилактика возможных ошибок, поддержка пользователей. На каждом из этапов Марина Гудимова остановилась подробнее. Так, при автоматизации переноса данных важно сделать следующее:
- Совместно с архитекторами определить, какие опции нового хранилища будут активно применяться (колоночная модель хранения, разные варианты сжатия, ключи распределения и т. д.).
- Составить маппинг типов данных между новым и старым хранилищами.
- Определить правила именования объектов после миграции (case sensitive, кириллица в наименовании полей, имена, превышающие допустимую длину в новом хранилище, наличие спецсимволов в названии полей).
- Определить, какую максимальную длину текстовых полей поддерживает новое хранилище, какие механизмы экспорта данных доступны (fastexport, bulkload и т. д.).
- Решить, появляется ли необходимость изменять ролевую модель доступа к данным в новом хранилище.
С целью поддержки пользователей на общедоступном ресурсе компании публиковалась информация о проводимых работах по песочницам, руководство пользователя для нового хранилища. Были выделены опытные сотрудники для «бебиситтинга», или, по-русски, няньканья с новичками. Проводились встречи для обучения аналитиков подходам работы с новым хранилищем.
Для того, чтобы выполнение геоанализа было доступно для многих, мы сделали несложный в использовании конструктор, с помощью которого собираются элементы с разными запросами в хранилище данных, — поделилась Ольга Ведерникова, генеральный директор, «Эпсилон Метрикс». — Эти запросы собираются в понятную цепочку, причем виден результат и по каждому промежуточному шагу, и итоговый. |
Докладчица обозначила наиболее востребованные цели использования геоданных. Они используются для поиска лучших мест для магазинов, для оптимизация зон покрытия сотовой связью и для оптимизации маршрутов. В частности, для оптимизации маршрутов используются данные о заказах, продажах, трафике, пробках, графике курьеров, стоимости поездок для приоритизации точек посещения и построения планов поездокпо наиболее удобным маршрутам.
Далее Ольга Ведерникова рассказала про облачную платформу, разработанную компанией с целью выполнения геоанализа при помощи пространственных индексов. Она подчеркнула, что работать с платформой несложно благодаря встроенному лоукод-конструктору. Платформа способна взаимодействовать с любыми облачными хранилищами крупных российских вендоров: «Яндекс Облако», Sber Cloud, #CloudMTS и Beeline Cloud.
Александр Сулейкин, генеральный директор, «ДЮК Технологии», посвятил свой доклад вопросам, связанным с технологиями хранения, обработки и анализа больших данных. Он рассмотрел:
- актуальность применения Apache NIFI, Airflow и Greenplum;
- роль открытого кода в импортозамещении аналитических систем;
- особенности использования Apache NIFI как лоукод-инструмента транспорта данных;
- Apache Airflow как де-факто стандарт в области оркестрации процессов управления данными;
- Greenplum как основную технологию построения MPP-хранилищ и массово-параллельной архитектуры в эпоху импортозамещения.
В завершение доклада спикер рассказал о сложном кейсе создания крупной платформы данных в госсекторе на основе Apache NIFI, Apache Airflow и Greenplum. Целью создания платформы данных была быстрая и надежная система аналитики рейсов. Повышенная сложность объяснялась большим количеством источников данных.
Разработка длилась пять месяцев, и сейчас новая система работает параллельно со старой версией, проходит эксплуатационный период.
Основная специализация нашей компании — построение различных систем больших данных с использованием Greenplum, Postgres, Arenadata DB и других открытых платформ, а сейчас мы смотрим в сторону искусственного интеллекта, — отметил Александр Сулейкин. |
Глеб Калкутин, директор по развитию компании Quillis, перечислил направления деятельности компании. Quillis занимается разработкой систем BI-аналитики и визуализации данных, внедрением и администрированием продуктов собственной разработки, их технической поддержкой и консультированием по всем вопросам, связанным с управлением данными.
«Для наших клиентов мы являемся службой одного окна в плане обработки и визуализации данных», — подчеркнул Глеб Калкутин. В ходе доклада он представил два продукта компании: BI-систему Leremi, доступную для бесплатного скачивания, и «Центр мониторинга». Последний включен в Реестр отечественного ПО и имеет настраиваемую ролевую модель.
Глеб Калкутин отметил, что реализация аналитической системы на основе «Центра мониторинга» — это следующий шаг в развитии BI-аналитики, потому что решение гарантирует, что данные всегда актуальны, а также оно реализует прямое соединение с источником данных. Спикер подробнее рассказал о различных сферах применения «Центра мониторинга» (медицина, ситуационный центр и др.).
В перерыве и по завершении конференции участники общались в неформальной обстановке, а также имели возможность ознакомиться с решениями и услугами ИТ-поставщиков на стендах, развернутых в холле мероприятия.
Информация о партнерах
АО «ЭСДИАЙ СОЛЮШЕН» – российская ИТ компания, созданная в 2010 году, участник проекта ИЦ «Сколково», занимается разработкой информационных систем централизованного управления корпоративной нормативно-справочной информацией (НСИ) класса Master Data Management (MDM).
Флагманским продуктом компании является система «Semantic MDM» – полностью отечественная разработка, удовлетворяющая критериям импортозамещения, включенная в единый реестр отечественного ПО в 2017 году.
Специалисты компании АО «ЭСДИАЙ СОЛЮШЕН» успешно реализовали проекты по внедрению программного комплекса «Semantic MDM» на ряде крупных отечественных холдингов и корпораций: «НПЦ газотурбостроения «Салют» (2011), АО «Концерн «Калашников» (2016), ПАО «Ракетно-космическая корпорация «Энергия» имени С.П.Королёва» (2016), АО «Объединённая двигателестроительная корпорация» (2017).
В 2021 году система «Semantic MDM» была выбрана крупнейшей российской корпорацией топливно-энергетического комплекса в качестве решения, замещающего SAP MDM. По результатам проведенного конкурса «Semantic MDM» опередила ближайших конкурентов по функциональности, производительности и инновационности подходов к моделированию мастер-данных. Функциональные возможности «Semantic MDM» позволяют осуществлять централизованное управление НСИ в масштабе отрасли, корпорации, предприятия. Система обеспечивает глобальную идентификацию объектов НСИ, реализует единую точку ввода данных, которые используются всеми подразделениями организации в процессе финансово-хозяйственной, закупочной и производственной деятельности.
Analytic Workspace (AW BI) - российская self-service BI-система, закрывающая полный цикл работы с данными: сбор, обработка и анализ, визуализация и распространение отчетов. Система имеет высокий потенциал замены Power BI, Tableau, Qlik. Преимуществами AW BI являются простота и универсальность, наличие продвинутого ETL-модуля с автоматическими блоками для самостоятельной глубокой обработки данных и ML-прогнозирования, широкие возможности базовой и кастомной визуализации данных.
В Analytic Workspace собраны готовые наборы дашбордов для бизнес-аналитики различных отраслей: продажи, промышленное производство, строительство, медицина, логистика, HR. Среди наших клиентов КАМАЗ, РИВЦ-Пулково, Красмаш, Экспофорум, региональные МИАЦ, благотворительный фонд Дети-Бабочки и др.
Система удобна для самостоятельного освоения, имеет глубокий self-service до уровня ETL. Включена в реестр российского ПО, совместима с отечественными ОС, легко встраивается в сторонние ИТ-системы в качестве модуля аналитики. Предусмотрены специальные лицензионные условия для ВУЗов, НКО и, публичных дашбордов. Предоставляется как on-premise, так и в облаке.
Все информационные ресурсы Analytic Workspace: https://aw-bi.ru
Компания «Эпсилон Метрикс» предлагает универсальную облачную платформу для геоаналитики, позволяющую клиентам анализировать и управлять большими геоданными. Платформа объединяет данные из разных источников и востребована в различных отраслях, таких как транспорт, телекоммуникации, недвижимость, урбанистика, розничная торговля и логистика, обеспечивая аналитику, прогнозирование и разработку стратегий. «Эпсилон Метрикс» использует облачные технологии и искусственный интеллект для геоаналитики и облегчает доступ к качественным наборам пространственных данных. Благодаря no-code интерфейсу, использование аналитических инструментов и моделей машинного обучения становится доступным для широкого круга пользователей. Специально для розничной торговли на платформе разработано отраслевое решение «Epsilon On Point», предоставляющее сервисы для выбора местоположений магазинов, поиска и оценки потенциальных локаций и прогнозирования их эффективности.
Наша специализация - проекты в области управления и обработки данных, внедрения высоконагруженных систем и заказной разработки программного обеспечения с использованием современных методик и процессов разработки.
Наша команда - профессионалы со стажем в ИТ индустрии свыше 15 лет; несколько десятков специалистов с опытом внедрения аналитических решений от 5 до 10 лет с технологической экспертизой в областях DWH, BI, Machine Learning, Big Data и использованием современных ИТ- инструментов ведущих вендоров (SAS, Teradata, Oracle, Tableau, Microsoft), a также open-source продуктов.
Наше кредо – гибкий подход и ориентация на плотное взаимодействие с заказчиком для реализации удобных и надежных решений.
Современные бизнес-аналитические решения — российская IT-компания, занимающаяся проектирование корпоративных хранилищ данных и внедрением ETL-систем.
Компания существует с 2016 года и за этот период реализовала проекты для государственных и частных компаний, разработав >500 ТБ хранилищ.
Продукты компании входят в реестр российского ПО.