Специалисты

Описание

Кирилл Дмитриевич Жданович – опытный системный аналитик с 3 годами 9 месяцами стажа.

Навыки:
- Технологический стек: BPMN 2.0, UML, User Stories, Use Cases, DWH, Data Vault, Star Schema, SQL, PostgreSQL, Apache Kafka, ETL/ELT, проектирование REST API (Swagger/OpenAPI, Data Contracts), микросервисная архитектура, Docker, интеграция (Middleware, RabbitMQ), Data Quality Assurance, Power BI, Figma (UX/UI), Confluence, Jira, Postman.

Образование:
- Санкт-петербургский университет технологий управления и экономики, 2023 г.
Специальность: Прикладная информатика в экономике.

Опыт
Проект

Инструмент для мониторинга полевых торговых представителей

Описание

На проекте был разработан интеграционный сервис для синхронизации данных между CRM и HelpDesk-системами, оптимизированы процессы планирования маршрутов. В результате автоматизации процессов сократилось время, затрачиваемое на это, и значительно повысилась конверсия продаж.

Технологии

BPMN, PostgreSQL, REST API

Длительность

12 месяцев

Проект

Проект по созданию системы аналитики и хранения данных

Описание

Роль в проекте: Системный аналитик Команда проекта 1 проект: системный аналитик, бизнес-аналитик, архитектор данных, 2 backend-разработчика, тестировщик, проджект-менеджер. 2 проект: системный аналитик, backendразработчик, frontend-разработчик, devopsинженер, UX/UI-дизайнер. Описание проекта 1 проект: Проект по созданию централизованного хранилища данных (DWH) и системы аналитики, объединяющей данные из 10+ источников (CRM, ERP, веб-аналитика, фискальные данные) для формирования единого видения бизнеспоказателей. 2 проект: Проектирование и запуск сервиса-шлюза (API Gateway), предоставляющего безопасный доступ к корпоративным данным (отпуска, KPI, справочники) через Telegram-бот для 500+ сотрудников. 2 проект: Microservices, Docker, UML Sequence Diagrams, Figma, Postman, Jira, OpenAPI, RBAC. Обязанности на проекте 1 проект: - Проведение глубинных интервью с ключевыми стейкхолдерами (15+ представителей отделов маркетинга, финансов и продаж), трансформация бизнес-потребностей в структурированные функциональные и нефункциональные требования в формате User Stories и Use Cases. Полный цикл управления требованиями и ведение технической документации в Confluence. - Комплексный анализ, визуализация и оптимизация бизнес-процессов работы с данными. Моделирование процессов «как есть» (AS IS) и проектирование целевых процессов «как должно быть» (TO BE) в нотации BPMN 2.0 для 7 ключевых операционных линий компании. - Проектирование архитектуры корпоративного хранилища данных: разработка детальной логической и физической модели данных (ER-диаграммы) в PostgreSQL. Разработка архитектуры потоков данных и интеграция Apache Kafka для создания отказоустойчивой, асинхронной шины событий, способной обрабатывать пиковые нагрузки. - Разработка полной спецификации REST API для интеграционных сервисов: определение методов, форматов запросов/ответов, кодов состояния и JSON-схем в Swagger/OpenAPI. Создание исчерпывающей документации по маппингу и трансформации данных (Data Mapping) для ETL/ELT-процессов, обеспечивающей корректность загрузки данных из разнородных источников. - Активное участие во всем цикле разработки: подготовка технических заданий, участие в планировании спринтов, ежедневное взаимодействие с командой разработки и QA для разъяснения требований, приемка готовых функциональных блоков. 2 проект: - Проектирование высоконагруженной микросервисной архитектуры API-шлюза (API Gateway). Разработка детальных диаграмм последовательностей (UML Sequence) для визуализации и стандартизации взаимодействия между сервисами аутентификации, бизнес-логики бота и бэкенд-системами компании. - Проектирование пользовательского интерфейса и опыта взаимодействия (UX/UI): создание интерактивных прототипов интерфейса Telegram-бота и сценариев ключевых пользовательских потоков в Figma. Организация и проведение юзабилити-тестирования прототипов на фокус-группах сотрудников. - Разработка и документирование комплексных требований к информационной безопасности и системе разграничения доступа. Создание и внедрение детализированной ролевой модели доступа (RBAC) с 4 уровнями привилегий. Проектирование механизмов валидации, фильтрации и аудита всех входящих запросов для предотвращения утечек и несанкционированного доступа. - Полный цикл подготовки технической документации: написание технического задания (ТЗ) на разработку, спецификаций API. Тесное взаимодействие с DevOpsинженером для проектирования инфраструктуры и контейнеризации (Docker) сервисов, обеспечивающей их быстрое и стабильное развертывание в различных средах. - Обеспечение контроля качества: проведение функционального тестирования API с помощью Postman (создание коллекций и сценариев), управление бэклогом дефектов и задач в Jira. Формальная приемка реализованного функционала у команды разработки, верификация соответствия требованиям. Личные результаты 1 проект: - Инициировал и внедрил стандартизированный шаблон для оформления требований, что систематизировало работу с заказчиком и сократило время на согласование функциональных спецификаций на 30%. - Наглядные схемы процессов в BPMN 2.0 позволили выявить 3 ключевые точки потери данных, их устранение повысило целостность и качество данных в отчетах на 25%. - Разработанная архитектура с использованием Apache Kafka обеспечила бесперебойную обработку до 50 000 событий в секунду без потерь, что гарантировало стабильность системы сбора данных в часы пиковой нагрузки. - Реализованные под моим руководством автоматизированные ETL-пайплайны кардинально сократили время формирования управленческих отчетов (Time-to-Insight) — с 40 минут до 5 минут, что ускорило процесс в 8 раз. - Внедренная система мониторинга ключевых показателей эффективности (KPI) в реальном времени предоставила руководству инструмент для оперативного принятия решений, что по итогам квартала привело к росту выручки на 10% в пилотных подразделениях. 2 проект: - Оптимизированная на этапе проектирования схема взаимодействия микросервисов позволила снизить среднее время отклика бота на пользовательские запросы с 2 секунд до 400 миллисекунд, значительно улучшив пользовательский опыт. - Прототипы и юзер-стори, основанные на результатах тестирования с фокус-группами, позволили с первого релиза достичь исключительно высокой удовлетворенности пользователей (Customer Satisfaction Score - CSAT) на уровне 92%. - Разработанная и внедренная ролевая модель доступа (RBAC) в сочетании с продуманными механизмами безопасности обеспечила нулевой уровень инцидентов, связанных с нарушением конфиденциальности или целостности данных, за более чем 6 месяцев эксплуатации системы. - Благодаря детальной документации и стандартизированным Docker-образам, время на развертывание (deployment) новых версий сервисов в тестовые и продуктовые среды сократилось с нескольких часов до 20 минут, что ускорило циклы разработки. - Внедрение практики совместного проектирования приемочных тест-кейсов на ранних этапах анализа требований позволило выявлять противоречия до начала разработки и сократило количество критических (critical) дефектов, найденных на продекшене, на 40%

Технологии

BPMN, UML, Confluence, Jira, PostgreSQL, Apache Kafka, REST API, SQL

Длительность

12 Ноябрь 2024 - Октябрь 2025 месяцев

Проект

Проектирование и запуск API Gateway

Описание

Роль в проекте Системный аналитик Команда проекта системный аналитик, BI-разработчик, ETL-инженер, два backend-разработчика, продукт-менеджер. Создание комплексной системы мониторинга и аналитики эффективности продаж в реальном времени для крупного филиала с иерархической структурой управления (топ-менеджмент → руководители групп → менеджеры). Платформа агрегирует данные из CRM, систем поддержки и обучения для формирования единой картины производительности. Обязанности на проекте - Проектирование архитектуры аналитического хранилища данных (DWH): разработка логической и физической модели данных в PostgreSQL по схеме «Звезда» с центральными таблицами фактов (продажи, взаимодействия) и детализированными таблицами измерений (сотрудники, иерархия, продукты, время), что заложило основу для быстрого и гибкого построения многомерных отчетов. - Проектирование и организация процессов интеграции данных (ETL/ELT): анализ и стыковка разнородных источников (CRM, HelpDesk, LMS). Архитектурное проектирование и внедрение Apache Kafka для организации потоковой (streaming) передачи событий, что позволило отказаться от ресурсоемких ночных пакетных выгрузок в пользу обновления данных в реальном времени. - Разработка и глубокая оптимизация сложных SQL-запросов для агрегации, трансформации и обогащения сырых операционных данных в ключевые бизнесметрики (конверсия, средний чек, выполнение плана, эффективность обучения), используемые в дашбордах. - Проектирование интеграционного слоя: описание методов, форматов данных и протоколов взаимодействия (REST API) между шиной событий Kafka и источниками данных. Детальное документирование контрактов данных (Data Contracts) для обеспечения согласованности и предсказуемости передаваемой информации. - Полный цикл работы с требованиями: сбор, анализ и формализация потребностей бизнес-пользователей в виде детальных технических спецификаций (ТЗ) с разделением на функциональные (ФТ, e.g.,т"возможность drill-down по иерархии") и нефункциональные требования (НФТ, e.g., "время загрузки дашборда < 3 сек"). - Обеспечение контроля качества данных (Data Quality Assurance): разработка и проведение процедур валидации и сверки итоговых показателей в дашбордах Power BI с первичными данными в источниках для гарантии точности и достоверности предоставляемой аналитики. Личные результаты - Повышение эффективности персонала: Благодаря внедренной системе прозрачной аналитики и возможности коррелировать результаты обучения с динамикой продаж, доля новых менеджеров по продажам, выполняющих план, выросла с менее чем 50% до 80%, что значительно сократило время адаптации новичков. - Прямое влияние на бизнес-результат: Инструмент позволил руководству в режиме реального времени выявлять группы и направления с падающей эффективностью. Своевременные корректирующие действия на основе этих данных привели к повышению общих ключевых показателей эффективности (KPI) филиала на 20% за квартал. - Оптимизация технологического стека и повышение актуальности данных: Успешный переход с пакетной (batch) на событийную (event-driven) модель передачи данных с использованием Apache Kafka снизил операционную нагрузку на продуктовые базы данных CRM на 35% и обеспечил постоянную актуальность данных в аналитических отчетах с задержкой не более 5 минут вместо суточного цикла. - Повышение доверия к данным: Реализованные процедуры Data Quality Assurance (кросс-проверка агрегированных данных с источниками) позволили добиться 100-процентного совпадения ключевых метрик, что полностью устранило разногласия между отделами по поводу цифр в отчетах и укрепило доверие к платформе со стороны топ-менеджмента.

Технологии

Microservices, Docker, Figma, Postman, Jira, OpenAPI, RBAC

Длительность

Сентябрь 2021 - Май 2023 (1 год 9 месяцев) месяцев

Проект

Создание системы мониторинга и аналитики

Описание

Обязанности на проекте - Проектирование интеграционной шины данных (Middleware): разработка архитектуры централизованного сервиса для объединения и синхронизации коммерческих метрик из CRM (история заказов, клиенты) с техникоэксплуатационными данными о емкости и состоянии сети из HelpDesk-системы, обеспечивая единый контекст для анализа. - Оптимизация нагрузки на legacy-системы и обеспечение отказоустойчивости: проектирование и внедрение механизма асинхронных очередей сообщений (на основе RabbitMQ) для приема событий из систем-источников. Это позволило буферизировать пиковые нагрузки и гарантировать надежную доставку данных без прямого давления на старые, уязвимые к нагрузке системы. - Разработка и формализация бизнес-логики для модуля «Умного планирования» (Smart Routing): проектирование алгоритмов, включающих проверку актуальности и доступности адреса, анализ полной истории предыдущих посещений точки, а также механизмы предотвращения конфликтов (например, блокировка повторных визитов разных сотрудников в одну квартиру в короткий промежуток времени). - Проектирование структуры и схемы реляционной базы данных на PostgreSQL для хранения и оперативного доступа ко всем сущностям системы: детальные профили полевых сотрудников, журналы и результаты обходов, динамические территориальные метрики продаж, а также справочники точек и правил планирования. - Глубокий анализ операционных процессов «как есть» (AS IS): интервью с супервайзерами и агентами, фиксация ручных процедур учета и отчетности. На основе анализа спроектировал и согласовал с бизнесом целевую (TO BE) схему процессов, предполагающую полную автоматизацию сбора данных и формирования отчетов, исключающую ручное манипулирование данными в Excel. Личные результаты - Полная ликвидация ручного труда в отчетности: Автоматизация процесса консолидации данных и генерации ежедневных отчетов для супервайзеров позволила исключить ~2 часа ручной работы в день на каждого руководителя группы, что суммарно сэкономило более 160 человекочасов в месяц и позволило переключить фокус сотрудников с администрирования на анализ и управление командой. - Повышение операционной эффективности и конверсии: Внедрение алгоритма, анализирующего полную историю обходов, позволило исключить до 15% нецелевых визитов на «выжженную землю» (точки, недавно и неудачно посещенные другими агентами). Это перенаправило усилия сотрудников на потенциально более перспективные точки, что напрямую привело к повышению средней конверсии продаж с визита на 8%. - Снижение нагрузки и рисков для legacyинфраструктуры: Внедрение асинхронной буферизации запросов через очереди сообщений снизило пиковую нагрузку на устаревшие (legacy) CRM и HelpDesk системы на 40%, устранив риски их отказа в часы максимальной активности полевых сотрудников и повысив общую стабильность IT-ландшафта. - Повышение точности и скорости планирования: Разработанные алгоритмы «Умного планирования» сократили среднее время, которое супервайзер тратил на ручное составление маршрутов для команды, с 1.5 часов до 15 минут, при этом повысив релевантность и эффективность самих маршрутов за счет учета большего количества факторов.

Технологии

SQL, PostgreSQL, Apache Kafka, ETL/ELT, REST API, Power BI

Длительность

Сентябрь 2020 - Август 2021 (1 год) месяцев