Иван Исаев, директор направления анализа данных и искусственного интеллекта для проектов технического блока ПАО «Мобильные ТелеСистемы», — о прогнозировании эффективности сотрудников на основе анализа цифрового следа с использованием методов машинного обучения и о создании лучших практик, применимых как в телекоме, так и в других отраслях.
Читать...
Анализ цифровых следов человека получает все большее распространение и начинает использоваться в самых различных направлениях деятельности — от маркетинга до информационной безопасности. В МТС разработали систему анализа бизнес-процессов на основе цифрового следа (Process Mining), и первым местом ее внедрения стал Единый центр управления сетью. Используя технологии автоматизации, дата-инжиниринга и машинного обучения в комплексе, Process Mining позволяет анализировать цифровой след сотрудников и обеспечивает мониторинг загруженности работников технического блока, решающих задачи управления инфраструктурой, а также прогнозирование нагрузки и выявление функций для роботизации. В дальнейших планах компании — использование системы в других подразделениях, развитие ее аналитических возможностей и ее вывод на внешний рынок. Телекоммуникационные компании являются одними из лидеров по количеству данных и уровню цифровизации, поэтому многие успешно обкатанные внутри МТС подходы и решения в дальнейшем адаптируют и предлагают внешним заказчикам.
Иван Исаев, директор направления анализа данных и искусственного интеллекта для проектов технического блока ПАО «Мобильные ТелеСистемы» и номинант на премию CDO Award , поделился деталями проекта по разработке системы Process Mining, осуществляющей учет и прогнозирование эффективности работы сотрудников на основе анализа цифрового следа, с использованием методов машинного обучения.
— Как у вас возник интерес к Process Mining?
В последнее время анализ «цифрового следа» сотрудников становится все более популярным подходом. Информацию об их действиях при выполнении работы можно изучать с различными целями. С переходом многих на режим удаленной работы оставляемых «следов» стало больше: цифровизировались процессы взаимодействия, которые раньше отследить было невозможно. Появляется возможность проанализировать все, что касается сотрудников компании, включая коммуникации, навыки, эффективность работы. По результатам можно принимать решения, направленные на повышение эффективности процессов, и это в целом повышает возможности цифровой трансформации компаний.
Разумеется, речь идет не только о сокращении кадров или выводе части задач на аутсорсинг с целью снижения издержек. Для любой компании не менее важно бороться с перегрузками сотрудников и предотвращать их выгорание, а также выявлять ценных специалистов, склонных к увольнению.
В Boston Consulting Group даже создали методологию BioTag, рассказывающую о том, как «правильно» внедрять анализ цифрового следа сотрудников внутри компании. Их идея разметки данных с помощью бизнес-тегов мне понравилась, и мы потихоньку к ней идем. Это поможет в оцифровке действий сотрудников, в структурировании и оптимизации их деятельности.
— Что в вашем понимании представляет собой цифровой след сотрудника?
Это информация о том, чем человек занимался в процессе работы, — любые его действия, оставившие цифровой отпечаток, и, что крайне важно, с обязательной привязкой ко времени. Конечно, это не цифровой двойник человека, ведь мы рассматриваем его однобоко — лишь с профессиональной точки зрения, но это отпечаток его присутствия в каждый момент времени. Это могут быть записи звонков диспетчеров по рабочим вопросам, текстовые сообщения, а также сведения о событиях, вносимые в информационные системы. В рамках данного проекта очень важно собрать полноценную картину того, чем человек занимается в течение рабочего времени.
— С чего решили начать?
У МТС есть огромное сетевое хозяйство, в обслуживании которого занято около 10 тыс. человек. Естественно, что периодически приходится заниматься оптимизацией технического блока, такие меры инициирует HR-служба в рамках программ автоматизации. Цель — оптимизация зарплатного фонда.
Вероятно, ситуация знакома многим: у директора в подчинении несколько сотен человек, и к нему приходит требование о сокращении 10% сотрудников. Руководитель в ответ заявляет, что у него и без того дефицит кадров, все сотрудники перегружены и для нормальной работы требуется увеличить штат еще на 20%. В этом случае для прояснения реальной картины требуются весомые аргументы, и предоставить их может лишь комплексный анализ работ, проводимых специалистами. Они заносят в информационные системы данные по инцидентам и работам разного вида по обслуживанию сети; обсуждают проблемы по почте; ведут задачи в Jira. Чтобы получить комплексную картину их труда, эти данные нужно объединить. При этом каждый источник довольно объемный, а его бизнес-логика сложна и специфична для каждого подразделения.
Ранее руководителям приходилось пользоваться электронными таблицами, используя такие термины, как годовой объем работ и среднее время решения инцидента, и вычислять потребность в сотрудниках. Этот подход уходит в прошлое, такие оценки субъективны и для внешних экспертов выглядят неубедительно. На смену ему приходят более серьезные, научные методы.
— Как пришла идея, от кого она исходила?
Моя компетенция заключается в том, что я внедряю машинное обучение в технические процессы, ищу конкретные места, где автоматизация может помочь заработать или сэкономить. Ко мне обратились директора департаментов технического блока, занимающиеся обслуживанием радиосети, транспортной сети, коммутационной сети. Им требовалось получить реальную оценку эффективности труда работников. Разумеется, это важно не только для «защиты от HR», но и для повышения собственной эффективности. У каждого подразделения своя механика работы, и она сильно зависит от предметной области. На первом этапе требовалось обеспечить полную прозрачность действий сотрудников.
Перманентный вопрос о необходимости обоснованной и ясной картины по загруженности персонала и оценке его работы волнует всех. Между тем уже достаточно давно консультанты провели аудит, по результатам которого появились зародыши методик расчета эффективности. Мы эту методику развили в программное решение.
— Что было сделано?
Нам удалось создать систему анализа эффективности работы сотрудников. На основе всех источников создается единая витрина данных, и по данным из нее рассчитываются коэффициенты эффективности. Эти коэффициенты учитывают такие факторы, как утилизация рабочего времени, успешность и своевременность выполнения задач, сложность задач и их критичность для работы сети. Система по прогнозированию и учету эффективности в данный момент находится в опытной эксплуатации.
Далее в процесс вступают механизмы машинного обучения — несколько аналитических модулей. Например, с их помощью мы будем прогнозировать перегрузки и выгорание сотрудников, планировать обучение, создавать кадровый резерв и формировать профиль увольняющихся сотрудников для принятия заблаговременных мер по их удержанию.
На базе этого возможно реализовать вполне конкретные решения. Скажем, в конце года по ряду причин загрузка некоторых сотрудников сильно возрастает по сравнению с началом года. Возможно, в этом случае оправданно привлечение аутсорсинга. Помимо этого, выявляются функции, которые можно автоматизировать. Например, глядя на график использования рабочего времени сотрудников подразделения, можно обратить внимание на то, что существенную долю времени (например, 40%) они тратят на диспетчеризацию поступающих заявок и выявление причин инцидента. С помощью модели машинного обучения и анализа естественного языка из переписок, систем управления задачами и комментариев к инцидентам можно создать ассистента (систему-советчик на основе машинного обучения), способного помогать в определении причин инцидента и даже самостоятельно отправлять сообщения другим специалистам. Так можно сократить число людей, работающих на диспетчерских линиях, и экономить операционные расходы.
Еще один пример возможного развития системы анализа цифрового следа: для ряда инцидентов, связанных с сетью, можно реализовать функционал прогнозирования — система автоматически сможет заводить заявку в системы и инициировать работы по предотвращению инцидента.
— Какие пути решения задачи были выбраны?
Для этих целей сформировано отдельное озеро данных, которое в дальнейшем консолидируется с единым озером данных компании. Оно было реализовано в собственной пилотной зоне. Мы создали прототипы моделей и витрин, после чего это средство будет масштабироваться с использованием промышленных решений.
— Какие данные использовались? Как принималось решение о выборе источников?
Какие данные потребуются, стало понятно далеко не сразу. Более того, до сих пор появляются потребности в новых источниках.
Конечно, основными источниками данных стали информационные системы, в которых работают сотрудники. Наиболее распространенные решения для управления операционными процессами и обработки инцидентов (такие как BMC Remedy Service Desk и Oracle Siebel) — монструозные системы, существующие в телеком-компаниях более 10 лет. Они огромны, в них сделано множество доработок, и довольно сложно оценить, что именно оттуда брать и как это сделать. В зависимости от специфики подразделений, требуется соответствующим образом обогащать собранные данные, ведь перед нами стоит задача восстановить 100% рабочего времени сотрудника — лишь так можно оценить его эффективность. Если это будет 50–60%, то это мало что даст.
В течение нескольких месяцев я проводил аудит работы подразделений и узнавал, как именно работают сотрудники. Благодаря этому сейчас наш мониторинг охватывает около 99% их действий. При дальнейшем масштабировании системы внутри компании и для внешних заказчиков, конечно же, потребуется добавлять новые источники.
Мы специальным образом готовили данные, чтобы вывести коэффициент сложности работы сотрудника — это влияет на его показатель эффективности. Учитывали довольно много параметров, проделали огромную работу по структурированию данных из существующих регламентов — то есть оцифровывали неструктурированные данные. На их базе создавали методики расчета эффективности сотрудника. Мы выводим показатель того, насколько сложными являются те или иные виды работ, выполняемых сотрудником, определяем внутренний грейд сотрудника — насколько он авторитетен в подразделении. Эти подходы, наравне с методикой BCG, позволяют получать больше знаний из имеющихся данных.
— Какие технические решения применяются? И почему именно они?
Изначально прототип делали на решениях open source: СУБД PostgreSQL, скрипты на SQL, модели на Python — я являюсь сторонником открытых платформ. В качестве инструмента визуализации используем Power BI.
Однако по мере подключения к системе различных подразделений рано или поздно встанет вопрос масштабирования. Это предусматривает создание более масштабного озера и инструментов управления, включая глоссарий данных. В качестве системы управления данными планируем использовать Informatica — у нас уже есть опыт применения этого решения. На первом этапе мы опробовали интеграционную платформу, далее потребуются бизнес-глоссарий и каталог метаданных.
Система подразумевает подключение более десятка подразделений, и для этого нужен глоссарий для описания данных, методик расчета показателей, различных сущностей (инцидентов, плановых работ, проектных задач, записей звонков, почтовых сообщений), с которыми работают подразделения. Все это требует оцифровки, а на дальнейших стадиях станет необходимым звеном.
Кроме того, при появлении источников неструктурированных данных понадобится переход на платформу Hadoop — реляционной СУБД обойтись уже не удастся.
— Как решается вопрос качества данных?
Разумеется, качество данных в источниках далеко от 100%. Но даже если данные находятся в местах, которые принято называть «болотом», их качество приходится улучшать постфактум — можно их очищать и обогащать. Часто данных не хватает, и тогда мы создаем в источниках новые поля, позволяющие проследить, например, траекторию изменения инцидента в системе. В работах над серьезными инцидентами принимают участие много исполнителей, и лишь с помощью новых полей в базах данных, в которые выгружается информация с оборудования, удается проследить их цифровой след.
Кроме того, применяя искусственный интеллект, мы боремся с аномалиями в данных и нормализуем их. Переписываем много унаследованных систем, чтобы они выгружали данные в нужном нам виде.
Довольно долго проработав с предприятиями реального сектора, я могу констатировать, что в телекоме ситуация с данными гораздо лучше, чем в других индустриях, за счет хорошей инфраструктуры и возможности сбора практически любых данных. Этому уделяется много внимания. И этот опыт мы также можем транслировать как провайдер цифровых услуг для других отраслей непрерывной промышленности. Например, еще один недавний проект нашей команды — цифровизация цеха производства удобрений в компании «Уралхим».
— В чем заключалась самая большая проблема?
В большой компании процессы достаточно бюрократичны и инертны. Но с этим, вероятно, сталкиваются все.
Серьезным вызовом стали неоднородность данных и необходимость создания глоссария, который позволил бы их упорядочить, обеспечив правильное масштабирование проекта. Подразделения очень разнородные, они работают с разными сущностями: кто-то работает за компьютером, а кто-то ездит по базовым станциям и заводит там дизельные генераторы. Их работу надо привести к общему знаменателю и масштабировать. С одной стороны, для этого необходим высокий уровень абстракции, чтобы подводить под логику работы системы функционирование многих подразделений (может быть, даже нетехнических), а с другой — требуется учесть специфику работы каждого подразделения, которая часто уникальна.
— Какие результаты проекта вы сами считаете ключевыми?
Результаты внедрения новой методологии и реализации модулей машинного обучения, апробированных в ряде подразделений компании, показали прирост эффективности работы сотрудников от 5% до 15%. Обслуживанием сетевой инфраструктуры у крупных операторов занимаются десятки тысяч человек, поэтому эффект от масштабирования подобной практики как у телеком-компаний, так и у других промышленных компаний (например, из отраслей сырьевой промышленности) получается значительный — это сотни миллионов рублей.
Достижение четкого экономического эффекта, выражающегося в конкретных «живых» деньгах, было нашей тактической целью. Повысить качество работы сети — это хорошо, но оно не дает прямой и немедленной финансовой отдачи. А вот автоматизация рутинных функций с помощью математической модели — совсем другое дело: компания перестает нести расходы на их выполнение. Персонал может быть или сокращен, или перенаправлен на решение задач, действительно требующих участия людей.
Со стратегической точки зрения это очень важный инструмент для дальнейшего измерения эффекта от цифровизации и для осознания наиболее перспективных направлений для нее. Понимая, на что тратят время сотрудники и какие действия выполняют, мы совершенно точно можем посчитать эффект от автоматизации любой функции. Это действительно очень важно, потому что до сих пор такой эффект было очень проблематично посчитать, чтобы оценить целесообразность проекта.
— Как именно происходит выявление функций для роботизации?
Мой подход включает несколько составляющих. Во-первых, необходим комплексный аудит того, что происходит. Приходится «идти в поле», тесно общаться с людьми, узнавать, что их волнует. Внутри технического блока у меня есть большие рабочие группы таких «следователей», приносящих пул конкретных инициатив. Другое дело, что результаты этих инициатив сложно рассчитать в деньгах.
Например, сотрудник просит разработать решение, способное оценить реальное время простоя базовой станции, и убеждает, что это «очень нужно для работы». Но где здесь экономический эффект? Да, прислушиваться к пожеланию специалистов необходимо, но еще важнее проследить цепочку изменений, приводящую к измеримому эффекту — сокращению простоя станции, увеличению трафика, повышению производительности сотрудников.
— Какие процессы в первую очередь будут замещаться искусственным интеллектом?
Моя область — машинное обучение, как классическое, так и глубокое (связанное с анализом текстов). В каждом из направлений у меня есть набор областей, где можно найти эффект. В классическом машинном обучении это выявление инсайтов, где можно, прогнозируя события, добиться автоматизации конкретной функции. Сюда относятся, скажем, предиктивные ремонты, направленные на предотвращение инцидентов. В случае с анализом текстов следует найти задачи, где задействована лишь одна когнитивная функция — например, принятие решений на основе текстового сообщения.
— Что дальше? Какими вы видите дальнейшие направления развития проекта?
Важным шагом станет добавление неструктурированных данных и развитие проекта от классического машинного обучения в сторону глубокого обучения. Одна из идей — создать аналог алгоритма обработки естественного языка GPT-3, выпущенного OpenAI, который может, проанализировав произведения, писать стихи, музыку и даже программный код.
В нашем случае цель такой модели может заключаться в анализе экспертной информации диспетчеров. Тогда в нашем распоряжении окажется инструмент, который сможет проанализировать труд диспетчеров и стать единым ассистентом для них. Очевидно, что он будет применим и для других компаний, в том числе для непрерывных производств.