В 2018 году компания «Северсталь» создала платформу Промышленного интернета вещей (IIoT) и на ее основе начала работы по оптимизации производственных процессов. Донат Фетисов, начальник отдела архитектуры и разработки Severstal Digital, уже рассказывал о построенной в «Северстали» платформе IIoT и ее задачах. Тогда мы беседовали с ним, анонсируя его выступление в рамках форума «Управление данными — 2019» .
Сегодня мы представляем Доната Фетисова как номинанта на премию CDO Award 2020, и речь пойдет в большей степени о достигнутых результатах и культурных изменениях, происходящих в компании.
— Чем металлурги могут выделиться среди конкурентов? При чем тут данные и как «Северсталь» себя видит в работе на этом направлении?
Начать нужно с того, что главная задача «Северстали» — рост эффективности: стремление иметь не максимальный оборот, а как можно больший показатель EBITDA. Поэтому одним из направлений происходящей сейчас трансформации является активное создание цифровых продуктов, использование данных и алгоритмов машинного обучения. И об этом мы регулярно говорим на встречах с инвесторами. Максимальное использование всех возможностей применения искусственного интеллекта как альтернативы «человеческим» решениям — вот что позволит нам выделиться. Да, для этого необходимы данные, много данных, и мы делаем все, для того чтобы получить как можно больше информации о производственных процессах, причем детальной.
Несколько лет назад мы определились со стратегией развития: выбираем направления, где с помощью технологий можем повысить эффективность процессов. И мы по-прежнему ее придерживаемся. И сейчас видим, что не только внедрение прорывных методов в производство и перестраивание взаимодействия с клиентом может дать результат. Мы можем улучшить показатели на несколько процентов за счет использования нестандартных (пока что) для металлургии средств оптимизации.
— Существует ли специфическая цифровая культура? Что в компании нужно менять и что делаете вы?
Да, культура существует, иначе бы о ней столько не говорили. Наши же действия можно уложить в три пункта.
Сбережение данных — это обязательное, «гигиеническое» правило, которое мы пытаемся продвигать повсеместно. Это не менее важно, чем бережное отношение к электричеству или воде. Мы стараемся сохранять данные, особенно возникающие в производстве на нижнем уровне – сенсоры сами по себе информацию не накопят. А ведь именно здесь зачастую случаются самые интересные открытия. Тщательно собирая данные, мы закладываем фундамент для новых знаний. Может показаться смешным, но даже сам факт признания этого — серьезный сдвиг в мировоззрении людей. Многие относятся спокойно к потере потенциально полезных данных — надеются, что в работе им помогут данные более высокого уровня, однако их не хватает для выявления закономерностей в самом производстве.
Второе направление усилий — повышение общего уровня понимания того, как строится работа с информацией. Именно это позволяет сблизить дата-сайентистов с бизнес-заказчиками и сильно ускоряет процесс, поскольку преодолевается разрыв между ними. Мы создаем внутренние курсы по работе с данными. Например, сотрудник может на примере производства, на котором он работает, понять, что такое потоки данных, какие можно использовать технологии. Осознав это, люди начинают говорить с нами на одном языке, и это формирует здоровую атмосферу для реализации проектов.
Наконец, мы пытаемся вовлекать сотрудников в работу по схеме самообслуживания. Разумеется, многие бизнес-пользователи хотели бы, чтобы им продолжали выгружать данные в привычный Excel. Но поскольку речь идет о больших данных, это, конечно, невозможно. Поэтому мы их обучаем работать именно с данными из «озера». Чтобы они могли их использовать: кто-то через Power BI, кто-то через веб-интерфейс Hadoop.
Эти три шага — важные моменты в продвижении культуры data-driven.
— Но ведь для вовлеченности пользователей мало дать им данные — важно, чтобы они захотели работать по-новому.
В своих проектах мы показываем, как это можно делать. Кроме того, в рамках обучения Data Governance мы займемся описанием данных и сейчас выбираем инструмент для создания каталога данных. Люди не только узнают, что можно делать с данными, но и будут иметь своеобразную «Википедию» по ним. Любые имеющиеся в компании данные должны быть доступны пользователям.
— Как вы пришли к проекту Data Governance?
Все организации проходят определенные стадии зрелости. Первая из них — когда приходит понимание того, что данные нужно централизованно собирать. На этом этапе как раз начинают создавать озеро данных. В этот момент в компании появляется узкая группа специалистов, умеющих это делать, и они жаждут «поиграться» с этими инструментами. Такая ситуация может существовать довольно длительное время. Но рано или поздно все начинают осознавать, что не должен управлять данными лишь этот небольшой коллектив — нужно вовлекать гораздо больше людей. Для реализации полноценного Data Governance необходимо, чтобы владельцы данных участвовали в процессе описания данных и их идентификации. Мы формируем каталог данных, определяем владельцев каждого домена данных и в конечном итоге хотим прийти к ситуации, когда точно известно, какая информация есть в организации, и понятно, с кем можно обсудить объекты и связанные с ними данные.
Нужно не просто научить людей работать с данными и дать им инструменты. Требуется вовлечь их в процесс «культивации» данных — следить за их качеством, доступностью и т. п. Это очень непросто делать, пока люди не воспринимают данные как актив.
Выдержка из предыдущего интервью Доната Фетисова, в котором рассказывается о подходах к технической стороне построения платформы IIoT в «Северстали».
— Что представляет собой платформа Интернета вещей применительно к потребностям крупного промышленного холдинга? Каковы ее роль и задачи?
Стоит начать с причин создания этой платформы и связанных с ней ожиданий. Около трех лет назад, после появления термина «Индустрия 4.0», у руководства компании возник вопрос, можно ли вести бизнес более технологично и что можно сделать, используя современные технологии. К этому времени уже прошла волна хайпа вокруг Big Data, начинался всплеск интереса к Data Science. У нас очень много оборудования и различных сенсоров, поэтому есть возможность стать обладателями большого количества данных, порождаемых ими. Но этого не происходило — такие данные просто не хранили. Запрос бизнеса заключался в том, чтобы реализовать платформу для сбора и хранения данных и на ее базе создавать продукты, дающие возможность пересмотреть бизнес-процессы и извлекать дополнительную выгоду. Получение дополнительного финансового эффекта и стало основным KPI нашего департамента от внедрения машинного обучения в производстве.
Поскольку начинали с задачи сбора данных, потребовалось создать хранилище, которое позволит подстраиваться под любые требования и будет достаточно недорогим. Изначально не было известно точно, с какими данными придется столкнуться: предполагались временные ряды, но думали и про видео, и про обработку изображений. Опираясь на собственный опыт, я выбрал Apache Hadoop как самое простое решение. В каких-то случаях эта платформа может быть неоптимальной, но в целом позволяет защищенно и недорого хранить большие объемы данных.
Следующим этапом стал выбор, традиционный для многих, — уходить в облако или создавать собственную инфраструктуру. Проведя оценку на горизонте нескольких лет, мы выяснили, что облако при постоянно возрастающей нагрузке обойдется дороже. Основное достоинство облака — возможность справляться с пиковыми нагрузками, а у нас при накоплении данных ожидается экспоненциальный рост. Поэтому было решено инвестировать в собственные мощности. На проектирование и закупку оборудования ушел год. В 2018 году у нас появилось хранилище, где мы можем собирать любые данные.
Далее потребовалось обеспечить работу созданных моделей на данных, возникающих в реальном времени. Все производственные процессы имеют жесткие ограничения по времени, и нельзя, как в других отраслях, проводить расчеты раз в сутки. Все должно происходить «здесь и сейчас». Поэтому в рамках второго этапа используемые технологии были дополнены еще одним компонентом — защищенной очередью на базе Apache Kafka, позволяющей хранить события и иметь их «горячий» набор.
На этих двух компонентах — Hadoop и Kafka — и были получены первые эффекты, подтвердившие верность выбранного подхода.
— Ранее вы работали в компаниях из других отраслей. Каковы особенности процесса управления данными в промышленности?
Основное отличие в том, что наши данные имеют плоскую структуру. Если говорить про пирамиду производственных систем, где внизу находятся датчики и SCADA, а наверху — ERP и аналитические платформы, то мы собираем данные с самого нижнего уровня. Там нет никакой структуры, все данные приходят в сыром виде. Это позволяет избирательно с ними работать, исследуя их и выявляя взаимосвязи между показаниями датчиков, что хорошо. Но минус заключается в том, что в этих параметрах требуется разобраться, понять, что они означают, изучить их влияние на целевые показатели. Нашим исследователям данных приходится тесно работать с производственниками, регулярно выезжая на предприятия. Ни одно внедрение не происходит без участия владельца продукта, который контролирует процесс разработки функционала и его принятие со стороны производства.
Таким образом, у нас нет структуры данных, но зато наблюдаются большое разнообразие и гигантские объемы. При этом изначально невозможно предсказать, какие из данных окажутся полезными.
— Есть два радикальных подхода: одни собирают и хранят все данные подряд, а другие действуют более избирательно и накапливают только те данные, в которых изначально видят ценность…
Мы являемся убежденными сторонниками первого подхода. Во-первых, мы не всегда понимаем физику процессов и у нас нет опыта в металлургии — вся команда собрана с нуля из разных отраслей. Во-вторых, один и тот же агрегат может быть полем для реализации многих проектов: например, можно начать с предсказания его отказов и закончить оптимизацией подачи сырья. Если мы не будем собирать все параметры сразу, то что-то точно потеряем.
Когда позволяет «железо», лучше собирать всё. А мы его проектировали так, чтобы оба наших инструмента — и Kafka, и Hadoop — горизонтально масштабировались, причем максимально дешево. И пока еще не было ни одного прецедента, чтобы мы выбросили какие-то данные, потому что убедились в их бесполезности. Как показывает практика, только недостаточная масштабируемость используемых платформ заставляет людей экономить и ограничивать себя.
Да, хранение обходится в определенную сумму, это капитальные расходы. Но могу сказать, что закупленное оборудование себя уже окупило, так как для построения платформы используются самые бюджетные решения.
— Какие подходы при создании платформы были выбраны? Речь идет о принципиальном использовании решений из разряда Open Source?
Плюсы и минусы открытых платформ хорошо известны. Мы были изначально нацелены на финансовый результат, для этого нам требовалось как можно больше данных при минимально возможных издержках. Поэтому мы выбрали максимально производительные и дешевые решения.
Open Source позволяет на первых этапах ничего не вкладывать, а если что-то пойдет не так, подход можно изменить без особых потерь. У меня как у архитектора был карт-бланш на выбор стека используемых технологий. «Северсталь» никак не участвовала в его согласовании, и нам удалось получить то, что мы считали необходимым. Это помогло быстрее стартовать, и я до сих пор доволен сделанным выбором. Потребовалось лишь добавить некоторые специфические инструменты там, где это необходимо. Например, когда появились требования по отказоустойчивости модели, мы развернули кластер Kubernetes, который позволяет иметь модель в постоянно рабочем состоянии.
Самое сложное для нас — приобретение и накопление экспертизы. На рынке сложилась категория «технологических» компаний, имеющих определенный имидж инноваторов, и при прочих равных условиях они имеют преимущество в борьбе за таланты. Мы двинулись в этом направлении всего несколько лет назад. Поэтому мы взяли курс на взращивание собственной экспертизы: «Северсталь» довольно специфична и с точки зрения используемых систем, и с точки зрения производственных процессов. Мы делаем все, чтобы наши люди были заинтересованы в собственном развитии. Кроме того, мы собираемся строить целую экосистему сервисов, которые будут давать экономический эффект, и совсем не хотелось бы при этом зависеть от внешних компаний.
— С какими ключевыми проблемами управления данными вы сталкиваетесь?
Данные возникают «на местах» — в цехах на различных производствах. Нам приходится иметь дело с «функциональными колодцами»: каждое подразделение замкнуто, и, занимаясь данными, люди думают только о своих задачах. С каждым из них приходится договариваться — например, о том, что какие-то из данных не надо удалять, о том, что настройки сенсоров нельзя изменять без согласования. Люди учатся воспринимать данные как один из активов компании. Иначе необдуманное обращение с ними может повлиять на многие процессы в компании.
Кроме того, далеко не все источники готовы к интеграции, многие агрегаты являются довольно старыми и попросту не предполагают этого. Постепенно эта проблема решается как обновлением оборудования, так и добавлением новых модулей.
Можно сказать, что обе эти проблемы характерны для любого российского металлургического предприятия. Они преодолимы, но для этого нужно время.
— За любой актив кто-то должен отвечать. Кто владеет данными у вас?
У нас этот вопрос окончательно не решен. Собрав большой объем данных, мы пока не договорились об их владельцах, потому что концентрировались на бизнес-результатах. Сейчас многие контрагенты на предприятиях, поставляющие нам данные, де-юре владельцами не являются, хотя многие организационные и процедурные вопросы с ними удалось решить. Это один из шагов, который нам предстоит сделать в ближайшее время. Как только люди станут владельцами и у них появится новый функционал, они смогут обеспечить его ресурсами и задумаются, в каком виде данные могут быть полезными и кому.
Разумеется, владельцами данных должны быть люди из бизнеса. Например, Chief Data Officer — не владелец данных. Это человек, отвечающий за то, чтобы данные приносили пользу бизнесу. У нас такой должности пока не существует, можно сказать, что в какой-то степени эта роль лежит на мне. А на местах должна идти речь о «стюардах данных» (data steward) — экспертах, которые понимают, где расположены данные, и готовы их предоставить.
— Каким вы видите будущее создаваемой в «Северстали» платформы данных?
Я склонен считать, что централизованное озеро данных в том виде, который все хотят иметь, — не конечная точка развития. Если проводить аналогию с архитектурой приложений, то уже сейчас используется микросервисная архитектура, а следующим обсуждаемым шагом является «бессерверная» архитектура. Примерно так же можно поступать и с данными: необязательно их собирать физически в одном месте — достаточно иметь транспортную инфраструктуру, позволяющую получать данные в режиме времени, близком к реальному. Это позволит при необходимости обращаться к данным на местах, работать с ними и без задержек запускать новые проекты. Собирать все данные в едином центре следует только тогда, когда это действительно нужно и удобно.
Мне было бы интересно создать архитектуру, существующую в виде федерации, а не единого озера данных. Озеро данных может быть логическим и распределенным по разным организациям, объединенным стандартами работы с данными и протоколами обмена.
— Какие проекты уже удалось реализовать на базе созданной платформы Интернета вещей? За счет чего достигается монетизация?
Финансовые эффекты проявились уже в 2018 году. Но более заметными для внешнего наблюдателя наши проекты стали, когда среди них появились модели управления производством. (Один из таких проектов — регулировка прокатки слябов с помощью алгоритмов машинного обучения. — Прим. ред. )
Монетизация происходит по-разному — не всегда речь идет об управлении агрегатами. У нас есть ряд проектов, направленных на снижение простоев за счет предсказания аварийных ситуаций и планирования ремонтов. Кроме того, хорошие результаты дают проекты, направленные на обнаружение дефектов. Это довольно актуальная тема именно для металлургов: в производстве выполняется много переделов, и на каждом из них есть риски возникновения дефектов, на что клиенты реагируют очень болезненно. Мы создали модель, дополняющую ранее существовавший комплекс и позволяющую немного точнее (а в некоторых случаях и существенно точнее) выявлять дефекты.
Всего мы запустили в эксплуатацию около 15 проектов, касающихся разных аспектов, — прогнозирование необходимости в обслуживании, экономия ресурсов, оптимизация действий, устранения дефектов, ускорение процессов. Все направления, где просматривался очевидный экономический эффект, мы уже охватили. Но у нас еще много площадок для применения новых подходов. Предприятия, вдохновленные нашими результатами, все чаще обращаются к нам.
— Вы пытаетесь оценивать эффективность своих проектов?
Я представляю порядок цифр получаемых результатов. Они не только многократно превышают затраты на работу нашего подразделения, но и заметны в общей прибыли. Надо понимать, что повышение эффективности процессов металлургического комбината даже на несколько процентов может дать финансовый результат, сравнимый с бюджетом средней компании.
— Как происходит отбор и приоритизация проектов? Наверняка кандидатов больше, чем имеющихся ресурсов.
Мы проводим ранжирование в первую очередь по ожидаемому эффекту, так как в деятельности нашего подразделения существует лишь один приоритет — финансовый результат. Именно поэтому приходится все аккуратно считать. Имея перед глазами портфель проектов-кандидатов, напротив каждого из которых стоит число, можно без затруднений решить, на чем сосредоточить силы.
Разумеется, есть и другие факторы, но они скорее относятся к ограничениям: доступность данных, готовность инфраструктуры, наличие времени и ресурсов на площадке у заказчика. Из-за этого некоторые проекты, перспективные с точки зрения ожидаемого эффекта, приходится тормозить, пропуская вперед другие.
Сейчас у нас в очереди не меньше десятка проектов. Причем часто бывает так, что один реализованный проект порождает несколько других. Однако наш коллектив каждый год удваивается, и мы себя чувствуем комфортно.
— Чему вы научились в ходе работы над платформой Интернета вещей? Какие выводы сделали как руководитель?
Основной урок в том, что рост культуры работы с данными напрямую зависит от числа вовлеченных людей. Да, профессионализм коллектива важен, но при плохом раскладе специалисты по работе с данными превратятся в анклав, который будет работать закрыто и к которому остальные не будут даже подходить. Руководитель, начинающий путешествие в мир работы с данными, должен это понимать. Я совершенно четко увидел, что чем больше людей вовлечено, тем быстрее получится добиться результата.
И второе: чтобы количество заказчиков росло, нужно всеми способами менять их сознание, показывая, каких целей можно добиться.
— Что бы вы сделали по-другому, если бы представилась возможность начать заново?
Как известно, история не терпит сослагательного наклонения. Оглядываясь назад, могу сказать, что процесс подготовки инфраструктуры следовало бы начать заранее — это могло бы существенно ускорить многие проекты. Часто задержки возникают вовсе не из-за отсутствия данных, а из-за обидных «мелочей»: недостаточно широкая сеть, нет какого-то помещения, не хватает людей. В некоторых новых проектах по-прежнему приходится решать эти проблемы ситуативно. Однако на первых этапах у нас не было аргументов в пользу таких вложений.
Хочу отметить еще один важный момент: хотелось бы как можно раньше начать накапливать даже не сами данные, а знания о них. Такая задача встает в каждом новом проекте, и внедрение каталога данных на более раннем этапе помогло бы ее решить. Но здесь имеем традиционную дилемму: либо делать продукты по Agile и «приносить быстрое счастье», либо вкладываться в подготовку и откладывать получение результатов на будущее. В современном мире обычно предпочитают первый подход.
Надо сказать, что на первом месте у нас всегда стояло получение эффекта, поэтому все, что мы делали, было довольно последовательно.
— Как вы видите свою роль и роль своего подразделения в развитии «Северстали»?
Я считаю себя евангелистом в двух аспектах: продвижение современных технологий для работы с данными и продвижение самих методик работы с данными. Союз технологий и подходов data science — то, что мы продвигали и будем продвигать.
Вторая важная роль — повышение доступности и прозрачности данных различных подразделений. Да, у нас на первом месте стоит получение финансового эффекта, но на втором — оздоровление ситуации с данными. По мере того как ставки растут, степень готовности данных перестает устраивать компанию. В любых проектах поиск и подготовка данных — это существенная часть работ. Сократив ее, мы сможем в разы повысить скорость реализации проектов.