«Инфосистемы Джет» с помощью искусственного интеллекта повысила эффективность работы прокатного стана на комбинате НЛМК
Заказчики: Новолипецкий металлургический комбинат, НЛМК Новолипецк; Металлургическая промышленность Подрядчики: Инфосистемы Джет Продукт: Apache HadoopВторой продукт: Apache Kafka Третий продукт: Apache Hive Дата проекта: 2019/03 — 2020/05
|
Технология: Data Mining
|
Содержание |
2020: Разработка и внедрение сервиса для ускорения работы стана горячей прокатки
22 июня 2020 года ИТ-компания «Инфосистемы Джет» сообщила о разработке и внедрении на Новолипецком металлургическом комбинате сервиса для ускорения работы стана горячей прокатки. Математическая модель машинного обучения, на которой построен сервис, помогает операторам оптимизировать процесс проката металла на «Стане 2000». Решение поможет предприятию получить около 30 млн рублей дополнительного дохода в год.
Прокатный стан в металлургическом производстве — это комплекс оборудования, который с помощью прокатных валков раскатывает нагретый металл и превращает его в листовой прокат. На прокатный стан подают сплавы разного химического состава для производства стали различных марок. Стан работает непрерывно: круглые сутки и без выходных. Чтобы слябы не сталкивались и не соединялись, они должны двигаться с определёнными промежутками. Чем они меньше, тем больше слябов можно прокатать за единицу времени и тем выше производительность всего стана. Но при слишком маленьких разрывах между слябами резко увеличивается вероятность брака и аварийной остановки стана, поэтому операторы традиционно рассчитывают расстояние с запасом.
Рекомендательный сервис на базе машинного обучения (ML) обрабатывает набор меняющихся параметров (состав стали, температура нагрева, характеристики готовой продукции и т.д.) и в режиме реального времени предоставляет операторам прокатного стана рекомендации по оптимальному интервалу подачи слябов и управлению скоростью их движения. За счёт этого выработка прокатного стана увеличивается в среднем на 3,5 часа в месяц.
Для обучения математической модели, которая стала основой рекомендательного сервиса, специалисты «Инфосистемы Джет» обработали огромные массивы данных за последние 2,5 года. Эксперты исследовали исторические данные с датчиков температуры, давления, скорости движения и другого регистрирующего оборудования, и исключили параметры, которые не оказывают значимого влияния на скорость движения слябов по прокатному стану. Помимо показателей самого стана алгоритмы машинного обучения учитывают в рекомендациях типы и марки сплавов в заготовках. Все данные о работе «Стана 2000», как и другая информация о производстве, хранятся в Data Lake, также внедрённом компанией «Инфосистемы Джет».
На заводе НЛМК работают металлурги высокой квалификации. Традиционно они сами определяли темп движения слябов по `Стану 2000`, основываясь на опыте и интуиции. И неизменно высокие показатели производительности завода говорят об уровне их квалификации. — рассказывает Евгений Колесников, директор центра машинного обучения «Инфосистемы Джет». — В ходе проекта сотрудники НЛМК поделились с нами тонкостями технологических процессов прокатного стана. Изучив все процессы, мы создали сервис, который будет помогать металлургам еще более точно вычислять оптимальный темп прокатки. |
2019: Построение Data Lake
5 сентября 2019 года стало известно, что эксперты "Инфосистемы Джет" разработали для компании НЛМК систему анализа данных и моделирования (САДиМ), которая отвечает за доступность и качество данных, а также предоставляет инструментарий для вычислений и анализа.
В цехах и на агрегатах предприятия эксплуатируются десятки систем, которые накапливают и обрабатывают информацию о производственных и технологических процессах. Кроме того, в помещениях установлены десятки тысяч датчиков, которые непрерывно собирают и передают данные. Подразделению Data Science НЛМК требовался удобный инструмент для работы с получаемыми данными под разрабатываемые модели машинного обучения (ML).Метавселенная ВДНХ
Для решения задачи Центр программных решений ИТ-компании "Инфосистемы Джет" совместно с командой НЛМК создали Data Lake емкостью 300 терабайт на базе отечественного дистрибутива распределенной платформы хранения Hadoop. Для решения задач сбора, передачи, трансформации и накопления данных были использованы такие сервисы, как Apache Kafka, Apache NiFi, Apache Hive.
В рамках проекта специалисты запустили регулярную загрузку данных в Data Lake из более чем 70 источников (датчиков, а также MES и АСУ ТП), загрузили исторические данные за последние несколько лет работы предприятия и разработали карты данных технологических и производственных процессов отдельных цехов.
В рамках проекта команда "Инфосистемы Джет" разработала для НЛМК модель унифицированной витрины данных, а также процессы загрузки в неё, реализовала управление мета-данными средствами Apache Atlas (тэгирование, поиск и т.д.), настроила централизованную ролевую модель и её интеграцию с Active Directory. Это дало возможность дата-сайнтистам НЛМК оперативнее получать в Data Lake доступ к нужным им данным.
Для контроля работы Data Lake был также настроен комплексный мониторинг состояния сервисов системы в Zabbix, а также разработаны автотесты для контроля целостности и полноты данных. Для особо важных и уязвимых данных была создана возможность резервного копирования: то есть, в случае непреднамеренного уничтожения данных пользователем их можно будет восстановить.
Создание озера данных, которое действительно приносит экономическую пользу заказчику – это непростая задача как с технической, так и с организационной точки зрения. И тут дело не только в железе, интеграции и программировании. Очень важна готовность производства собирать и передавать качественные данные, а потом использовать результаты анализа этих данных для принятия производственных решений. В сотрудничестве с коллегами из НЛМК нам удалось оперативно создать решение, сделавшее производство действительно цифровым, подчеркивает директор по разработке и внедрению программного обеспечения "Инфосистемы Джет" Молодых Владимир
|
Внедренная система уже позволяет группе НЛМК эффективнее вести разработку цифровых сервисов и моделей машинного обучения для оптимизации производственных процессов[1].