Skip to Content

СУПЕРКОМПЬЮТЕР «УРАН»: ОТКРОЕТСЯ ЛИ «ВТОРОЕ ДЫХАНИЕ»?

В конце минувшего года в Институте математики и механики УрО РАН впервые после пятилетнего перерыва прошла модернизация суперкомпьютера «Уран», который в последнее время из-за отсутствия финансирования стремительно деградировал: производительность его падала, он выбыл из Топ-500 самых мощных компьютеров мира. Финансовая поддержка  в размере 40 млн рублей, оказанная ФАНО России, позволила остановить этот процесс и повысить производительность «Урана» с 240 до 260 терафлопс. Сейчас наблюдается всплеск интереса уральских ученых, как академических, так и вузовских, к суперкомпьютеру, количество его пользователей растет. Он загружен полностью, днем и ночью, в выходные и праздничные дни. В Топ-50 суперкомпьютеров СНГ он занимает 14-е место, остается самым мощным кластером в Екатеринбурге и одним из самых мощных на территории восточнее Москвы. Однако специалисты убеждены: для полноценного функционирования суперкомпьютера разовых вливаний недостаточно, нужно стабильное финансирование.

Модернизация
как условие выживания
Суперкомпьютерный центр коллективного пользования был организован в ИММ УрО РАН в 2010 году. Это стало возможным благодаря предшествующему развитию параллельных технологий, инициированному в 1990-е годы академиками В.К. Левиным (НИИ «Квант»), А.В. Забродиным (Институт прикладной математики им. М.В. Келдыша РАН), тогдашним директором ИММ УрО РАН А.Ф. Сидоровым, возглавлявшим в те годы РАН Ю.С. Осиповым.
Под патронажем Уральского отделения РАН суперкомпьютерный центр получал регулярное финансирование, что позволяло постоянно наращивать мощность «Урана». Рекордная сумма — 55 млн рублей — была выделена на его модернизацию в 2011 году, и в результате к 2013 г. производительность кластера увеличилась на порядок, с 20 до 216 терафлопс. Специалисты суперкомпьютерного центра при выборе программного обеспечения ориентировались прежде всего на задачи, которые решали академические ученые, и число пользователей постоянно росло.
 После перехода академических институтов в ведение ФАНО России финансирование суперкомпьютера катастрофически сократилось. Так, за три года, с 2013 по 2015, на модернизацию «Урана» было выделено всего 9 млн рублей (в 2014 г.). Вроде бы сумма внушительная, но только на непрофессиональный взгляд. У шведских ученых есть такая присказка: трудно содержать белого коня и электронный микроскоп. К этой же категории относится суперкомпьютерный кластер. Для его поддержания на более или менее приличном уровне нужны дорогостоящие запчасти, очень много электроэнергии и система охлаждения, сравнимая по стоимости с самим кластером. Суперкомпьютер состоит из сотен вычислительных узлов, и при таком объеме оборудования что-нибудь выходит из строя минимум раз в неделю.
Более того, в случае суперкомпьютера ограничиться просто обслуживанием и текущим ремонтом нельзя, нужно постоянно наращивать его производительность, менять старые вычислительные модули на более мощные и энергоэффективные. Суперкомпьютерный кластер морально устаревает очень быстро, и отказ от его модернизации по существу означает смерть. Именно это в последние годы угрожало суперкомпьютеру «Уран».
Однако проблемы суперкомпьютерного центра ИММ УрО РАН связаны не только с отсутствием финансирования. После отделения академических институтов от УрО возник, в частности, вопрос о правомочности совместного использования суперкомпьютера, обслуживаемого за счет бюджетных средств, организациями, которые никак не связаны между собой. При такой разобщенности и отсутствии финансовых рычагов УрО удавалось сохранить хрупкую возможность коллективного использования суперкомпьютера сотрудниками уральских академических институтов.
Правда, с 2015 г. в жизни суперкомпьютерного центра УрО РАН наметились некоторые положительные сдвиги. Правительство России поручило министерствам и ведомствам разработать механизмы, которые позволили бы студентам получать доступ к новейшему оборудованию, в том числе к суперкомпьютерам Академии наук. В прошлом году комиссия по развитию научной инфраструктуры при ФАНО России объявила конкурс на получение центрами коллективного пользования целевого финансирования, главными критериями которого стали рост числа пользователей, шаговая доступность мощностей, сокращение времени на ожидание просчета задач. Суперкомпьютерному центру средства были выделены. Уже заключены новые договоры с институтами, которые находятся в ведении ФАНО и раньше не имели доступа к суперкомпьютеру. Сейчас готовится договор с Уральским федеральным университетом, который будет участвовать в затратах на содержание и развитие суперкомпьютера «Уран», а студенты, магистранты и аспиранты УрФУ получат доступ к его мощностям.
 
Бег на длинную дистанцию
То, что ФАНО России оказало поддержку суперкомпьютерному центру ИММ, — факт отрадный. Однако, как уже говорилось, необходима долгосрочная программа его развития. По мнению директора института члена-корреспондента РАН Николая Лукоянова, она должна включать средства на модернизацию не только непосредственно кластера, но также высокоскоростных коммуникационных каналов и быстродействующей системы хранения данных, учитывать увеличение потребления электроэнергии. Необходимо также предусмотреть достойный уровень заработной платы специалистов, которые обслуживают суперкомпьютер круглосуточно и работа которых связана с повышенной опасностью. Нужно сделать так, чтобы эти высококвалифицированные специалисты оставались в институте.
— Развитие суперкомпьютерных сетей на государственном уровне признано необходимым условием реализации Стратегии научно-технологического развития России, — отмечает Николай Лукоянов. — В свое время обсуждалась идея создания одного сверхмощного суперкомпьютера, на котором можно было бы считать всей страной. Однако это малоперспективно, поскольку задачи разного объема должны решаться на различных по мощности машинах. Для успешного технологического развития такой большой стране, как Россия, нужно иметь разветвленную сеть суперкомпьютеров. В одних регионах кластеры могут быть более мощными, в других — менее, и все они должны быть связаны между собой высокоскоростными телекоммуникационными каналами. Региональные суперкомпьютеры, ориентированные на решение разных задач, могут также различаться по архитектуре. Параллельное программирование требует не просто приобретения дорогостоящих программных пакетов, но их адаптации под конкретные задачи, а для этого в регионах нужны высококвалифицированные специалисты. Ведь создание уникальной архитектуры суперкомпьютерного кластера и инфраструктуры высокопроизводительных вычислений — это своего рода искусство. Еще сложнее научиться в полной мере использовать современные параллельные архитектуры при решении научных и технических задач.
В научных организациях суперкомпьютер должен быть ориентирован прежде всего на исследовательскую деятельность. Важнейшая задача нашего суперкомпьютерного центра — полноценное обеспечение вычислительными ресурсами академических институтов Уральского региона. Стабильное финансирование позволит нам регулярно модернизировать суперкомпьютер, а ученым — планировать, какие задачи они смогут на нем решать.
 
Много задач, хороших и разных
Сейчас на суперкомпьютере «Уран» считают сотрудники 14 институтов Уральского отделения. Тематика обсчитываемых задач разнообразна — это и материаловедение, исследование прочностных свойств конструкций без воплощения в металле, и моделирование новых химических соединений, позволяющее просчитывать порции веществ объемом в сотни тысяч молекул, и биологические задачи, например, создание моделей генетического распределения различных видов березы на Северном и Приполярном Урале. На суперкомпьютере можно смоделировать 100 млн запусков ракет — если какие-то из них и будут неудачными, то лишь в виртуальном пространстве. Использование вычислительного кластера жизненно необходимо ученым, работающим в областях, где натурный эксперимент невозможен. Так, виртуальная модель сердца, которую совместно разрабатывают сотрудники Института иммунологии и физиологии, Института математики и механики и екатеринбургские кардиологи, позволяет проигрывать разные сценарии развития сердечной недостаточности, отрабатывать технологии установки кардиостимуляторов, оценивать эффект лечения и возможные риски, выбирать оптимальные варианты хирургического вмешательства. Такую модель можно обсчитывать только на мощном кластере.
Специалисты отдела системного обеспечения ИММ УрО РАН уделяют большое внимание информационной и методической поддержке пользователей, проводят консультации по электронной почте и через информационный сайт. Предоставим слово представителям нескольких институтов, сотрудничающих с суперкомпьютерным центром ИММ УрО РАН.
Кандидат физико-мате-матических наук Сергей Проценко (Институт теплофизики УрО РАН, Екатеринбург):
— На суперкомпьютере «Уран» мы исследуем фазовые переходы первого рода (кристаллизация, плавление, вскипание) и фазовые равновесия одно- и многокомпонентных систем, содержащих до 10 миллионов взаимодействующих частиц. Компьютерное моделирование позволяет на молекулярном уровне воспроизвести процессы гомогенного и гетерогенного зародышеобразования и получить подробную информацию о начальной стадии фазовых превращений на малых временных и пространственных отрезках, недоступных для натурных экспериментов. Использование параллельных вычислений в сотни раз ускоряет расчеты. Полученная информация о достижимых границах существования метастабильных фаз, параметрах фазового равновесия, кинетике фазовых переходов, поверхностных свойствах зародышей новой фазы существенно расширяют и дополняют данные лабораторных исследований.
Кандидат технических наук Иван Ломакин (Горный институт Пермского НЦ УрО РАН):
— Математическое моделирование стало мощным инструментом исследования в механике горных пород. В последние десятилетия меняется парадигма геомеханического обеспечения безопасности горных работ: от инженерных методов мы переходим к компьютерному моделированию геомеханических процессов. С появлением таких высокопроизводительных суперкомпьютеров, как «Уран», появилась возможность рассматривать в трехмерных постановках горнотехнические объекты со сложной пространственной конфигурацией, включать в расчет синтезированные многоуровневые модели, описывающие поведение природных и техногенных элементов породного массива под нагрузкой, детально анализировать деформирование и разрушение конструкций во времени.
Кандидат физико-математических наук Алексей Шориков (Институт физики металлов УрО РАН, Екатеринбург):
Современная наука все чаще отдает предпочтение численному эксперименту по сравнению с натурным, поскольку это позволяет существенно расширить зону поиска, сокращает время и затраты. Большинство научных направлений, в рамках которых работают ученые института, требует использования ресурсоемких расчетных методов: это  моделирование неоднородных электромагнитных полей для систем контроля, расчеты электронной структуры и различных свойств сильно коррелированных соединений, обширная материаловедческая тематика, например, численное моделирование статических и динамических свойств доменных границ, а также влияния внешних воздействий на структурно-фазовые превращения в сталях и сплавах. Для проведения  таких расчетов необходим доступ к мощному расчетному кластеру, такому как суперкомпьютер «Уран». Правда, иногда приходится стоять на него в очереди — пользователей много, бывают  пики потребления. Недавно  наша лаборатория приобрела собственный кластер примерно на  400 ядер, и некоторые расчеты, в частности по грантам, мы проводим на нем.
* * *
По словам директора ИММ члена-корреспондента РАН Николая Лукоянова, параллельные вычислительные системы стали не просто основным инструментом моделирования практически во всех областях науки и производства — их использование в корне меняет научную парадигму, позволяя иначе посмотреть на задачи, к которым еще недавно, казалось, невозможно подступиться. Это мировой тренд, и для того чтобы уральское академическое сообщество могло следовать в его русле, суперкомпьютер «Уран» должен обрести «второе дыхание».
Подготовила
Е. Понизовкина.
Фото вверху —
торжественное открытие суперкомпьютера «Уран»
в 2010 году
Год: 
2017
Месяц: 
июнь
Номер выпуска: 
11
Абсолютный номер: 
1157
Изменено 19.06.2017 - 16:35


2021 © Российская академия наук Уральское отделение РАН
620049, г. Екатеринбург, ул. Первомайская, 91
document@prm.uran.ru +7(343) 374-07-47