«ИНФОРМАЦИОННЫЕ ТЕХНОЛОГИИ И ПРОГРАММНЫЕ СРЕДСТВА: ПРОЕКТИРОВАНИЕ, РАЗРАБОТКА И ПРИМЕНЕНИЕ Сборник научных статей Гродно 2011 УДК 004 005.951(082) ББК 32.81я43 И38 Редакционнаяколлегия: кандидат физико-математических ...»
Так при использовании такого модифицированного алгоритма вместо ячеек, расположенных на 1-й диагонали матрицы памяти, следует использовать ячейки, для которых выполняется равенство: (i–l–1) mod p = j mod p, p= min (n, m), где i и j – индексы соответственно столбца и строки ячейки в матрице ячеек памяти, а m и n – число столбцов и строк. Порядковый номер прохода теста при его многократном использовании обозначается l. А вместо ячеек 2-й диагонали стоит использовать ячейки, для которых (i–l–1) mod p = (p–1–j) mod p.
В [4] предложен свой тест, который позволяет 100 % выявлять неисправности типа SLIF.
Он состоит из двух независимых шагов:
Шаг 1. {(f); (p); B{(f); (rB0)}} Шаг 2. {(f); (r1, p); (r0); (f); (r1, p); (r0)} На 1-м шаге применяется тест, позволяющий выявить 100 %-но неисправности типа SLIF, в то время как на шаге 2 применяется описанный выше тест Flash March для выявления оставшихся неисправностей. Так на первом шаге, после программирования всех ячеек, для каждого блока применятся операция стирания, после чего во всех остальных блоках проверяется состояние ячеек, которые должны быть равны логическому «0».
Pavan, P. Flash memory cells-an overview / P. Pavan, R. Bez, P. Olivo, E. Zanoni // Proc. IEEE. – 1997. – Vol. 85(8). – pp. 1248 – 1271.
2. IEEE. IEEE 1005 Standard Definitions and Characterization of Floating Gate Semiconductor Arrays. IEEE Standards Department. Piscataway, 1999.
Cheng, K.-L. “RAMSES-FT: A fault simulator for flash memory testing and diagnostics / Cheng K.-L.
J.-C. Yeh, C.-W. Wang, C.-T. Huang, and C.-W. Wu // IEEE VLSI Test Symposium: proc., Monterey, California, Apr. 2002, – pp. 281–286.
4. Shibaji. B. Built-In Self-Test for Flash Memory Embedded in SoC / B. Shibaji, R.C. Dipanwita // Electronic Design, Test and Applications: proc. of the Third IEEE International Workshop, (DELTA06).
5. Yeh. J.-C. Flash memory built-in selftest using march-like algorithms / J.-C. Yeh [etc.] // Electronic Design, Test, and Applications: Proc. IEEE Int. Workshop, Christchurch, Jan. 2002. – pp. 137–141.
6. Chiu, S.-K. Diagonal Test and Diagnostic Schemes for Flash Memories / S.-K. Chiu [etc.] // International Test Conference: proc., 2002, – pp. 37–46.
Ярмолик Светлана Вячеславовна, доцент кафедры программного обеспечения информационных технологий факультета компьютерных систем и сетей Белорусского государственного университета информатики и радиоэлектроники, канидат технических наук, [email protected].
КЛАСТЕРНЫЕ СИСТЕМЫ
И ПАРАЛЛЕЛЬНЫЕ ВЫЧИСЛЕНИЯ
УДК 681. Е.А. РОВБА, А.В. НИКИТИН, В.А. ВОЛЧОК, Н.Н. БАБАРИКА, Е.В. ОЛИЗАРОВИЧКОНЦЕПЦИЯ РЕГИОНАЛЬНОГО СЕГМЕНТА «СКИФ-ГРОДНО»
НАЦИОНАЛЬНОЙ ГРИД-СЕТИ
Идейной основой технологии Грид является объединение ресурсов путем создания компьютерной инфраструктуры нового типа, обеспечивающей глобальную интеграцию информационных и вычислительных ресурсов на основе сетевых технологий и программного обеспечения промежуточного уровня (между базовым и прикладным ПО), а также набора стандартизованных служб для обеспечения надежного совместного доступа к географически распределенным информационным и вычислительным ресурсам: отдельным компьютерам, кластерам, хранилищам информации и сетям.Введение В Гродненском регионе действует множество предприятий и организаций, которые обладают большими потребностями в использовании научной информации и выполнении собственных научных исследований. Подобные работы, в частности моделирование сложных объектов и расчет динамических моделей процессов, не всегда могут быть выполнены собственными силами предприятий, т.к.
требуют наличия высококвалифицированных кадров и больших затрат на содержание высокопроизводительной вычислительной техники. В то же время, успешно развивающиеся предприятия имеют возможности инвестирования в развитие своей материально-технической базы и технологической инфраструктуры. В настоящее время ряд организаций можно рассматривать не только как потенциальных потребителей вычислительных ресурсов, но и как доноров, имеющих возможность предоставлять в пользование свои ресурсы (машинное время, хранилища данных, сети передачи данных, др.).
1. Потребности развития Грид-технологий в Гродненском регионе В настоящее время в Гродненском регионе сложились потребности и благоприятные условия для создания управляемой сетевой инфраструктуры, которая позволила бы повысить эффективность существующих информационно-технических ресурсов за счет их совместного использования. Создание Грид-систем является одним из наиболее перспективных современных способов решения задачи кооперации в сфере компьютерных ресурсов. Наибольшей концентрацией промышленных прелприятий, научных и образовательных учреждений в регионе обладают города Гродно и Лида. В связи с этим, с технической и экономической точек зрения целесообразно создание сетей нового поколения в первую очередь в этих городах. При разработке концепции развития ресурсного центра «Гродно-СКИФ» Национальной Грид-сети были учтены, имеющиеся ресурсы Гродненского региона, позволяющие оптимизировать затраты на его создание.
2. Ресурсы, пригодные для организации Грид-сегмента в г. Гродно 2.1.
В 2001-2005 годах в г. Гродно был реализован проект создания Гродненского регионального сегмента научно-информационной компьютерной сети (НИКС) РБ. Описание структуры и характеристик полученного объекта содержится в документе ГЦ.03.002.01-ТО «Эксплуатационная документация (техническое описание) программно-технического комплекса «Региональный межведомственный сегмент единой научно-информационной компьютерной сети (НИКС), включающий информационные фонды Гродненской области»».
В рамках выполнения данного проекта были получены следующие основные результаты:
разработаны концепция развития коммуникаций и проект создания научноинформационной компьютерной сети г. Гродно на основе волоконно-оптических линий связи, предусматривающие возможность подключения основных потребителей научно-технических ресурсов: предприятий, учреждений научной и образовательной сферы, органов государственного управления, потенциальных участников проекта «Телемедицина»;
созданы три узла телекоммуникаций сети НИКС, которые используются для доступа потребителей к ресурсам сетей НИКС, BASNET, Интернет;
построены кабельные коммуникации и организованы каналы связи, позволяющие передавать данные между узлами со скоростью передачи до 100 Мб/с;
организован канал связи Гродненского сегмента НИКС с компьютерной сетью Национальной академии наук Беларуси – BASNET (скорость передачи данных 2 Mб/с);
организован доступ к Интернет для пользователей Гродненского сегмента сети BASNET;
к ресурсам Гродненского сегмента подключены потребители: УО «Гродненский государственный университет имени Янки Купалы», УК «Гродненская областная библиотека имени Е.Карского», Гродненский филиал Республиканской научно-технической библиотеки, Учреждение «Гроднооблсельхозпрод», Гродненский филиал НПЦ «Институт фармакологии и биохимии НАН Беларуси»;
построены коммуникации и установлено оборудование, позволяющие организовать на базе волоконно-оптических линий связи высокоскоростное подключение к научной сети г. Гродно следующих организаций: УО «Гродненский государственный медицинский университет», УЗ «Гродненская областная клиническая больница»;
построена собственная телекоммуникационная инфраструктура, позволяющия организовать доступ к сети BASNET потенциальных клиентов с использованием низко-, средне- и высокоскоростных технологий передачи данных, в т.ч. волоконно-оптических линий связи (например объекты:
Управление статистики Гродненского облисполкома, УЗ «Гродненский родильный дом», РУП «Радиоволна», Свободная экономическая зона «Гродноинвест», УЗ «Гродненская областная поликлиника» и др.);
Гродненский сегмент BASNET построен с учетом возможности интеграции с наиболее мощными существующими сетями передачи данных: РУП «Белтелеком», Гродненская информационная кабельная сеть (ГИКС), кабельная телевизионная сеть ОАО «Гарант», что позволяет организовать высокоскоростные каналы связи для подключения к научной сети высших и средних специальных учебных заведений, научный центров и лабораторий, предприятий и организаций.
Ресурсы хранения данных. К основным ресурсам памяти, которые должны быть 2.2.
учтены при проектировании Грид-сети в Гродно, могут быть отнесены:
ресурсы регионального data-центра РУП «Белтелеком»;
ресурсы вычислительных центров крупнейших промышленных предприятий (ОАО «Белкард», ОАО «Азот», ОАО «Химволокно»);
ресурсы вычислительных центров учреждений образования (ГрГМУ, ГрГУ им. Я. Купалы).
Информационные ресурсы 2.3.
Ресурсы, служащие для хранения и предоставления различной специализированной информации, в т.ч. метаданных и информации о других ресурсах Грид-системы. К основным информационным ресурсам, которые должны быть учтены при проектировании Грид-сети в Гродно, относятся:
базы данных и справочные информационные ресурсы Национальной библиотеки и других ведущих библиотек страны (сеть Basnet, г. Минск);
базы данных и справочные информационные ресурсы Гродненской областной библиотеки имени Е.Ф. Карского;
базы данных Гродненского филиала Республиканской научно-технической библиотеки;
базы данных и справочные информационные ресурсы ведомственных библиотек предприятий (ОАО «Азот», ОАО «Белкард», РУП «Гродноэнерго»);
базы данных и справочные информационные ресурсы учреждений образования (ГрГМУ, ГрГУ им. Я. Купалы, Гродненский государственный аграрный университет (ГрГАУ));
информационные ресурсы органов госуправления (Гродненский областной исполнительный комитет, городской исполнительный комитет (районные администрации);
базы данных проекта «Телемедицина» и информационные ресурсы основных медицинских учреждений (Областная клиническая Больница, больница скорой помощи, 1-я городская больница, 2-я городская больница, инфекционная больница, кардиоцентр, 4-я городская больница, психоневрологический диспансер).
Вычислительные ресурсы 2.4.
Ресурсы, дающие возможность пользователю Грид-системы использовать процессорные мощности удаленных компьютерных систем. К основным вычислительным ресурсам, которые должны быть учтены при проектировании Грид-сети в Гродно, могут быть отнесены:
суперкомпьютер СКИФ-4000 (г. Минск, ОИПИ);
кластерная вычислительная система «СКИФ К-1000М-1» (ГрГУ им. Я.Купалы);
вычислительный кластер «ВМ – 5100» (НПЦ ОАО «Белкард»);
ресурсы вычислительных центров крупнейших промышленных предприятий (ОАО «Азот, ОАО «Химволокно», ОАО «Белкард», РУП «Гродноэнерго»);
ресурсы вычислительных центров учреждений образования (Гродненский государственный медицинский университет (ГрГМУ), Гродненский государственный университет имени Янки Купалы (ГрГУ им. Я. Купалы), региональная образовательная сеть).
Концепции создания ресурсного центра «Гродно-СКИФ»
Среди основных задач, решаемых Грид в настоящее время можно выделить:
организацию эффективного использования ресурсов для небольших задач, с утилизацией временно простаивающих компьютерных ресурсов;
обеспечение распределенных супервычислений для решения крупных задач, требующих огромных процессорных ресурсов, памяти и т.д.;
проведение вычислений с привлечением больших объемов географически распределенных данных, например, в метеорологии, астрономии, физике высоких энергий;
организацию коллективных вычислений, в которых одновременно принимают участие пользователи из различных организаций [1].
С учетом вышеизложенного, концепция по созданию ресурсного центра «Гродно-СКИФ»
была направлена на:
создание открытой Грид-инфраструктуры для использования в научно-исследовательских и образовательных целях, в частности, для обучения пользователей работающих в Грид-сегменте;
разработку инструкций по удаленному доступу к суперкомпьютеру через Грид-портал и запуску заданий;
разработку программы развития образовательного процесса в университете и подготовки специалистов для работы с новейшими информационными технологиями;
объединение созданного регионального Грид-сегмента (образовательной, вычислительной и коммуникационной инфраструктуры ГрГУ) в единую Национальную Грид-сеть.
В рамках выполнения задания «Разработать опытный участок регионального распределенного сегмента Грид-сети «СКИФ» поддержки образовательной, научной и производственнотехнической деятельности для промышленных предприятий энергетики и машиностроения»
(ГРОДНО-ГРИД) Научно-технической программы Союзного государства «Разработка и использование программно-аппаратных средств GRID-технологий и перспективных высокопроизводительных (суперкомпьютерных) вычислительных систем семейства СКИФ»:
создан ресурсный центр «Гродно-СКИФ» Национальной Грид-сети;
разработаны алгоритмы и выполнена программная реализация отдельных задач оптимизации процессов расчета комплекса режимных задач работы электрического и теплотехнического оборудования при производстве тепло-электроэнергии. Комплекс программ предназначен для:
оперативного определения рекомендаций начальнику смены станции по оптимальным режимам;
получение эквивалентной энергетической характеристики Гродненской ТЭЦ-2 для определения решений по оптимальному распределению электрической нагрузки между Гродненской ТЭЦ-2 и другими электростанциями РБ;
разработана методика конструирования и виртуальных испытаний карданных передач автомобилей «БелАЗ» с использованием регионального распределенного ГРИД-сегмента «СКИФUnicore», позволяющая планировать работу по виртуальным испытаниям карданных валов для автомобильной техники.
Заключение Развитие и внедрение Грид-технологий носят стратегический характер. В ближайшей перспективе эти технологии позволят создать принципиально новый вычислительный инструмент для расчета сложных задач науки и техники, а также получить качественно новые результаты в фундаментальных исследованиях.
В настоящее время на первый план выходит задача разработки нового и адаптации существующего научно-методического обеспечения для массовой подготовки специалистов в области суперкомпьютерных технологий и параллельного программирования, в особенности – дистанционно, с использованием возможностей глобальной сети Интернет.
Введение в технологию Грид. // Гатчина 2006 г. Введение в технологию Грид. /сост: А.К. Кирьянов, Ю.Ф. Рябов (Петербургский институт ядерной физики им. Б.П. Константинова РАН).
Ровба Евгений Алексеевич, доктор физико-математических наук, профессор, ректор Гродненского государственного университета имени Янки Купалы.
Никитин Александр Викторович, кандидат технических наук, доцент Гродненского государственного университета имени Янки Куплы, [email protected].
Волчок Валерий Александрович, кандидат технических наук, доцент Гродненского государственного университета имени Янки Купалы, [email protected].
Бабарика Николай Николаевич, старший научный сотрудник НИЧ Гродненского государственного университета имени Янки Купалы, [email protected].
Олизарович Евгений Владимирович, ведущий инженер-электроник Гродненского государственного университета имени Янки Купалы, e.olizarovich @grsu.by.
УДК 681.
РАЗВИТИЕ ГРИД-СЕТИ В РЕСПУБЛИКЕ БЕЛАРУСЬ.
СОСТОЯНИЕ И ПЕРСПЕКТИВЫ
Рассматриваются вопросы освоения Грид-технологии в Республике Беларусь, создания и развития национальной Грид-сети, интеграция в опытный участок Грид-сети Союзного государства и международные Грид-проекты. Определены этапы развития Грид-технологий и их содержание.Введение Грид – это территориально распределенная программно-аппаратная компьютерная среда, с принципиально новой организацией вычислений и управления потоками заданий и данных. Такая компьютерная инфраструктура предназначена для объединения вычислительных мощностей различных организаций. На основе технологии Грид в настоящий момент созданы многие национальные вычислительные компьютерные инфраструктуры для их объединения в интернациональные ресурсов, предназначенные для решения крупных научно-технических задач.
Учитывая значительный зарубежный опыт по построению и функционированию грид сетей, в 2004 году сотрудники ОИПИ НАН Беларуси провели первые экспериментальные работы по подключению суперкомпьютерной системы СКИФ К-500 в проект LCG, который предусматривал обработку и анализ экспериментальных данных полученных с установки LHC с использованием Грид-технологий. В результате проделанной НИР была разработана технология интеграции суперкомпьютеров, разработанных в рамках программы Союзного государства СКИФ, в распределенную вычислительную систему LCG, построен LCG-сайт использующий вычислительные ресурсы суперкомпьютера К-500, проведено тестирование. Был сделан вывод о возможности успешно решать задачи обработки и хранения большого объема информации.
Развитие грид-технологий в Республике Беларусь Полноценное развитие Грид-технологий в Республике Беларусь началось с момента выполнения программы Союзного государства «СКИФ-ГРИД». Стратегически было определено развитие грид-технологий планировать по четырем направлениям:
подключение определенного количества вычислительных ресурсов программы в международные проекты;
создание национальной Грид-инфраструктуры;
создание опытного участка Грид-сети Союзного государства;
разработка технологий построения и функционирования корпоративных грид-систем.
реализация первого направления преследовала достижение следующих целей:
ознакомление с передовыми Грид-технологиями;
выход на круглосуточный режим функционирования вычислительных ресурсов программы;
обеспечение возможности участия в международных Грид-проектах.
Потенциальным кандидатом в данном направлении рассматривался проект BalticGrid. Выполнение работ по данному направлению позволило достаточно быстро получить опыт участия в функционирующих Грид-проектах; сделать первые шаги по пути реализации прикладных проектов на основе работающей Грид-сети и вступить BalticGrid.. Основным инструментальным средством технологии Грид для реализации данного направления является программный продукт gLite, реализованный в соответствии со стандартами OGSA и наиболее активно использующийся в европейской Грид-инфраструктуре. Отличительной особенностью данной реализации является ее достаточно большой объем инсталляции и необходимость в высококвалифицированном персонале для поддержания системы в рабочем состоянии. В результате выполнения этих работ создан Гридсегмент национальной Грид-сети, интегрированный в общеевропейскую Грид-инфраструктуру и белорусские ученые участвуют в выполнении проектов Европейской комиссии.
Создание национальной Грид-инфраструктуры первоначально базировалось на выборе программного обеспечения промежуточного уровня (ПО ПУ). В качестве платформы для построения национальной Грид-сети было выбрано ПО ПУ Unicore, отличительной особенностью которого является кроссплатформенность исполнительной среды, что является привлекательным для широкого круга пользователей. Недостатком является малая функциональность в сравнении с такими платформами как программный продукт gLite, что обусловило необходимость дальнейшей его доработки в направлении повышения функциональности и информативности национальной Грид-сети. Однако этот шаг дал возможность нашим специалистам проявить себя в кругу разработчиков ПО ПУ. Это расширило возможности по участию в международных Грид-проектах. Основной целью создания национальной Грид-инфраструктуры является привлечение пользователей к использованию новых технологий. Для этого выполняется ряд проектов по разработке приложений с использованием Грид-сети на базе суперкомпьютерных ресурсов.
Создание опытного участка Грид-сети Союзного государства осуществлялось путем объединения суперкомпьютерных ресурсов СКИФ в конфедерацию и создание на их базе СКИФПолигона. Общие вычислительные ресурсы Союзного государства используются для разработки программного обеспечения, отработки технологий и развертывания приложений на созданной инфраструктуре участниками программы «СКИФ-ГРИД».
Необходимость выделения четвертого направления возникло при анализе общих потребностей различных корпоративных потребителей вычислительных ресурсов. Например, не всегда существует необходимость в развертывании усиленной системы безопасности грид-сети, поскольку корпоративная сеть вообще не имеет выход в Интернет, либо большая часть требуемой функциональности может быть реализована при помощи сетевых сервисов аналогичных Web-сервисам.
В этом случае нецелесообразно развертывать Грид-сеть с использованием технологий построения кластерных вычислительных систем, но необходимо стандартизировать использование технологий удаленного вызова процедур (xml-rpc, jax-rpc и т.п.), создания web-, file- сервисов, использование планировщиков заданий. По этому принципу в рамках выполнения первого этапа программы создана корпоративная грид-сеть КГБ РБ для решения специализированных задач.
Этапы развития национальной Грид-сети Развитие национальной Грид-инфраструктуры планируется выполнять в три этапа. Первый этап выполняется в рамках реализации программы Союзного государства «СКИФ-ГРИД» и заканчивается созданием опытного участка национальной Грид-сети, интегрированного в общеевропейскую Грид-инфраструктуру и опытный участок единой вычислительной инфраструктуры Союзного государства – СКИФ-Полигон. Результатами этого этапа являются (рис. 1):
освоение передовых Грид-технологий и их использование для построения Грид-сетей;
разработка новых конфигураций суперкомпьютерных систем для использования в качестве ресурсных центрова;
практическое использование созданной базовой Грид-инфраструктуры путем разработки ряда конкретных приложений для промышленных предприятий, организаций социальной сферы, науки и образования;
создание базовой инфраструктуры для подготовки кадров вузами страны.
В результате выполнения первого этапа развития национальной Грид-сети будет создан опытный участок, представляющий национальную Грид-инфраструктуру в европейской Гридсети, и базовое общее научно-образовательное пространство Союзного государства на базе СКИФ-Полигона. Характерной чертой опытного участка национальной Грид-сети является наличие Национального центра Грид-технологий, осуществляющего функции координации, управления и контроля и Гродненского регионального Грид-сегмента. На основе ресурсных центров опытного участка Грид-сети к концу выполнения первого этапа планируется создать республиканскую ассоциацию ресурсных центров национальной Грид-сети.
Все это обусловило создание научно-технического задела для развития и использования в Республике Беларусь суперкомпьютерных и Грид-технологий в различных сферах экономики. Это определило дальнейшее развитие этого направления.
Второй этап направлен на расширение опытного участка путем разработки и создания распределенного центра суперкомпьютерных технологий.
Региональное развитие национальной Грид-сети Развитие технологий микроэлектроники и создания суперЭВМ определяют тенденции развития высокопроизводительных вычислений.
С одной стороны, вертикальный путь развития вычислительной инфраструктуры, обеспечивающий централизованную модель вычислений. Все больший и больший масштаб создаваемых установок: большее числа процессорных ядер, число узлов, потребляемая мощность и т.д. Как ожидается, суперкомпьютеры будут объединять до нескольких сотен тысяч узлов, располагаться в центрах обработки данных площадью сотни и тысячи метров и требовать для работы десятки мегаватт электроэнергии. Транспетафлопные проекты рассматриваются США, объединенной Европой, Японией, Китаем и Индией как стратегические, направленные на укрепление научнотехнического потенциала этих стран, а обладание технологией построения таких систем является явным стратегическим преимуществом, как в области научно-технического, так и военного потенциала. Очевидно, что установки столь большого масштаба будут создаваться централизовано, а обслуживать многих потребителей, иногда из нескольких стран.
Со второй – горизонтальный путь развития вычислительной инфраструктуры путем создания распределенной инфраструктуры центров обработки данных, объединенных в единое вычислительное пространство, также обеспечивающий централизованную модель вычислений. Концепция распределенного центра обработки данных предусматривает создание единого целостного ресурса с возможностью балансировки нагрузки, централизованным управлением и оптимальным резервированием элементов инфраструктуры. Этот путь представляется наиболее перспективным путем горизонтального развития ИТ-инфраструктуры, обеспечивающим построение высокоэффективной катастрофоустойчивой инфраструктуры, наиболее полно отвечающей современным потребностям. Это обеспечивает организацию катострофоустойчивой, экономически эффективной ИТ-инфраструктуры, способной обеспечить непрерывную бизнес-деятельность организаций и предприятий в чрезвычайных ситуациях Ядром любой централизованной информационной службы являются центры обработки данных (ЦОД), которые обеспечивают самый высокий уровень эффективности использования ресурсов и предоставляют надежный фундамент для ее развития на многие годы вперед. Центры обработки данных строятся вокруг центральных вычислительных ресурсов или баз данных функционирующих на высокопроизводительных платформах. Такая инфраструктура является адаптивной и масштабируемой, подстраиваясь под новые корпоративные бизнес требования в будущем, максимально экономически эффективна.
Распределенный ЦОД удовлетворяет требованиям:
имеет катастрофоустойчивую конфигурацию, способную к максимально быстрому восстановлению в чрезвычайных ситуациях;
обеспечивает заданные требования к качеству обслуживания приложений;
является адаптивным и масштабируемым, подстраиваясь под новые корпоративные бизнес-требования в будущем;
обеспечивает комплексную физическую и информационную безопасность;
максимально экономически эффективен.
Эффективное использование такой инфраструктуры может быть реализовано посредством массивного целенаправленного развития такой стратегической области, как обеспечение единой вертикали при построении высокопроизводительных систем для прикладных сервисов – обеспечение вычислительными сервисными услугами научных и производственных организаций, учреждений социальной сферы.
Реализацию второго этапа планируется выполнять путем создания региональных центров обработки данных с использованием суперкомпьютерных ресурсов на базе ведущих научных организаций и вузов страны и объединения их в Грид-инфраструктуру (рис. 1).
При этом создаются небольшие (до 10 Тфлопс) вычислительные мощности регионального уровня. Однако объединение их в Грид-инфраструктуру обеспечит необходимыми вычислительными мощностями принципиально нового уровня производительности и быстродействия для решения ряда насущных и наиболее приоритетных задач методами математического моделирования как в научной, так и производственной сферах. Кроме этого в общий региональный ресурс планируется подключение рабочих станций и персональных компьютеров организаций. Если организация располагает тремя тысячами рабочих мест на базе рабочих станций, то за время их регулярного простоя потерянные циклы составят существенную долю даже терафлопной производительности. В результате будет создано единое научно-образовательное пространство страны, которое ляжет в основу развития наукоемких технологий и широкого внедрения в практику работы организаций и предприятий.
Кроме непосредственного создания распределенной вычислительной среды второй этап предусматривает и развитие технологий эффективного использования создаваемых ресурсов на базе сервис-ориентированных технологий и технологий cloud-computing.
Направления развития сервисно-ориентированных Грид-технологий:
упрощение доступа к высокопроизводительным установкам;
создание компонентной среды, позволяющей легко комбинировать источники данных, вычислительные приложения;
широкое использование кластеров виртуальных машин для упрощения конфигурации, динамического разделения ресурсов, организации Грид-сервисов.
Региональный центр обработки данных на базе суперкомпьютерных ресурсов тесно взаимодействует с органами местной власти, советом директоров предприятий, учреждениями науки и образования региона, а также организациями промышленности, энергетики, социальной сферы и управления (рис. 2).
Развитие науки, подготовка специалистов Широкое внедрение новых технологий в экономику региона Создание специализированных центров обработки данных.
Параллельно второму этапу выполняется третий этап по созданию специализированных центров обработки данных. Это обусловлено необходимостью создания специальных архитектурно-технологических решений суперкомпьютерных систем, прикладного программного обеспечения, требованиями конфиденциальности информации. В рамках этого направления будут выполняться работы по созданию корпоративных Грид-систем для решения специализированных задач.
Они предназначены для различных тяжелых расчетов, занимающих много времени и ресурсов.
Как правило, такие операции недоступны для многих организаций и компаний по финансовым возможностям. Кроме больших затрат времени, они должны приобретать большое количество мощных компьютеров. Для многих небольших и средних организаций такие расходы выглядят невозможными (закупка 500 серверов, их настройка, обслуживание в процессе работы), а крупным компаниям с крупными расчетами организация таких вычислений может сильно влиять на их расходы. Поэтому специализированные центры обработки данных и корпоративные Грид-сети будут создаваться отраслевого назначения с подключением ряда промышленных предприятий, организаций социальной сферы и т.д.
Заключение Актуальность развития национальной Грид-сети определяется необходимостью создания технологической основы для развития приоритетных и критических технологий государства, что возможно обеспечить за счет создания и эффективного использования высокопроизводительного вычислительного пространства и технологий его эффективного использования на базе применения современных высокопроизводительных отечественных программно-аппаратных комплексов.
Среди основных направлений использования научно-образовательного пространства на данный момент можно выделить:
организация эффективного использования ресурсов для небольших задач, с утилизацией временно простаивающих компьютерных ресурсов;
распределенные супервычисления, решение очень крупных задач, требующих огромных процессорных ресурсов, памяти и т.д.;
вычисления с привлечением больших объемов географически распределенных данных, например, в метеорологии, астрономии, физике высоких энергий;
коллективные вычисления, в которых одновременно принимают участие пользователи из различных организаций.
Анищенко Владимир Викторович, заместитель генерального директора ГНУ «Объединенный институт проблем информатики НАН Беларуси», кандидат технических наук, доцент.
Криштофик Анатолий Михайлович, исполнительный директор программы Союзного государства «СКИФ-ГРИД», кандидат технических наук, доцент, [email protected].
УДК 681.
ПРИМЕНЕНИЕ ПАРАЛЛЕЛЬНЫХ ВЫЧИСЛЕНИЙ ДЛЯ МОДЕЛИРОВАНИЯ
АГРЕГАЦИИ АЭРОЗОЛЬНЫХ ЧАСТИЦ
Для расчетов структуры и кинетики формирования фрактальных кластеров в аэрозолях разработан алгоритм распараллеливания с использованием MS Visual C++ 2008 и библиотеки MPICH2 версии 1.2.1. Расчеты выполнены с использованием суперкомпьютера к1000. Получены зависимости среднего размера кластеров в системе от времени, временная зависимость числа кластеров в системе, зависимость времени расчета от количества вычислительных узлов.Введение В аэрозолях на частицах могут появляться заряды. Их величина обусловлена случайными столкновениями частиц с ионами в газах. Величина заряда частиц аэрозолей сильно флуктуирует от частицы к частице. В среднем заряд частицы соответствует всего лишь нескольким элементарным зарядам [1, 2]. Наряду с экспериментальными методами исследования структуры объектов, которые являются наиболее надежными, применяются методы моделирования. Эти методы эффективны, когда прямые экспериментальные методы либо трудоемки, либо вообще невозможны.
Моделирование как метод исследования в первую очередь применим для систем, параметры которых изменяются во времени. Динамические модели позволяют устанавливать связь между параметрами движения и физическими свойствами. Например, рассматривая кластер как динамическую систему взаимодействующих частиц, по параметрам движения (энергия, импульс, частота), используя статистические методы, можно найти макроскопические параметры системы. Методы моделирования позволяют варьировать в широком диапазоне исходные параметры. Это обеспечивает, в сравнении с прямыми экспериментальными методами, возможность более детального исследования. Модельные системы обеспечивают наиболее общий подход к изучению агрегации образования структур. Структура агрегатов является доминирующим фактором при изучении свойств материалов.
Описание модели Рассмотрим модель образования фрактальных кластеров с учетом кулоновского взаимодействия. Эта модель отличается от модели кластер-кластерной агрегации ограниченной диффузией тем, что частицам присваивается заряд равный по модулю 1–5 заряда электрона. Количество частиц с положительным зарядом равно количеству частиц с отрицательным зарядом. Частицы перемещаются в соответствии с кулоновским потенциалом взаимодействия. При столкновении частицы объединяются в кластеры (см. рис. 1):
Рис. 1. Формирование фрактального кластера в рамках модели, В модели учитывается вращение кластеров и диффузия. Количество частиц в расчетах принималось равным 1250, 2160, 10000. Программа разработана с использованием MS Visual C++ 2008 и библиотеки MPICH2 версии 1.2.1. Отображение кластеров выполняется с использованием библиотеки OpenGL.
Алгоритм состоит из этапов:
1. Инициализация начальных данных на 0 вычислительном процессе (процедура InitData) и их рассылка на все вычислительные процессы (используется стандартная процедура Bcast);
2. Маркировка частиц системы на 0 вычислительном процессе (процедура CLSys) и рассылка на все вычислительные процессы (используется стандартная процедура Bcast);
3. Вычисление перемещений частиц в системе на каждом вычислительном процессе соответствующей ему группы частиц (процедура Main) и обмен данными между вычичлительными процессами (процедура Obmen). Процедура Obmen использует стандартные процедуры Gather и Bcast;
4. Расчет отражения кластеров (группы частиц) от границы области на каждом вычислительном процессе соответствующей ему группы кластеров (процедура Gran) и и обмен данными между вычичлительными процессами (процедура Obmen);
5. Запись промежуточных результатов в файл (процедура SaveFile);
6. Проверка прекращения вычислительного процесса(в системе остался один кластер или выполнено определенное количество шагов). Если процесс прекращается, то происходит запись конечных результатов в файл (процедура SaveFile), иначе осуществляется преход к пункту 2.
Полученные результаты Кластеры, образованные в рамках этой модели, получаются с высокой степенью анизотропии [3]. Фрактальная размерность кластеров, полученных с учетом кулоновского взаимодействия, D 1,57 0,03. Анализ численных экспериментов по определению влияния заряда частиц на фрактальную размерность не показывал существенного влияния величины заряда частиц на фрактальную размерность кластеров.
Рассчитанная зависимость среднего числа частиц во фрактальных кластерах и количества кластеров в системе от времени имеет нелинейный характер (рис. 2, рис. 3).
Рис. 2. Зависимость среднего размера кластеров в системе от времени Структуру фрактальных кластеров оксидов алюминия, образующихся при горении в воздухе, с размерностью 1,6 [4, 5] можно описать с использованием модели, учитывающей кулоновское взаимодействие между частицами.
Рис. 3. Временная зависимость числа кластеров в системе Одновременный учет диффузии и влияния кулоновского взаимодействия приводит к уменьшению фрактальной размерности кластеров по сравнению только с учетом кулоновского взаимодействия. Учет только кулоновского взаимодействия приводит к различным временам образования кластеров в расчетах и эксперименте. Дополнительный учет диффузии приводит к более близкому согласию расчетных и экспериментальных данных по времени образования фрактальных кластеров. Учет диффузии приводит к увеличению времени формирования кластеров и требует значительных вычислительных ресурсов.
Получена зависимость времени расчета от количества вычислительных узлов.
Рис. 4. Зависимость времени расчета от количества вычислительных узлов В результате расчетов установлено, что использовании 80 вычислительных узлов позволяет сократить время вычислений в три раза.
Выводы Разработанная модель позволяет получить зависимости среднего размера кластеров в системе от времени, временная зависимость числа кластеров в системе, зависимость времени расчета от количества вычислительных узлов. Применение суперкомпьютерных систем для исследования аэрозольных систем позволяет сократить время расчетов и подобрать параметры формирования таких систем в более широком диапазоне.
Щукин, Е.Д. Коллоидная химия / Е.Д. Щукин, А.В. Перцов, Е.А. Амелина. – М.: Высш.шк., 2004. – Фролов, Ю.Г. Курс коллоидной химии. Поверхностные явления и дисперсные системы / Ю.Г. Фролов. – М.: Химия, 1989. – 464 с.
Белко, А.В. Методы построения фрактальных кластеров с учетом различных потенциалов взаимодействия / А.В. Белко // Вестник Гродн. гос. ун-та. Сер. 2, Математика. Физика. Техника.
Информатика. Биология. Химия. Экология, – 2003. – № 2. – С. 33–39.
Карасев, В.В. Заряды и фрактальные свойства наночастиц – продуктов горения агломератов алюминия / В.В. Карасев [и др.]. // Физика горения и взрыва. – 2001. – Т. 37, № 6. – С. 133–135.
5. Karasev, V.V. Charged aggregates of nanoparticles - products of aluminum and titanium combustion / V.V. Karasev [et al.] // In: Proceedings of the Fourth Int. High Energy Materials Conference. – Editor:
M. Singh, India. – 2003. – P. 1–8.
6. Onischuk, A.A. Evidence for Long-Range Coulomb Effects during Formation of Nanoparticle Aggregates from Pyrolysis and Combustion Routes / A.A. Onischuk [et al.] // J. Phys. Chem. A. – 2000. – V. 104. – P. 10426 – 10434.
Белко Александр Витальевич, старший преподаватель кафедры информационных систем и технологий Гродненского государственного университета имени Янки Купалы, канидат физикоматематических наук, [email protected].
Никитин Александр Викторович, зав. кафедрой теоретической физики Гродненского государственного университета имени Янки Купалы, канидат технических наук, [email protected].
УДК 681.
РЕПЛИКАЦИЯ ОБЪЕКТОВ В СИСТЕМАХ ОБЩЕЙ РАСПРЕДЕЛЕННОЙ
ПАМЯТИ ДЛЯ КЛАСТЕРНЫХ АРХИТЕКТУР
Рассматривается метод построения общей распределенной памяти, основанный на абстракции распределенных объектов, и способ его реализации с использованием репликации для обеспечения эффективности и надежности доступа к распределенным объектам.Введение Кластерные архитектуры на сегодняшний день являются основой для создания высокопроизводительных масштабируемых вычислительных систем параллельного действия. Такую архитектуру можно представить как пару (N, IF), где N – набор узлов, каждый из которых может содержать один или несколько процессорных элементов, IF (Interconnect Fabric) - фабрика межсоединений, обеспечивающая объединение узлов из N в некоторую сеть. Кластер – распределенная система с локальной памятью узлов, поэтому его производительность и стоимость существенно зависит от архитектуры IF, которая обычно имеет многоуровневую структуру. Кластерные системы, построенные на базе высокоскоростных сетевых технологий (IF=Fast Ethernet, Gigabit Ethernet) имеют большую латентность и меньшую производительность, чем системы, построенные на специализированных интерфейсах (IF = SCI, Myrinet, Infiniband и др.). Однако для ряда классов задач с последовательно-параллельными вычислениями с небольшой долей операций обмена данными между параллельными ветвями первые выигрывают по соотношению стоимость / производительность. И если такие системы обладают широкой степенью маштабируемости, то большую латентность можно частично компенсировать за счет легкого наращивания количества узлов, привлекаемых к решению задачи.
Эффективность использования таких архитектур существенно зависит от наличия моделей и средств проектирования распределенных приложений.
Как известно, классические методы разработки распределенных приложений базируются на модели передачи сообщений, поддерживаемой коммуникационной библиотекой MPI (Message Passing Interface) [1]. Доступ к разделяемым данным в этой модели обеспечивается посредством явных операций посылки и приема сообщений, что сильно усложняет программирование, отладку программ и применение для масштабируемых приложений, которые не должны зависеть от количества процессоров.
Альтернативной моделью для построения распределенных масштабируемых приложений для кластерных систем, в особенности построенных на базе высокоскоростных сетевых технологий, является модель общей распределенной памяти DSM (Distributed Shared Memory)[2]. DSM – виртуальное адресное пространство, разделяемое всеми узлами (процессорами) распределенной системы. DSM-модели имеют ряд преимуществ перед традиционными моделями передачи сообщений, создавая абстракцию разделяемой памяти и позволяя передавать данные в одном адресном пространстве. Разработка распределенных приложений с использованием DSM-моделей гораздо проще. Это более привлекательная программная модель, где программист может сосредоточиться на алгоритмическом направлении, а не разделении данных и коммуникации. К тому же, DSMсистемы являются масштабируемыми, могут наращиваться практически беспредельно.
2. Репликация объектов Распределенная система должна предоставлять приложениям удобный интерфейс ко всем ресурсам. С этой целью предлагается реализация DSM-памяти как образа единой системы. Данное свойство позволяет разработчику абстрагироваться от физического расположения ресурсов, с которыми взаимодействует приложение и сосредоточиться на функциональности, которую они предоставляют.
Реализация образа единой системы основана на абстракции распределенного объекта.
Каждый объект предоставляет набор четко определенных интерфейсов, которые могут вызываться другими объектами. Объекты глобально, единообразно доступны посредством своих интерфейсов из всех узлов кластерной системы.
В работе предлагается использовать репликацию для обеспечения эффективности и надежности доступа к распределенным объектам.
Эффективность функционирования всей системы снижают задержки, возникающие при распределенном взаимодействии. Поэтому в распределенных приложениях часто используются такие приемы как замена удаленного взаимодействия локальными операциями и вынесение удаленного взаимодействия за рамки критических путей выполнения программы. Замена удаленного взаимодействия локальным предполагает, что состояние объекта-сервера кэшируется в узлах, где находятся клиенты. В этом случае операции чтения могут выполняться локально над кэшированной копией объекта. Операции записи также иногда могут выполняться локально с последующей доставкой пакета изменений серверу. Метод вынесения удаленного взаимодействия за рамки критических путей направлен на то, чтобы сократить время, затрачиваемое основными вычислительными потоками на ожидание получения удаленного сообщения. Для этого используются вспомогательные потоки, спекулятивным образом получающие данные, требуемые для выполнения основных вычислений.
Обобщением указанных подходов является репликация объектов. Состояние распределенного объекта может быть полностью или частично доступно локально в каждом узле, где данный объект используется. Состояние объекта синхронизируется (реплицируется) между узлами. Каждый вызов метода объекта вначале обрабатывается его репликой, находящейся в том узле, где производится данный вызов. Взаимодействие с удаленными репликами привлекается только в тех случаях, когда этого требует протокол репликации, например, когда необходимо получить недостающую часть состояния объекта.
Таким образом, распределенное взаимодействие перемещается вовнутрь распределенного объекта. Следовательно, эффективность доступа к объекту определяется эффективностью стратегии репликации. Очевидно, что не существует стратегии репликации, одинаково эффективной для всех типов объектов. Поэтому необходимо предоставить механизмы для построения реплицированных объектов. При этом, для каждого класса объектов может использоваться алгоритм репликации, обеспечивающий максимально эффективный доступ с учетом семантики объекта. Такой алгоритм может быть выбран из набора существующих стратегий репликации, либо разработан специально для данного класса объектов.
Репликация может выступать не только как средство обеспечения эффективного доступа к объекту, но и как механизм избыточности. Например, поддерживая когерентные копии объекта в n различных узлах, возможно достичь устойчивости объекта к выходу из строя любых n-1 узлов.
Таким образом, репликация позволяет использовать избыточность распределенной системы для обеспечения устойчивого функционирования приложений.
3. Программная поддержка DSM-памяти на основе репликации В рамках данного проекта для репликации объектов между процессами использована технология XSTM (Extended Software Transactional Memory) [3]. Объекты реплицируются при помощи передачи (transaction), которая представляет собой набор изменений для некоторых полей объекта. Если передача была прервана, удаленные объекты не изменяются, а локальные объекты будут автоматически восстановлены.
Когда объект добавляется в разделяемые ресурсы, он появится на всех машинах, которые имеют эти же разделяемые ресурсы. Методика разработки распределенных приложений включает следующие этапы:
1. Создание модели передаваемых объектов (ObjectModel), которая описывает разделяемые классы, их поля и методы.
2. Создание клиент-серверной топологии кластерной архитектуры.
3. Регистрация объектной модели на сервере и клиентах.
4. Установка соединений между процессами (в предлагаемой реализации на основе сокетов).
5. Создание разделяемой области.
6. Добавление разделяемых объектов в разделяемую область.
7. Реализация вычислений.
В работе приведено исследование предлагаемой методики на примере проектирования распределенного приложения блочного перемножения матриц. Приложение разработано на языке Java.
Рис. 1. График зависимости времени выполнения от количества блоков и процессоров Рис. 2. Диаграмма зависимости времени выполнения от размерности задачи С увеличение размерности задачи существенно увеличиваются затраты на передачу данных. В работе предложена идея создания дополнительных потоков, которые будут исключительно заниматься передачей данных по сети, работая параллельно с вычислениями.
Оценивая перспективы использования концепции репликации объектов для проектирования распределенных приложений, было выполнено сравнение технологии XSTM с базовой технологией MPI. Сравнение обоих технологий для различного числа процессоров показано на рис 3.
При небольшом числе процессоров MPI работает лучше.
Однако с ростом их числа XSTM догоняет и опережает MPI. Этот эффект наблюдается при увеличении размерности задачи. Программная поддержка репликации имеет более эффективный механизм обмена информацией.
Заключение Концепция репликации объектов обладает большими возможностями. Она имеет преимущество при разработке клиент-серверных приложений и удаленном доступе. Репликации объектов позволяет сократить написание кода распределенного приложения, сосредоточиться на главном – алгоритмах. Упрощается проблема синхронизации процессов, обеспечивается масштабируемость и персистентность объектов.
Буза, М.К. Методы и средства распределенной обработки данных / М.К. Буза, Л.Ф. Зимянин. // Выбраныя навуковыя працы Беларускага дзяржаўнага ўнiверсiтэту: у 7 т. Т. 6. Матэматыка. – Мiнск:
БДУ, 2001. – С. 92-116.
Шпаковский, Г.И. Программирование для многопроцессорных систем в стандарте MPI / Г.И. Шпаковский, Н.В. Серикова. – Минск: БГУ, 2002. – 323 с.
XSTM – Object Replication for Java,.NET & GWT [Электронный ресурс] – Режим доступа:
http://www.xstm.net/.
Буза Михаил Константинович, профессор кафедры математического обеспечения ЭВМ Белорусского государственного университета, доктор технических наук, [email protected].
Зимянин Леонид Федорович, зав. кафедрой математического обеспечения ЭВМ Белорусского государственного университета, кандидат технических наук, доцент, [email protected].
УДК 004. В.А. ВОЛЧОК, А.И. БРАЖУК, А.В. ТРОФИМЧИК, А.А. АБРАМОВ
ИСПОЛЬЗОВАНИЕ РАБОЧИХ СТАНЦИЙ В КАЧЕСТВЕ
ВЫЧИСЛИТЕЛЬНОГО РЕСУРСА ГРИД-СРЕДЫ
Рассматриваются реализация вычислительного кластера на основе локальной сети, программное обеспечение промежуточного уровня Грид-сети, результаты мониторинга вычислительного кластера, элементы разработки тестовых задач для проведения компьютерного моделирования основных групп программ инженерного анализа.Введение Использование технологий Грид подразумевают построение сложных распределенных структур, основными характеристиками которых являются: высокое качество обслуживания предоставляемых компьютерных ресурсов; использование стандартных, универсальных, открытых протоколов и интерфейсов; наличие средств децентрализованной координации использования ресурсов [1, 2, 3].
В качестве целевых систем вычислительных Грид-сред традиционно выступают суперкомпьютеры и вычислительные кластеры [2, 3]. Для организации вычислительных кластерных структур также могут использоваться системы, выполняющие иные функции (рабочие станции пользователей, сервера приложений, домашние компьютеры и т.д.) [4, 5]. Несмотря на то, что время доступности последних (рабочие станции, домашние компьютеры) трудно прогнозируемо, большой суммарный вычислительный ресурс и невысокая средняя загрузка делает их использование перспективным в Грид-средах.
В рамках проекта «Разработать опытный участок регионального распределенного сегмента ГРИД-сети «СКИФ» поддержки образовательной, научной и производственно-технической деятельности для промышленных предприятий энергетики и машиностроения» (ГРОДНО-ГРИД) научно-технической программы Союзного государства «Разработка и использование программноаппаратных средств Грид-технологий и перспективных высокопроизводительных (суперкомпьютерных) вычислительных систем семейства СКИФ на 2007 – 2010 гг.» (шифр «СКИФ-ГРИД») в Гродненском государственном университете имени Янки Купалы установлена и введена в эксплуатацию кластерная вычислительная система «СКИФ К-1000М-1», а также предусмотрено создание образовательного Центра по Грид-технологиям на базе университета [6].
Гродненский государственный университет обладает обширным парком компьютерной техники и развитой сетевой инфраструктурой, в совокупности обладающих потенциально высокими вычислительными ресурсами. Возможности использования данных ресурсов исследовались в лаборатории «Системотехники» кафедры промышленной электроники физико-технического факультета в процессе создания телекоммуникационной инфраструктуры Грид-сети ГрГУ им. Я. Купалы.
Состав и структура вычислительного кластера на основе рабочих станций В лаборатории «Системотехники» кафедры промышленной электроники физикотехнического факультета ГрГУ создан Центр образовательных программ Microsoft и реализован вычислительный кластер (рис.) на базе локальной вычислительной сети с сервером и рабочими станциями. На сервере и рабочих станциях установлено лицензионное программное обеспечение, полученное в рамках программы сотрудничества с учебными заведениями Microsoft Developer Network Academic Alliance (MSDN AA).
Рис. Схема вычислительного кластера на основе рабочих станций Основным элементом кластера является головной вычислительный узел – сервер (DualCore Intel/2GB RAM/480GB HDD), работающий под управлением операционной системы Windows Server 2003 Enterprise Edition. Остальные узлы кластера представляют собой рабочие станции (DualCore Intel/2GB RAM/500GB HDD), на каждой из которых установлена операционная система Windows XP Professional.
В качестве интерфейса параллельного программирования на всех узлах кластера установлен пакет MPICH, являющийся бесплатной реализацией стандарта MPI [7]. Программы, написанные на языках C, C++, FORTRAN, компилируются обычными компиляторами и связаны с MPIбиблиотекой.
На сервере установлен дистрибутив программного обеспечения промежуточного уровня UNICORE (UNiform Interface to COmputing REsources) [8], позволяющий запустить задачу на кластере с любого IP-адреса и работающий в связке с MPICH и другими библиотеками, установленными на кластере. Для обеспечения возможности компиляции исходного кода на стороне сервера используется слой эмуляции POSIX MinGW с установленным компилятором GCC и интерпретатором команд. Диспетчер заданий в данной схеме отсутствует.
Ключевыми сервисами Грид-сайта являются [8]:
шлюз (Gateway), выполняющий функции аутентифицикации на основе сертификатов;
интерфейс целевой системы TSI (Target System Interface), обеспечивающий взаимодействие с целевой системой;
непосредственно сервер (UNICORE/X) – основной компонент;
база данных пользователей UNICORE (XUUDB).
Головной узел доступен в национальной научной Грид-сети.
Включение вычислительного кластера на основе рабочих станций в национальную Грид-сеть В соответствии с порядком [9] регистрации выполнены все необходимые процедуры и получены необходимые сертификаты рассматриваемой вычислительной структуры как Грид-сервиса («BLK») ресурсного центра «Гродно-ГРИД» Национальной Грид-сети.
Мониторинг вычислительного кластера Мониторинг вычислительного кластера на основе рабочих станций осуществляется на основе систем мониторинга Nagios и Ganglia.
Система мониторинга Nagios предназначена для тестирования и проверки работоспособности Грид-сети. Система установлена в Операционном центре Национальной Грид-сети. Данные мониторинга предоставляются через WEB-интерфейс.
Система мониторинга Ganglia, установленная на вычислительном кластере «BLK» состоит из трех основных частей: серверной части (gmetad), клиентской части (gmond) и http-интерфейса для отображения результатов мониторинга. Клиентская часть установлена на всех вычислительных узлах. Серверная часть установлена на головной вычислительный узел.
Разработка тестовых задач для проведения компьютерного моделирования в Грид-среде В настоящее время на установленном вычислительном кластере проводится работа по разработке тестовых задач для проведения компьютерного моделирования в Грид-среде, а именно применению четырех основных групп программ инженерного анализа [1]:
Программных систем проектирования, которые объединяют процессы конструирования и анализа в единый комплекс. Программы данной группы обладают мощными средствами геометрического моделирования, при их использовании не возникают трудности с созданием сложной и математически точной модели изделия. Поддерживается интеграция данных на уровне обмена данными между подсистемами конструирования и анализа – обе подсистемы оперируют с одной базой данных или имеют внутренние форматы данных. К числу программных систем проектирования относятся системы САТIА, EUCLID, UNIGRAPHICS и др.
Специализированных программ, имеющих узконаправленную специализацию и адаптированных к особенностям конкретных решаемых инженерных задач и к конкретной производственной среде.
Программ генераторов сетки, позволяющих только создавать сетки конечных элементов (автоматически разбивать детали, с возможностью задания качества разбиения и просмотра результатов). Более сложные пакеты, по своим характеристикам, приближающимся к универсальным программам инженерного анализа, включают наборы средств по восстановлению геометрических моделей, доводке твердотельной геометрии до приемлемого для разбиения состояния, непосредственного разбиения на конечные элементы, а так же средства проведения модификации сетки.
Универсальных программ анализа машиностроительных изделий, в которых исследование осуществляется на основании разработанных в CAD-системах трехмерных конструкторских решений или на базе моделей построенных в самих системах. Мировыми лидерами в области разработки, поставки и сопровождения этих программ являются ANSYS inc. (США), SAMTECH (Бельгия), MacNeal Schwendler Corporation MSC.NASTRAN (США). Кроме того, к числу программ данной группы относятся: SAMCEF, ABAQUS, I-DEAS, ADAMS, ProCAST, COSMOS/M.
Заключение Организация высокопроизводительных вычислений как дополнительных функций корпоративных компьютерных систем сопряжено с определенными трудностями (время доступности, диспетчеризация заданий). В тоже время для решения ряда задач использование вычислительного кластера на основе рабочих станций может быть вполне успешным, причем, на многих классах задач и при достаточном числе узлов кластеры, построенные на базе локальной сети, дают производительность, сравнимую с суперкомпьютерной.
В частности, представленная реализация вычислительной распределенной структуры (вычислительного кластера) на основе рабочих станций, локальной сети и типового программного обеспечения промежуточного уровня как сервиса Грид-сети может решать как некоторые вычислительные задачи, так и использоваться для изучения и обучения основам технологий Грид.
Методика решения инженерных задач в ГРИД-сегменте. / А.А. Абрамов [и др.] // Доклады международной конференции SSA-2008 «Суперкомпьютерные системы и их применение». – Минск, 27–29 октября 2008 г.
Фостер, Я. Анатомия Грид / Я. Фостер, К. Кессельман, С. Тьюке; пер. с англ.Д.А. Корягин – ИПМ РАН, 3. Heba Kurdi. A Classification of Emerging and Traditional Grid Systems. / Heba Kurdi, Maozhen Li, Hamed Al-Raweshidy // Brunel University, 2005. – P. 18.
4. Grid software: its structure and development problems. / V.N. Kovalenko, E.I. Kovalenko, D.A. Koryagin, E.Z. Ljubimskii, A.V. Orlov, E.V. Huhlaev // Preprint, Keldysh Inst. Appl. Mathem., Russian Academy of Science, 2002.
Березовский, П.С. Способ построения ГРИД из некластеризованных ресурсов / П.С. Березовский, В.Н. Коваленко. Институт прикладной математики им. М.В. Келдыша РАН, 2006.
Отчет о НИР научно-технической программы Союзного государства «Разработка и использование программно-аппаратных средств GRID-технологий и перспективных высокопроизводительных (суперкомпьютерных) вычислительных систем семейства СКИФ на 2007 – 2010 гг.» (шифр «СКИФGRID»). Задание : «Разработать опытный участок регионального распределенного сегмента GRID-сети «СКИФ» поддержки образовательной, научной и производственно-технической деятельности для промышленных предприятий энергетики и машиностроения» (ГРОДНО-GRID). № темы 4СГ/07-ГрГУ от 01.08.2008 г. – Гродно, 2009. – С. 188.
MPICH2 Users Guide Mathematics and Computer Science Division Argonne National Laboratory.
November 18, UNICORE Forum e.V. [Электронный ресурс]. – 2010. – Режим доступа: http://unicore.eu/forum/. – Дата доступа: 10.12.2009.
Положение о работе операционного центра национальной ГРИД-сети. Версия 1.0. ОИПИ НАН Беларуси. – Минск, 2009.
Волчок Валерий Александрович, кандидат технических наук, доцент кафедры промышленной электроники Гродненского государственного университета имени Янки Купалы, [email protected].
Бражук Андрей Иосифович, ведущий инженер-программист отдела технической поддержки и телекоммуникаций Гродненского государственного университета имени Янки Купалы, магистр естественных наук, [email protected].
Трофимчик Андрей Валерьевич, студент физико-технического факультета Гродненского государственного университета имени Янки Купалы, [email protected].
Абрамов Андрей Андреевич, младший научный сотрудник ОИПИ НАН Беларуси (Объединенный институт проблем информатики Национальной академии наук Беларуси).
УДК 681. А.И. ЖУКЕВИЧ, А.В. НИКИТИН, Ю.Г. ТАРАСЕВИЧ, Н.Н. БАБАРИКА
ИНТЕРФЕЙСЫ МЕЖДУ ПРОМЫШЛЕННЫМИ ХРАНИЛИЩАМИ ДАННЫХ
И КЛАСТЕРНЫМИ СИСТЕМАМИ
Рассматриваются способы подключения хранилищ программного пакета iHistorian к распределенным вычислительным процессам, решающим задачи управления в режиме реального В задачах АСУТП и, в частности, управления теплоэнергетическим оборудованием, сбор и хранение текущей информации осуществляется программным обеспечением (ПО) типа «летописец» (англ. historian), т.е., к такому ПО, которое в масштабах предприятия собирает и хранит данные по совокупности параметров с привязкой ко времени. Одним из программных пакетов такого типа является iHistorian (Intellution iHistorian, также – GE Fanuc Historian и Proficy Historian).Сбор данных в ПО такого типа производится постоянно, хранение обычно долговременное, а совокупность параметров характеризуется всеохватностью – от параметров физической среды до реального графика работы оборудования. Дополнительно такое ПО подразделяется на два подтипа – «цеховой летописец» (plant floor historian, process historian), область применения которого обычно ограничивается цехом или корпусом, а сбор данных ведется по ограниченному числу относительно «простых» параметров (как, например, температура, давление и потоки в агрегатах);
и «летописец предприятия» (plant-wide historian), область применения которого распространяется на предприятие в целом, а совокупность параметров значительно шире, чем в случае отдельного цеха или корпуса; данный подтип менее тесно, чем предыдущий, связан с физическими параметрами и теснее, чем предыдущий, интегрируется с системами бизнес-анализа и подобными им [1].
Для iHistorian версии 3.0, по состоянию на 2004 год, заявлялась способность работать с числом источников данных до 250 тыс. на одну его установку, и пропускать в установку и из нее до 20 тыс. «событий» в секунду. Также iHistorian поддерживает распределенное хранение данных.
Применяя архитектуру распределенного хранения данных (добавляя сервера), можно создавать хранилища с неограниченным количеством архивируемых переменных. Благодаря своей нереляционной природе сервер iHistorian единовременно выполняет десятки тысяч операций записи/чтения, причем с субсекундным временным интервалом.
Сбор данных в iHistorian осуществляется с помощью коллекторов – специальных программных модулей, работающих, как правило, на одном персональном компьютере с источником данных. Коллекторы поддерживают технологию Store-and-Forward, что позволяет в случае потери связи с сервером хранить данные локально, чтобы потом передать их на сервер, а так же функцию автоматического восстановления связи.
Функциональные возможности коллекторов и возможность создания резервных копий серверного архива обеспечивают надежный механизм доставки и хранения данных.
Настройка коллекторов происходит удаленно средствами Администратора iHistorian. Коллекторы поддерживают автоматическое представление источника данных, что позволяет быстро настроить работу коллекторов, сформировав базу переменных путем выбора их из списков соответствующих коллекторов [2].
Коллекторы делятся на две основные группы:
Plant Data Collectors – обеспечивают сбор производственных данных с различных источников (ПЛК, SCADA, ручной ввод и т.д.);
Transformation Collectors – реализуют вычислительные задачи и задачи обмена данными между серверами.
К первой группе относятся коллекторы для FIX32 и iFIX – собирают данные с одного или нескольких SCADA-узлов; Cimplicity и OPC-коллектор – производят сбор данных с серверов, удовлетворяющих спецификациям OPC 1.0 или 2.0, в этом случае OPC-драйвер выступает самостоятельным источником данных; файловый коллектор загружает данные из файлов в формате CSV или XML, что обеспечивает сбор данных с устаревших систем, данных ручного ввода, лабораторных данных и т.п. Для отладки и тестирования можно использовать встроенный коллекторсимулятор.
Во вторую группу входят Вычислительный и Сервер-Сервер коллекторы. Задача этих модулей – преобразование уже собранных в архиве данных. Коллектор Вычислений производит необходимые преобразования данных и сохраняет результаты на сервере iHistorian в новой переменной с той же временной меткой. Встроенный язык Visual Basic Script позволяет организовывать сложные вычисления с подключением внешних источников и возможностью выполнения операций записи во внешние БД.
Коллектор Cервер-Сервер обладает всеми возможностями коллектора вычислений, однако может взаимодействовать с несколькими серверами, а также осуществлять копирование данных с одного сервера iHistorian на другой. Этот коллектор позволяет применять iHistorian для построения корпоративных систем, охватывающих несколько удаленных друг от друга предприятий.
Сервер iHistorian работает под управлением операционной системы семейства Windows.
Для организации работы с данными сервера существует OLEDB-провайдер, который позволяет с помощью SQL-запросов представлять результат в табличном виде. Поддерживаемые типы данных сервера: строки фиксированной и переменной длины, целочисленный тип – Integer, вещественный тип – Float и BLOB (большие бинарные объекты – файлы, рисунки). Таким образом, специализированная iHistorian выглядит из внешних приложений как реляционная БД. Вторым стандартным интерфейсом к базам данных пакета является его SDK (Software Development Kit), дающий возможность взаимодействия с любыми приложениями, неспособными работать с OLE DB.
Поскольку типовой моделью обращения к хранилищу Historian является поиск (выборка) по «тэгам» (меткам, рубрикам), то при построении схемы обмена информацией между счетной задачей и базой данных (БД) должны, в принципе, решаться следующие подзадачи: получение выборки данных из БД (периодично); проверка действительности данной выборки (полнота и соответствие моменту времени); преобразование выборки в набор параметров согласно техническому заданию и требованиям счетной задачи; передача набора данных в счетную задачу.
Сама по себе БД iHistorian может предоставлять данные для ПО исполняемого на рзличных платформах. Для решения задач, требующих больших временных затрат в режиме реального времени (например, расчет оптимальных режимов работы теплоэнергетического оборудования для принятия решения техническим персоналом) требуются мощные вычислительные системы, например кластеры.
Как известно из данных мирового рейтинга Топ-500, современные мощные кластеры преимущественно работают под управлением ОС UNIX (Linux). Соответственно, некоторые возможные решения по выборке и преобразованию данных включают:
1. Приложение, использующее возможности OLE DB или SDK, и исполняемое вне рамок аппаратно-программного комплекса счетной задачи, т.е., на отдельной машине под управлением ОС Windows. Возможные способы передачи данных в счетную задачу активный (например, с использованием интерфейса SSH) и пассивный (например, публикация через HTTPS сервер). Основное преимущество решения: относительная простота воплощения. Недостатки: необходимость в дополнительной аппаратуре (или аппаратных ресурсах); возможно усложнение управления и сопровождения комплекса в целом.
2. Приложение, использующее возможности OLE DB или SDK, и исполняемое в составе одного аппаратно-программного комплекса со счетной задачей – в эмуляторе ОС Windows под управлением ОС UNIX. Возможные способы передачи данных в счетную задачу – активный (например, через интерфейс UCSPI-TCP или UCSPI-IPC) и пассивный (например, публикация во временные файлы). Основное преимущество решения: исключение эмулятора. Недостаток: не определена надежность исполнения закрытого кода SDK в среде WINE. Как вариант, возможна сборка указанного приложения с библиотеками среды исполнения WINE и работа задачи непосредственно в ОС UNIX. Основное преимущество решения: исключение эмулятора. Недостаток:
не определена надежность исполнения закрытого кода SDK в среде WINE.
3. Приложение, использующее возможности пакетов, исполняемых в составе одного аппаратно-программного комплекса со счетной задачей, т.е., непосредственно на той же машине и на той же ОС UNIX, что и счетная задача. В числе таких пакетов библиотека ADODB Library for PHP и ее вариант ADOdb for Python1. Возможные способы передачи данных в счетную задачу – активный (например, через интерфейсы UCSPI-TCP или UCSPI-IPC) и пассивный (например, публикация во временные файлы), т.е., те же, что и в предыдущем варианте. Основное преимущество решения: устранение промежуточных слоев исполнения и преобразования. Недостаток: может применяться только на платформе Windows (т.е., может требоваться эмулятор ОС Windows); возможны недоработки в ПО свободной разработки.
Intellution iHistorian: The Value of Transforming Manufacturing Data into Plant Intelligence [Электронный http://gexproautomation.com/documents/Proficy/historian/proficyhistorian_whitepaper.pdf. – Дата доступа:
15.03.2010.
Proficy™ Historian. Best-in-class, plant-wide data historian [Эл. ресурс]. GE Fanuc International, Inc., 2004. – http://www.gefanuc.com. – Дата доступа: 15.03.2010.
Жукевич Александр Иванович, начальник отдела программного обеспечения «Гродненского государственного университета имени Янки Купалы.
Никитин Александр Викторович, зав. кафедрой теоретической физики Гродненского государственного университета имени Янки Купалы, кандидат технических наук, доцент.
Тарасевич Юрий Георгиевич, старший научный сотрудник темы 4СГ/07-ГрГУ Гродненского государственного университета имени Янки Купалы, [email protected].
Бабарика Николай Николаевич, старший научный сотрудник темы 4СГ/07-ГрГУ Гродненского государственного университета имени Янки Купалы.
УДК 538.
ПАРАЛЛЕЛЬНАЯ РЕАЛИЗАЦИЯ АЛГОРИТМА МОЛЕКУЛЯРНОЙ ДИНАМИКИ
ПРИ МОДЕЛИРОВАНИИ В ФИЗИКЕ ТВЕРДОГО ТЕЛА
Рассматривается разработка и реализация параллельной версии алгоритма молекулярной динамики, а также его применение для решения задач по моделированию в физике твердого тела. Выполнена модификация и дополнение известного пакета молекулярной динамики XMD.Получена оценка ускорения при использовании многоядерных процессоров.
Введение Ключ для выяснения природы многих макроскопических и глобальных природных явлений лежит в знании закономерностей процессов, происходящих на атомно-молекулярном уровне.
Развитие методов молекулярного моделирования достигло уровня, при котором они способны обеспечить реальный взгляд на процессы и механизмы, протекающие в физических, химических и биологических системах.
В данной работе рассматривается алгоритм классической молекулярной динамики (МД):
для описания межатомных взаимодействий используется эмпирический потенциал, а динамика ансамбля атомов описывается системой уравнений движения Ньютона. Шаг для устойчивого интегрирования данной системы уравнений должен быть порядка времени одного атомного колебаJohn Lim. ADODB Library for PHP и ADOdb for Python. – http://adodb.sf.net. Оба пакета выпускаются под лицензией BSD, т.е., явно разрешено их использование в закрытых продуктах.
См. также: Ian Gilfillan. An introduction to the ADOdb class library for PHP [17.6.2003] // Database Journal. – http://databasejournal.com/features/php/article.php/2222651.
ния (10-15-10-14 с), а обычно используемое число уравнений в системе – 103-106, поэтому алгоритм МД по праву относится к классу «больших» задач.
Цель данной работы состояла в разработке и реализации параллельной версии алгоритма МД и его применения для решения ряда задач по моделированию в физике твердого тела: описание радиационных каскадов столкновений в кристаллах полупроводников, а также вызванных облучением процессов (распыление, формирование и эволюция дефектов, аморфизация). Решение широкого спектра задач предполагает использование хорошо масштабируемого пакета программ, позволяющего полностью задействовать имеющиеся в распоряжении исследователя вычислительные ресурсы.
Выбор пакета МД При выборе пакета программ МД для решения требуемых задач сначала были отобраны те пакеты, которые являются доступными, хорошо себя зарекомендовавшими и документированными.
В результате остались кандидатуры: XMD, LAMMPS, DL_POLY, IMD. Пакет XMD [1] оказался наиболее удобным для модификации входящих в него межатомных потенциалов. XMD также содержит наибольшее количество примеров входных файлов для различных ситуаций моделирования.
Имеющаяся параллельная версия пакета XMD основана на использовании библиотеки потоков POSIX THREADS и работает на компьютерах с общей памятью, что весьма актуально для современных многоядерных процессоров. Правда, в XMD многопоточный вариант поддерживается только для вычисления EAM-потенциалов (предназначенных для металлов). Для решения требуемых задач наибольший интерес представляли полупроводниковые ковалентные материалы (кремний, германий, их сплавы в различных фазовых состояниях). Для них в пакете XMD имеются межатомные потенциалы: потенциал EDIP – хорошо описывает фазовые переходы; потенциал Tersoff – удобен для описания каскадов и распыления, а также многокомпонентных систем; потенциал SW – подходит для моделирования дефектов в кремнии. Однако все эти потенциалы доступны только в последовательной версии кода. Поэтому необходимыми оказались модификация и дополнение пакета XMD.
Распараллеливание алгоритма МД Алгоритму МД присущ внутренний параллелизм, который состоит в том, что вычисление сил, координат и скоростей можно выполнять одновременно для всех атомов в пределах одного временного шага. Поэтому естественное желание – использовать этот внутренний параллелизм, распределяя вычисления между различными обрабатывающими устройствами.
Выделяют два основных подхода [2, 3] к решению задачи по разработке параллельной версии МД. В первом подходе весь набор частиц разбивается на подмножества по числу процессоров и каждому процессору ставится в соответствие определенное подмножество, вне зависимости от взаимного пространственного положения частиц. Данная зависимость остается неизменной в ходе всего моделирования. Этот подход включает различные варианты: декомпозиция по частицам, силовая декомпозиция, метод параллельных реплик и др.
Во втором подходе, который называют методом пространственной декомпозиции, каждый процессор связывается с определенной подобластью всей расчетной области. Для частиц, находящихся в этой подобласти, он ведет расчет сил и интегрирование уравнений движения. С одной стороны, частицы могут в процессе моделирования переходить из одной области в другую, за которую отвечает другой процессор. С другой стороны, для расчета сил внутри подобласти необходимы координаты частиц из соседних областей. Этим обусловлен обмен данными между процессорами на каждом временном шаге.
При выполнении модификации пакета XMD был реализован наиболее простой подход к распараллеливанию алгоритма МД с использованием особенностей межатомных потенциалов Tersoff, SW, EDIP [4]. На каждом временном шаге алгоритма МД весь массив частиц делился на равные части по числу процессоров (ядер) и вычисление поля сил проводилось независимо на каждом вычислительном узле.
Полученные результаты В результате разработано и исследовано многопоточное приложение, которое представляет собой модификацию известного пакета молекулярной динамики XMD в двух направлениях: параллельная версия для ковалентных материалов; корректный учет столкновений на малых расстояниях и учет электронного торможения.
Профилирование последовательного варианта программы показало, что та часть кода, которая может быть распараллелена, использует 90% времени вычислений.
Оценка расходуемых вычислительных ресурсов выполнялась на компьютере с 4-ядерным процессором Intel Core 2 Quad Q9400 под управлением операционной системы Windows XP. Ускорение S(k), получаемое при использовании параллельной версии для k потоков, определим в соответствии с формулой:
где T(k) – время выполнения расчета МД для k потоков. Проведенные расчеты с использованием пакета XMD и потенциала Tersoff приведены в таблице.
Таблица – Ускорение времени выполнения тестового расчета МД при использовании многоядерного процессора XMD – Molecular Dymamics for Metals and Ceramics [Electronic resource]. – Mode of access:
http://xmd.sourceforge.net/. – Date of access: 1.03.2010.
2. Plimpton, S. Fast Parallel Algorithms for Short-Range Molecular Dynamics / S. Plimpton // J. of Computational Physics. – 1995. – Vol. 117, № 1. – P. 1-19.
3. Smith, W. Molecular dynamics on hypercube parallel computer / W. Smith // Computer Physics Comminications. – 1991. – V. 62. – P. 229-248.
4. Highly optimized empirical potential model of silicon / T. J. Lenosky [et al.] // Modelling Simul. Mater. Sci.
Eng. – 2000. – P. 825–841.
Кондратьева Ольга Михайловна, ассистент кафедры МО ЭВМ факультета прикладной математики и информатики Белорусского государственного университета, ассистент, [email protected].
УДК 004.
ДИСТРИБУТИВ ПРОГРАММНОГО ОБЕСПЕЧЕНИЯ UNICORE
ДЛЯ РАЗВЕРТЫВАНИЯ НАЦИОНАЛЬНОЙ ГРИД-СЕТИ
Приводятся сведения о предпосылках создания, составе, особенностях и этапах разработки дистрибутива программного обеспечения промежуточного уровня UNICORE, используемого для развертывания национальной Грид-сети Беларуси в рамках программы союзного государства «СКИФ-ГРИД».Введение В 2007 году стартовала Программа Союзного государства «СКИФ-ГРИД», среди целей которой значится организация распределенной суперкомпьютерной Грид-сети – согласованной, открытой и стандартизованной компьютерной среды, которая обеспечивает гибкое, безопасное, скоординированное разделение вычислительных ресурсов и ресурсов хранения информации, которые являются частью этой среды. К моменту начала выполнения Программы Россия и Беларусь уже обладали определенными суперкомпьютерными ресурсами, поэтому задача заключалась в подготовке необходимых аппаратных и программных технологий для объединения их в Грид-сеть. Если первая задача решалась организацией высокоскоростной связи между узлами сети по традиционным существующим стандартам, то решение задачи по подготовке программных технологий было не так однозначно.
Первым этапом подготовки дистрибутива программного обеспечения стало тестирование [1] всех существующих программных продуктов для организации Грид-сетей, включая gLite, Globus Toolkit, MPICH-G2, X-COM, UNICORE и ARC. Среди требований значились бесплатность, доступность исходных кодов, открытая лицензия, кроссплатформенность и т.д. В результате для развертывания национальной Грид-сети был выбран продукт UNICORE, разрабатываемый в Суперкомпьютерном центре Йюлиха, Германия.
Компоненты дистрибутива UNICORE представляет собой набор Веб-сервисов и технологий для организации Гридсети, а также несколько клиентских приложений. Среди его основных особенностей следует выделить следующие [2]:
написан на языке Java, что гарантирует его выполнение в любой операционной системе, для которой существует интерпретатор этого языка (Windows, Linux, Mac OS и т.д.);
распространяется бесплатно, исходные тексты доступны под свободной лицензией GPL, что позволяет их свободное копирование и модификацию;
для обеспечения безопасности каждый элемент системы, будь то сервер или клиент, имеет собственный сертификат X.509.
В состав UNICORE входит значительное количество сервисов и технологий, однако для организации национальной Грид-сети были отобраны только самые необходимые, обеспечивающие базовую функциональность:
UNICORE/X – головной сервис. Обеспечивает обработку запросов клиентов, а также взаимодействует с остальными сервисами системы;
Gateway – сетевой шлюз, «точка входа» пользователя в систему. Единственный сервис, который должен быть доступен через внешнюю сеть. При попытке установить HTTPS-соединение происходит проверка сертификата пользователя. В случае несоответствия соединение сбрасывается, позволяя избежать ненужной нагрузки на остальные сервисы Грид-сайта;
XUUDB – пользовательская база данных. Хранит в себе открытые ключи пользователей, их роль в Грид-среде и соответствующую им учетную запись в операционной системе (xlogin), с правами которой будут выполняться все программы, запускаемые пользователем;
TSI – интерфейс к целевой системе. Связующие звено между головным сервисом UNICORE/X и диспетчером пакетной обработки заданий (например, PBS), установленном на вычислительной установке. Написан на языке Perl с использованием стандартных средств POSIXсовместимых операционных систем, поэтому не может без модификаций быть запущен на ОС z;
UCC – базовый клиент, представляет собой приложение для работы в командной строке.
В качестве входных данных использует текстовые файлы описания задания в формате JSON;
RichClient – позволяет осуществлять подготовку задания и устанавливать параметры запуска через графический интерфейс.
Также в состав дистрибутива входят стандартные инструментальные средства для кластеров, такие как библиотека MPI и система пакетной обработки Torque. Таким образом, компонентов дистрибутива достаточно для организации как Грид-сайта, так и кластера.
Подготовка дистрибутива Среди всего разнообразия возможных операционных систем (в большей степени это относится к ОС на основе Linux) в качестве целевых для установки дистрибутива были выбраны ОС, наиболее часто встречающиеся на суперкомпьютерах:
Fedora 8 (64 бит) – операционная система, установленная на суперкомпьютере СКИФ КScientific Linux 4 (32 бит) – единственная операционная система, поддерживаемая программным обеспечением gLite, которое используется во многих европейских Грид-проектах;
Debian Linux 4 (64 бит) – один из старейших и стабильных дистрибутивов Linux;
Microsoft Windows XP (32 бит) – операционная система для небольших Windowsкластеров, также используется большинством клиентов Грид-сети.
Дистрибутив включает в себя как набор сервисов, так и клиентские приложения для всех перечисленных систем.
Помимо этого, для лучшего соответствия особенностям национальной Грид-сети в программное обеспечение UNICORE были внесены следующие изменения:
использование Torque по умолчанию. Поскольку рекомендуемой системой пакетной обработки для национальной Грид-сети является Torque, программное обеспечение UNICORE предварительно настроено на ее использование;
возможность запуска без дополнительной настройки в целях ознакомления с сервисами и клиентами;
оптимизация корректности старта сервисов, стартовые сервисы для Linux (данные наработки были отправлены разработчикам UNICORE и выключены в актуальные версии продукта).
В случае с Linux задача заключалась в подготовке пакетов (RPM и DEB) для автоматической инсталляции. В зависимостях пакетов указывались необходимые для работы сервисов и клиентов компоненты системы (Java, Perl и т.д), что гарантировало правильную и корректную установку дистрибутива.
Для операционной системы Windows процесс подготовки дистрибутива был несколько сложнее. Причина в том, что UNICORE, несмотря на кроссплатформенность, изначально ориентирован на Linux-системы. Об этом говорит невозможность запуска компонента TSI под Windows, который является одним их главных компонентов UNICORE и обеспечивает выполнение заданий на суперкомпьютере. Второй проблемой являлось то, что, в отличие от Linux, компилятор не является традиционным компонентом ОС Windows, а сборка программ на целевой системе перед выполнением - очень распространенный шаг, поскольку позволяет корректно скомпилировать программу с использованием установленных на кластере библиотек. Поэтому, помимо вышеупомянутых особенностей дистрибутива, в инсталлятор для Windows были внесены следующие изменения:
добавлены MSYS и MinGW – компоненты, обеспечивающие POSIX-окружение и включащие в себя компилятор GCC – один из лучших на данный момент, он же стандартный компилятор в Linux-системах;
включена реализация MPI – MPICH для Windows. Также в инсталлятор включены базовые средства автоматической настройки MPICH, позволяющие запускать MPI-программы сразу после установки дистрибутива;
из-за отсутствия системы пакетной обработки Torque под Windows было обеспечено прямое взаимодействие UNICORE/X с MPICH;
в инсталлятор включен интерпретатор языка Java;
в процесс инсталляции включен диалог настройки сервисов UNICORE (сетевые адреса, порты и т.д);
разработана на языке PHP и включена в дистрибутив утилита для перенастройки компонентов после установки. Аналогичная утилита является стандартным средством настройки UNICORE для Linux, разработчики не предоставили такой инструмент для системы Windows;
стартовые скрипты для сервисов и клиентов переписаны с использованием относительных путей и поддержки каталогов с символом «пробел» в названии.
В качестве инсталлятора для Windows был выбран NSIS, на данный момент он широко используется многими компаниями для установки своих программных продуктов.
Стоит также отметить, что дистрибутив снабжен подробной документацией по установке, настройке и использованию на всех целевых системах с учетом их особенностей.
Развитие дистрибутива На момент написания статьи актуальной версией дистрибутива является 1.1. Она была дополнена широко используемыми в европейских Грид-проектах средствами мониторинга и тестирования Грид-сети, такими как Ganglia и Nagios. Однако на этом разработка дистрибутива не завершена. В 2010 году выйдет новая версия, цель которой – обеспечить абсолютно одинаковое окружение для выполнения заданий как в Windows, так и в Linux системах. С этой целью в Объединенном институте проблем информатики ведутся работы по портированию традиционных для Linux-систем компонентов TSI и Torque на платформу Windows. Также в состав дистрибутива войдет агент системы анализа, статистики и учета ресурсов и брокер ресурсов, разработанные в ОИПИ в 2009 году.
Таким образом, дистрибутив UNICORE станет законченным программным продуктом, позволяющим быстро разворачивать на неподготовленных вычислительных ресурсах все необходимые для организации кластера и Грид-сайта компоненты, тщательно протестированные и настроенные для совместной работы.
Чиж, О.П. Выбор программного обеспечения промежуточного уровня для построения национального грид-сегмента / О.П. Чиж, А.Л. Лавриненко, М.Е. Кулешова // Вторая Международная научная конференция «Суперкомпьютерные системы и их применение» (SSA2008) : доклады конференции (27-29 октября 20008 года, Минск). / ОИПИ НАН Беларуси; редкол.: В.В. Анищенко [и др.]. – Минск, 2008. – C. 209-218.
Развертывание программного обеспечения промежуточного уровня Unicore на различных платформах / А.Г. Лукошко [и др.] // Вторая Международная научная конференция «Суперкомпьютерные системы и их применение» (SSA2008) : доклады конференции (27-29 октября 20008 года, Минск). / ОИПИ НАН Беларуси; редкол.: В.В. Анищенко [и др.]. – Минск, 2008. – C. 203-208.
Лукошко Андрей Геннадьевич, младший научный сотрудник Объединенного института проблем информатики НАН Беларуси, [email protected].
Сокол Андрей Иванович, техник-программист Объединенного института проблем информатики НАН Беларуси, [email protected].
Чашинский Александр Сергеевич, младший научный сотрудник Объединенного института проблем информатики НАН Беларуси, [email protected].
УДК 681.
ОПТИМИЗАЦИЯ РАСХОДА ЖИДКОГО ТОПЛИВА
В СИСТЕМЕ ИЗ НЕСКОЛЬКИХ ЭНЕРГОБЛОКОВ
НА ОСНОВЕ РАСПРЕДЕЛЕННЫХ ВЫЧИСЛЕНИЙ
Рассмотрена задача оптимизации расхода жидкого топлива в системе из нескольких энергоблоков. Оптимальное решение этой задачи определялось с помощью комбинации симплексметода линейного программирования, метода множителей Лагранжа и метода градиентного спуска. Алгоритмы вычисления реализованы с применением параллельных вычислений на суперкомпьютере «СКИФ-К1000».Введение Комплексные методы определения эффективности работы теплоэнергетического оборудования базируются на большом числе входных параметров с применением различных математических алгоритмов их обработки. В некоторых задачах необходимо практически в режиме реального времени выполнять трудоемкие по ресурсам и времени расчеты. В связи с этим целесообразно применять кластерные системы для распределения вычислений, которые позволят значительно сократить время обработки данных и сделать его соизмеримым со временем принятия решений. В данной работе решается задача оптимизации расхода жидкого топлива на теплоэнергетических установках с использованием параллельных вычислений.
Постановка задачи Пусть имеется система n энергоблоков, каждый из которых может потреблять как жидкое, так и газообразное топливо, а также любую их комбинацию. При вырабатываемой k -м энергоблоком мощности xk МВт расход одного только жидкого или одного только газообразного топлива составляет соответственно условных единиц в час ( k 1, 2,..., n ). Коэффициенты a k, j и bk, j, k 1, n ; j 1, m ; многочленов (1) определяются по опытным данным с помощью метода наименьших квадратов или интерполяции [1; 2]. При работе на комбинированном топливе расход каждой составляющей пропорционален ее условной доли, поэтому общий расход комбинированного топлива k -м энергоблоком будет равен k Lk ( xk ) 1 k Gk ( xk ) у.е. / ч, где k – долевой коэффициент жидкого топлива, (1 k ) – долевой коэффициент газообразного топлива ( 0 k 1, k 1, n ).
Пусть требуемая суммарная мощность всей системы равна при этом k -й энергоблок в отдельности должен развивать мощность x k МВт, заключенную в пределах:
энергоблока исходя из технических требований. Кроме этого, имеется ограничение на поставку газообразного топлива, максимальное значение которой равно G (max) у.е. / ч; поэтому, и мощностей xk ( k 1, n ), таких, чтобы при выполнении условий (2)-(4) суммарный расход жидкого топлива был как можно меньшим:
Алгоритм решения Предположим, что нам заданы мощности энергоблоков x k ( k 1, n ), удовлетворяющие условиям (2) и (3). Тогда, вычислив по формулам (1) расход жидкого lk Lk ( xk ) ( k 1, n ) и газообразного g k Gk ( xk ) ( k 1, n ) топлива, подставим их в целевую функцию (5) и условие (4), получим задачу линейного программирования [3; 4]:
Приведем эту задачу к канонической форме:
где G (rest ) – величина, характеризующая остаток газообразного топлива; k ( k 1, n ) – вспомогательные переменные. Согласно симплекс-методу целевая функция (6) достигает минимума на одном из своих опорных планов, соответствующем некоторому разделению множества индексов базисную I B и небазисную I NB части [4]. Наименьшее значение функции (6) будет равно Разделение множества индексов на части I B и I NB, выбор индекса i0 I B, а, следовательно, и сам минимум (7) целевой функции (6) зависит от конкретных значений коэффициентов l k ( k 1, n ) и g k ( k 1, n ), которые однозначно определяются мощностями xk ( k 1, n ) энергоблоков.
Для определения оптимальных мощностей xk ( k 1, n ) составим функцию Лагранжа [1]:
и вычислим ее частные производные по аргументам k ( k 1, n ) и :
Приравнивая эти производные к нулю, получаем систему уравнений для определения стационарных точек функции (8):
Решения системы (9), удовлетворяющие условиям (3), можно найти одним из численных методов, например, определив нули функции с помощью метода градиентного спуска [1]. Для этого сначала n-мерный прямоугольный параллелепипед, заданный неравенствами (3), разбивался на множество равных частей, также являющихся прямоугольными параллелепипедами. Метод применялся только в тех параллелепипедах, которые имеют непустое пересечение с гиперплоскостью, заданной уравнением (2) в n-мерном арифметическом пространстве. В качестве начальной точки X 0 x1, x2,..., xn выбирался центр параллелепипеда. Итерационный переход осуществлялся по формуле где t k – наименьший положительный корень уравнения до тех пор, пока X k, где – заданная точность, или до выхода за пределы рассматриваемого параллелепипеда.
Заметим, что найденные координаты x1, x2,..., xn стационарных точек функции (8) не зависят от переменных 1, 2,..., n, и. Для каждого решения системы (9) будут выполняться 0, i 1, n. Поэтому, формулу (7) для минимума целевой функции (6) можно заравенства писать в виде:
При этом в качестве индекса i0 можно выбрать любой из I B.
Кроме внутренней части параллелепипеда, заданного неравенствами (3), функцию Лагранжа (8) аналогично нужно исследовать на границе этого параллелепипеда, придавая поочередно одной из переменных x1, x2,..., xn, а также всевозможным совокупностям этих переменных, их предельные значения xk, xk ляем задачу линейного программирования (6) и решаем ее симплекс-методом. Из полученных решений (11) выбираем оптимальное.