авторефераты диссертаций БЕСПЛАТНАЯ БИБЛИОТЕКА РОССИИ

КОНФЕРЕНЦИИ, КНИГИ, ПОСОБИЯ, НАУЧНЫЕ ИЗДАНИЯ

<< ГЛАВНАЯ
АГРОИНЖЕНЕРИЯ
АСТРОНОМИЯ
БЕЗОПАСНОСТЬ
БИОЛОГИЯ
ЗЕМЛЯ
ИНФОРМАТИКА
ИСКУССТВОВЕДЕНИЕ
ИСТОРИЯ
КУЛЬТУРОЛОГИЯ
МАШИНОСТРОЕНИЕ
МЕДИЦИНА
МЕТАЛЛУРГИЯ
МЕХАНИКА
ПЕДАГОГИКА
ПОЛИТИКА
ПРИБОРОСТРОЕНИЕ
ПРОДОВОЛЬСТВИЕ
ПСИХОЛОГИЯ
РАДИОТЕХНИКА
СЕЛЬСКОЕ ХОЗЯЙСТВО
СОЦИОЛОГИЯ
СТРОИТЕЛЬСТВО
ТЕХНИЧЕСКИЕ НАУКИ
ТРАНСПОРТ
ФАРМАЦЕВТИКА
ФИЗИКА
ФИЗИОЛОГИЯ
ФИЛОЛОГИЯ
ФИЛОСОФИЯ
ХИМИЯ
ЭКОНОМИКА
ЭЛЕКТРОТЕХНИКА
ЭНЕРГЕТИКА
ЮРИСПРУДЕНЦИЯ
ЯЗЫКОЗНАНИЕ
РАЗНОЕ
КОНТАКТЫ


Pages:   || 2 | 3 | 4 | 5 |   ...   | 10 |
-- [ Страница 1 ] --

Федеральное агентство по образованию

Нижегородский государственный университет

им. Н.И. Лобачевского

ВЫСОКОПРОИЗВОДИТЕЛЬНЫЕ

ПАРАЛЛЕЛЬНЫЕ ВЫЧИСЛЕНИЯ

НА КЛАСТЕРНЫХ СИСТЕМАХ

Материалы Седьмой Международной

конференции-семинара

(Нижний Новгород, 26–30 ноября 2007 г.)

Нижний Новгород

Издательство Нижегородского госуниверситета

2007

УДК 681.3.012:51

ББК 32.973.26–018.2:22

В 93

В 93 Высокопроизводительные параллельные вычисления на кластерных системах. Материалы Седьмой Международной конференции-семинара. – Нижний Новгород: Изд-во Нижегородского госуниверситета, 2007. 443 с.

ISBN 978-5-91326-068-0 Редакционная коллегия:

Р.Г. Стронгин (отв. редактор), В.П. Гергель (зам.отв. редактора), Д.И. Батищев, В.В. Воеводин, В.А. Гришагин, Ю.Г Евтушенко, Л.В. Нестеренко, Я.Д. Сергеев, Б.Н. Четверушкин, В.И. Швецов Сборник материалов Седьмой Международной конференции-семинара, состоявшейся в Нижегородском государственном университете им. Н.И. Лобачевского 26–30 ноября 2007 г., содержит доклады, посвященные теоретической и практической проблематике параллельных вычислений, ориентированных на использование современных многопроцессорных архитектур кластерного типа.

ISBN 978-5-91326-068-0 ББК 32.973.26–018.2: Конференция организована в рамках Инновационной образовательной программы ННГУ: Образовательно-научный центр «Информационно-телекоммуникационные системы:

физические основы и математическое обеспечение»

Поддержка конференции Российский фонд фундаментальных исследований Компания Intel Technologies Компания IBM Компания Т-Платформы © Нижегородский государственный университет им. Н.И. Лобачевского, ПРЕДИСЛОВИЕ 26–30 ноября 2007 года Нижегородский государственный университет им. Н.И. Лобачевского (учредитель), Вычислительный центр РАН, Институт математического моделирования РАН при поддержке компании Интел и Нижегородского фонда содействия образованию и исследованиям провели в Нижнем Новгороде Седьмую Международную конференцию-семинар и Всероссийскую молодежную школу «Высокопроизводительные параллельные вычисления на кластерных системах».

Главной задачей проведения конференции и школы было обсуждение основных аспектов организации высокопроизводительных вычислений в кластерных компьютерных системах, активизации научно-практической деятельности исследователей в этой перспективной области развития современных средств вычислительной техники, обмен опытом учебно-образовательной деятельности при подготовке специалистов в области параллельных вычислений.



На конференции рассмотрены следующие вопросы параллельных вычислений:

принципы построения кластерных вычислительных систем;

методы управления параллельными вычислениями в кластерных системах;

параллельные алгоритмы решения сложных вычислительных задач;

программные среды и средства для разработки параллельных программ;

прикладные программные системы параллельных вычислений;

методы анализа и оценки эффективности параллельных программ;

подготовка специалистов в области параллельных вычислений.

Материалы сборника включают как доклады, так и тезисы докладов (публикуются частично в авторской редакции).

Проведение конференции поддержано грантом РФФИ № 07-01-06123.

СИСТЕМА СВЯЗИ НА ГРАФИЧЕСКОМ ПРОЦЕССОРЕ А.И. Акапьев Нижегородский государственный технический университет Введение Последние пять лет наблюдается значительный рост производительности процессоров графических плат. Начиная с года чистая вычислительная мощность графических плат превышает вычислительную мощность центрального процессора. Также стоит отметить, что темпы наращивания вычислительной мощности графических чипов значительно выше, чем ядер центральных процессоров. Почему же столь значительные вычислительные возможности не были использованы ранее для задач, отличных от обработки графики? На это есть множество причин. Во-первых, программирование графических чипов рассматривалось только с позиций обработки графики, поэтому для неграфических задач требовалось использовать графически ориентированный интерфейс программирования. Во-вторых, узкая специализация под обработку только графической информации позволяла применять вычислительные операции и хранение данных в памяти с малой точностью, что для графических приложений было приемлемо, а для задач расчётов и компьютерного моделирования – нет. Со временем точность выполнения вычислений и хранения численных значений увеличивалась, разрабатывались программы расчётов с использованием графического интерфейса программирования. Летом 2006 года компания AMD/ATI первая открыла неграфически ориентированный интерфейс программирования, в ноябре 2006 года следом последовала NVIDIA. С этого момента точность вычислений стала достаточной для многих задач, а использование неграфического программного интерфейса позволило заметно облегчить программирование.

Так как современные алгоритмы обработки сигналов для осуществления беспроводной связи требуют объёмных вычислений, которые обычно реализуются на ПЛИС, то использование мощного унифицированного оборудования, такого как современная видеокарта, выглядит очень привлекательно.

В докладе показано, каким образом можно использовать вычислительные возможности современных графических процессоров, на примере реализации системы связи MIMO.

Особенности архитектуры графических процессоров Современные графические процессоры являются высокопараллельными вычислительными устройствами. Мы будем ориентироваться на графические процессоры серии G80 фирмы NVIDIA.





Большая производительность достигается за счёт использования массива мультипроцессоров, где каждый мультипроцессор состоит из набора SIMD (Single Instruction Multiple Data – одна инструкция, много данных) процессоров.

Пользовательский интерфейс организован таким образом, что пользователю необходимо распределять вычислительную нагрузку как по мультипроцессорам, так и по отдельным SIMD-процессорам каждого мультипроцессора.

Структурная схема описываемой модели вычислений представлена на рис. 1.

Рис. 1. Структурная схема модели вычислений на графических чипах G Схема работы программы на графическом процессоре следующая:

Из основной памяти компьютера в память графической карты загружается программа, созданная пользователем;

Пользователь задаёт количество блоков и потоков в каждом блоке (число потоков для всех блоков одинаково);

Программа одновременно исполняется всеми потоками каждого блока;

Определение, над какой частью данных работает каждый поток, осуществляется на основе номера блока и номера потока в блоке;

По завершении работы всех созданных потоков пользователь копирует результат вычислений из памяти графической платы в основную память компьютера.

Подход к написанию программ для графического процессора сильно отличается от подхода, применяемого при написании программ для последовательного процессора. При программировании с использованием множества потоков требуется тщательно планировать синхронизации параллельно исполняющихся потоков и эффективно использовать иерархию памяти, управление которой отчасти контролируется программистом (на графической плате присутствуют несколько модулей памяти большого объема с медленным доступом и несколько модулей памяти с быстрым доступом, но имеющих малый объем). При написании программ для последовательного процессора нет необходимости в синхронизации, так как исполняется только один поток программы. Контроль над использованием иерархической памяти полностью осуществляется компилятором, используемым при сборке программы.

Для эффективного использования данной системы необходимо переосмысление алгоритмов обработки данных. В докладе показано, каким образом можно реализовать симулятор MIMO-системы на графическом чипе.

Программирование протоколов беспроводной связи Современные беспроводные протоколы используют ресурсоёмкие алгоритмы обработки сигналов. Наибольшую нагрузку на вычислительную систему создают алгоритмы физического уровня (по модели открытых систем OSI), такие как алгоритмы демодулятора и декодера. Перенесение данных алгоритмов на графические (многоядерные) процессоры может позволить избавиться от специализированных и дорогих сигнальных процессоров. Для выяснения пригодности использования графических процессоров в реальных задачах обработки сигналов был разработан набор программ, позволяющих тестировать различные алгоритмы в условиях, приближенных к реальным. В данной системе трафик любого сетевого приложения, работающего на ОС Windows, можно направить на обработку через графический чип, на котором реализована система связи. Таким образом, разрабатываемые алгоритмы тестируются при использовании реальных приложений и моделей трафика.

Архитектура тестовой системы Принцип работы тестовой системы представлен на рис. 2. Здесь в качестве примера изображено взаимодействие двух обычных сетевых приложений, браузера и Web-сервера, запущенных на одном и том же компьютере и передающих сетевые пакеты через тестовую систему.

Рис. 2. Принцип работы системы связи, реализованной на графическом процессоре Система состоит из двух основных компонентов:

1. Приложение, работающее в режиме пользователя;

2. Драйвер сетевого устройства.

Основная проблема, стоявшая перед разработчиком, заключалась в перенаправлении трафика сетевых приложений, работающих под ОС Windows, на обработку графическим процессором. Было решено создать драйвер сетевой карты и сделать так, чтобы приложение посылало сетевые пакеты через этот драйвер. Также драйвер необходим и для того, чтобы передавать сетевые пакеты, пропущенные через разрабатываемую систему связи, обратно другому сетевому приложению, работающему под ОС Windows.

На рис. 2 можно видеть, что браузер через операционную систему передаёт данные драйверу сетевого устройства (экземпляр 1), а от второго экземпляра драйвера данные через операционную систему передаются Web-серверу.

Было бы удобно работать с графическим чипом напрямую из драйвера сетевого устройства и передавать данные от одного экземпляра драйвера другому, но использование возможностей графического чипа возможно лишь из режима пользователя, а драйвер работает в режиме ядра. Именно для этих целей в схему был введен еще один компонент – «Пользовательское приложение».

Пользовательское приложение взаимодействует с обоими экземплярами драйверов и управляет работой графического процессора. Так, данные, пришедшие от браузера, экземпляр драйвера перенаправляет пользовательскому приложению, которое, в свою очередь, отправляет их на обработку графическому процессору.

После того как графический процессор совершил необходимые преобразования над данными (например, помехоустойчивое кодирование, модуляция, симуляция влияния среды распространения, демодуляция, декодирование), данные передаются через экземпляр драйвера Web-серверу. Ответ Web-сервера следует в точности по обратному пути.

MIMO-симулятор В архитектуре тестовой системы, рассмотренной выше, «Пользовательское приложение» является тем звеном передачи трафика, в которое возможно встраивание любых алгоритмов обработки информации канального и физического уровней. В качестве такого алгоритма был выбран алгоритм модулятора-демодулятора MIMO (Multiple Input – Multiple Output) системы.

Реализованный на графическом чипе алгоритм, использующий M QAM модуляцию, был протестирован на корректность работы. На рисунке 3 изображены кривые помехоустойчивости, полученные при использовании алгоритмов, реализованных на центральном процессоре и графическом процессоре.

0, CPU GPU 0, 0, 0, 0, BER 0, 0, 0, 0, -6 -1 4 Отношение сигнал - шум, дБ Рис. 3. Зависимость числа ошибок на бит переданной информации от отношения сигнал-шум Видим, что кривые помехоустойчивости для симулятора, работающего на центральном процессоре, и симулятора, исполняющегося на графическом процессоре, совпадают. Это означает, что точность вычислений у обоих симуляторов одинакова.

Перейдем к сравнению скоростей работы обоих симуляторов.

CPU–симулятор GPU–симулятор Модель аппаратуры Intel E6600 NVIDIA 8000 GTX Время исполнения при передаче 1000 MIMO-символов, каждый из 14.422 1. которых имеет размер 192 бита, с Время исполнения при передаче 1000 MIMO-символов, каждый из 18.453 2. которых имеет размер 256 бит, с Время исполнения при передаче 1000 MIMO-символов, каждый из 37.266 4. которых имеет размер 512 бит, с Таблица 1. Сравнение работы симуляторов Из таблицы 1 видим, что производительность симулятора, работающего на GPU, приблизительно в 8.5 раз выше, чем симулятора, работающего на центральном процессоре.

Заключение В докладе разработаны вопросы построения симулятора MIMO системы, включая интерфейс взаимодействия с операционной системой, приведены характеристики производительности разработанного симулятора на графическом процессоре и сравнение с симулятором, реализованным на центральном процессоре.

В дальнейшие планы входит реализация кодера-декодера для канала связи и разработка некоторых частей MAC уровня.

Литература 1. Прокис Д. Цифровая связь. Пер. с англ. / Под ред. Д.Д.

Кловского. – М.: Радио и связь, 2000. – 800 с.: ил.

2. Сорокина С.И. и др. Программирование драйверов и систем безопасности: Учеб. пособие. СПб.: БХВ-Петербург, М.:

Издатель Молгачева С.В., 2003. – 256 с.: ил.

3. Hesham El-Rewini and Mostafa Abd-El-Barr. Advanced computer architecture and parallel processing. – John Wiley & Sons, Inc., Hoboken, New Jersey. 2005. – 272 p.

4. NVIDIA CUDA Programming Guide, http://developer.download.nvidia.com/compute/cuda/1_0/NVIDIA _CUDA_Programming_Guide_1.0.pdf Контакты Andrey.Akapiev@inventor.nnov.ru ВЫЧИСЛИТЕЛЬНАЯ МОДЕЛЬ НЕЙРОАЛГОРИТМА МНОГОСЛОЙНОГО ПЕРСЕПТРОНА Н.Г. Аксак, А.Ю. Тыхун Харьковский национальный университет радиоэлектроники Введение Нейронные сети (НС) находят в настоящее время широкое применение в самых различных сферах деятельности благодаря параллельной схеме вычисления, устойчивости к сбоям, изменяющейся архитектуре.

В [1] приведены определения нейронной сети, нейронного алгоритма и нейрокомпьютера, опираясь на которые в работе предложена реализация нейронного алгоритма на высокопроизводительных вычислительных структурах.

Как правило, нейронные алгоритмы реализуются программно на однопроцессорных системах. Время обучения нейронных сетей, особенно при использовании неоптимальной топологии сети и больших объемах исходных данных, обрабатываемых последовательно, может быть очень велико.

Для ускорения обучения нейронных сетей предлагается использовать симметричные мультипроцессорные системы (SMP), системы с массовым параллелизмом (МРР) и кластерные системы.

При использовании МPР-системы для решения поставленной задачи параллельно вычисляются нейроны одного слоя на числе процессоров равном количеству нейронов в слое. Однако при работе с параллельным алгоритмом на МPР-системе, при значительном увеличении количества процессоров в системе растет время на передачу данных между процессорами и возможен обратный эффект – время обучения НС может возрастать.

Производительность систем с распределенной памятью очень сильно зависит от производительности коммуникационной среды.

Коммуникационную среду можно достаточно полно охарактеризовать параметрами: латентностью (временем задержки при посылке сообщения), пропускной способностью (скоростью передачи информации), временем задержки коммуникационного оборудования (концентратора) и простоя заявок в очередях при неправильной балансировке нагрузки.

Развитие коммуникационных технологий, а именно, появление высокоскоростного сетевого оборудования (например, новый Infiniband-продукт – коммутатор Voltaire Grid Director IRS 2012) и специального программного обеспечения (наиболее распространенная библиотека MPI, реализующего механизм передачи сообщений над стандартными сетевыми протоколами), сделало кластерные технологии общедоступными.

Многослойный персептрон Для решения многих практических задач [2] хорошо зарекомендовал себя многослойный персептрон (МП).

Рассмотрим МП c архитектурой N i N j N k, где N i - количество нейронов во входном слое, N j - количество нейронов в скрытом слое, - количество нейронов в выходном слое (рис.1).

Nk Рис. 1. Архитектура многослойного персептрона Алгоритм обучения МП состоит из последовательных взаимозависимых этапов обработки, причем каждый этап состоит из совокупности независимых операций, выполняющихся параллельно. В качестве функции активации для всех слоев выбрана сигмоидальная функция. В общем случае алгоритм обучения НС состоит из следующих этапов.

1. Вычисление выходов нейронов на основе обучающего примера i ( y (j1) (t ) = wlj1) (t ) xl (t ) + b (j1), для скрытого слоя, (1) l =1 j ( yk 2 ) (t ) = wlk2 ) (t ) yl(1) (t ) + bk( 2 ) ( для выходного слоя, (2) l =1, где wij1) - синоптический вес связи i–го входа с j–ым нейроном, ( X = [x1, x2,..., xi ] – вектор входных сигналов, b (j1) - порог j–ого нейрона скрытого слоя, w(jk ) - синоптический вес связи j–го выхода нейрона скрытого слоя с k–ым нейроном выходного слоя, bk 2) - порог k–ого ( нейрона выходного слоя, (•) - функция активации нейронов.

Соотношения (1) и (2) можно представить в матричном виде как умножение матрицы весовых коэффициентов W (1) скрытого слоя на вектор входа X и матрицы весовых коэффициентов W ( 2) выходного слоя на вектор Y (1) (выход скрытого слоя) соответственно:

w (1) w (1)...w (1) (1) i1 x1 b 11 (1) (1) (1) (1) w w...wi 2 x 2 b2.

Y (1) = (W (1)T X + B (1) ) = 12 22 + (3) L L L (1) (1) (1) x w1 j w2 j...wij i b j (1) w ( 2) w ( 2)...w ( 2) (1) ( 2) 11 21 y b j 1 ( 2) ( 2) (1) ( 2) ( ) w w...w (j2) y 2.

+ b Y ( 2) = W ( 2)T Y (1) + B ( 2) = 12 22 2 (4) L L L ( 2) ( 2) ( 2) y (1) b ( 2) w1k w2 k...w jk j k Вычисление ошибки реакции сети k 2) (t ) = ek (t ), ( для выходного слоя, (5) k (j1) (t ) = l( 2) (t ) w (jl2) (t ) y (j1) (t ), для скрытого слоя, (6) l = где ek (t ) - ошибка k-го нейрона выходного слоя.

Для всех слоев настройка весовых коэффициентов осуществляется в соответствии с wijL) (t + 1) = wijL) (t ) + ( L) (t ) y (jL) (t ), ( ( (7) j где – постоянная момента ( =1), – параметр, отвечающий за скорость обучения, (L ) – локальный градиент j-го нейрона, L – j количество слоев.

Постановка задачи Рассмотрим многослойный персептрон (1) – (7). На однопроцессорной системе вычисление нейронов каждого слоя осуществляется последовательно. Сначала производится вычисление выходного вектора скрытого слоя, что представляет собой последовательное вычисление y11), y 21) …, y (j1), затем аналогично ( ( вычисляются значения выходного слоя y1( 2), y22) …, y k 2 ) и т. д., пока не ( ( будут осуществлены все этапы обучения НС. Такие операции требуют больших временных затрат.

Необходимо построить параллельную модель нейроалгоритма и выбрать топологию вычислительной системы, снижающую затраты межпроцессорного взаимодействия.

Решение задачи В большинстве случаев применение нейрокомпьютеров не представляется возможным в связи с их высокой стоимостью.

Существующие программные реализации нейронных сетей не рассчитаны на использование преимуществ многопроцессорных систем.

Самым простым способом достижения параллельного выполнения является параллелизм на уровне декомпозиции задачи, в данном случае – разложение нейроалгоритма по функциям реализации нейронов.

При использовании количества процессоров Pm, равного количеству связей нейронной сети, достигается максимальное ускорение за счет оптимальной реализации нейроалгоритма. Как видно из рисунка 1, общее количество связей нейронной сети NW = j * (k + i ) + N B, NW N nn, где N B = j + k - общее количество смещений b (L), N nn = N j + N k – общее количество нейронов.

N nn Однако при таком выборе количества процессоров ресурсы будут не оптимально загружены. Вычислительная нагрузка достигает максимального значения только на этапе настройки весовых коэффициентов слоя L и равномерно распределена среди всех имеющихся в распоряжении процессоров.

Пусть в нашем распоряжении имеется кластерная вычислительная сеть с топологией полносвязный граф при числе имеющихся процессоров Pm = j k.

На рисунке 2 представлена модель параллельного нейроалгоритма в виде вычислительной схемы нейроалгоритма совместно с расписанием.

Рис. 2. Параллельная модель нейроалгоритма Такт 1. Вычисление выходов нейронов скрытого слоя в соответствии с (1) на основе обучающего примера. Обучающий пример представляется парой { X = [x1, x2,..., xi ], D = [d1, d 2,..., d k ] }, где D = [d1, d 2,..., d k ] – вектор цели. Осуществляется независимо на j процессорах, распределенных следующим образом: первый процессор вычисляет значения первого нейрона y1(1), второй – второго нейрона y 21), j-ый процессор – j-го нейрона y (j1).

( Такт 2. Вычисление выходов нейронов выходного слоя в соответствии с (2). Вычислительная нагрузка распределяется следующим образом: первый процессор вычисляет значения первого нейрона y1( 2), второй – второго нейрона y 22), k-ый процессор – k ( го y k 2 ).

( Такт 3. Вычисление ошибки выходного слоя в соответствии с (5).

Вычислительная нагрузка распределяется следующим образом:

первый процессор вычисляет ошибку первого нейрона e1( 2), второй – второго нейрона e22), k-ый процессор – k -го ek2 ).

( ( Такт 4. Вычисление ошибки скрытого слоя в соответствии с (6).

Вычислительная нагрузка распределяется следующим образом:

первый процессор вычисляет ошибку первого нейрона e1(1), второй – второго нейрона e21), j-ый процессор – j-го e (j1).

( Такты 5 (5+i+1). Настройка весовых коэффициентов wij1) ( скрытого слоя в соответствии с (7). Вычислительная нагрузка распределяется следующим образом: на 5-ом такте первый процессор настраивает весовой коэффициент w01), второй процессор - w02), ( ( третий процессор - w03) и j-ый процессор - w (1) ;

на 6-ом такте ( 0j соответственно первый, второй, третий и j-ый процессоры настраивают весовые коэффициенты w (1), w (1), w (1), L, w (1) ;

на 7-ом 11 12 13 1j такте соответственно первый, второй, третий и j-ый процессоры настраивают весовые коэффициенты w (1), w (1), w (1), L, w (1) ;

на (5+i)-ом 21 22 23 2j такте соответственно первый, второй, третий и j-ый процессоры настраивают весовые коэффициенты w (1), w (1), w (1), L, wij1).

( i1 i2 i Такты (5+i+2) (5+i+2+k+1). Настройка весовых коэффициентов ( 2) w jk выходного слоя в соответствии с (7). Вычислительная схема аналогична предыдущей серии тактов 5 (5+i+1): на (5+i+2)-ом такте первый процессор настраивает весовой коэффициент w11 ), второй ( процессор - w 21) и j-ый процессор - w ( 2) ;

на (5+i+3)-ом такте ( j соответственно первый, второй и j-ый процессоры настраивают весовые коэффициенты w ( 2), w ( 2), L, w ( 2) ;

на (5+i+4)-ом такте 12 22 j соответственно первый, второй и j-ый процессоры настраивают весовые коэффициенты w ( 2), w ( 2), L, w ( 2) ;

на (5+i+2+k)-ом такте 13 23 j соответственно первый, второй, третий и j-ый процессоры настраивают весовые коэффициенты w ( 2), w ( 2), L, w ( 2) ;

на (5+i+2+k+1) 1k 2k jk ом такте соответственно первый, второй, третий и k-ый процессоры настраивают весовые коэффициенты w01), w02), L, w02).

(2 (2 ( k Заключение С целью снижения времени межпроцессорного взаимодействия во время обучения НС в работе решена актуальная задача построения топологии кластерной вычислительной системы.

Научная новизна работы заключается в том, что предложена параллельная модель нейроалгоритма многослойного персептрона, которая дает возможность сокращения времени обучения нейронной сети на кластерных системах с топологией полносвязный граф.

Литература 1. Кирсанов С. Ю. Нейрокомпьютеры с параллельной архитектурой/Кн.16. – М.: Радиотехника, 2004. – 496 с.:ил.

(Нейрокомпьютеры и их применение. Редактор А. И.

Галушкин).

2. Аксак Н.Г., Новосельцев И.В. Реализация многослойного персептрона с помощью стандарта OpenMP//8-ая Международная научно – практическая конференция «Современные информационные и электронные технологии».

- Одесса, 2007. – С.89.

3. Гергель В.П., Стронгин Р.Г. Основы параллельных вычислений для многопроцессорных вычислительных систем:

Учебное пособие. - Нижний Новгород, 2003.

4. Основные классы современных параллельных компьютеров:

http://parallel.ru/computers/classes.html.

Контакты 61166, Харьков, пр. Ленина,14, каф. ЭВМ, тел. (0572) 702-13- ИСПОЛЬЗОВАНИЕ СУПЕРКОМПЬЮТЕРОВ ДЛЯ МОДЕЛИРОВАНИЯ ДВИЖЕНИЯ ЖИДКОСТИ И ГАЗА В ПРОГРАММНОМ КОМПЛЕКСЕ FLOWVISION А.А. Аксенов, В.В. Шмелев ООО “ТЕСИС” В настоящее время кластерные технологии вычислений получили широкое распространение в связи с доступностью суперкомпьютеров для широкого круга пользователей. Одним из основных потребителей больших расчетных мощностей всегда была вычислительная гидродинамика, поэтому в этой области сейчас наметился бурный переход коммерческих программных комплексов на использование кластерных вычислительных технологий.

Компания “ТЕСИС” выпустила третью версию программного комплекса FlowVision-HPC, предназначенного для моделирования трехмерных течений жидкости и газа в технических и природных объектах. Отличительной особенностью FlowVision-HPC является клиент-серверная архитектура, которая позволяет использовать параллельные компьютеры с распределенной памятью как для расчетов, так и для визуализации течения жидкости и газа. Новая архитектура программного комплекса позволяет наиболее полно использовать возможности параллельных вычислений на кластерах коллективного пользования, когда все задачи запускаются с помощью систем управления заданиями (батч-системы), сохранив при этом удобство работы с FlowVision через клиента, работающего на персональным компьютере.

Другой отличительной особенностью FlowVision-HPC является его тесная интеграция с конечно-элементной программой ABAQUS, которая предназначена для расчета прочностных характеристик конструкций. Обе программы могут работать на компьютерах с распределенной памятью, обмениваясь информацией в процессе расчета в параллельном режиме. Таким образом, использование обеих программ позволяет решать задачи взаимодействия жидкости и конструкций, такие как, например, аквапланирование автомобильного колеса, ветровая нагрузка на здания и сооружения, движение жидкости в цистернах и баках, приводнение гидросамолетов, с одновременным расчетом прочностных характеристик объектов.

РЕШЕНИЕ ЗАДАЧИ ДИФРАКЦИИ ЭЛЕКТРОМАГНИТНЫХ ВОЛН С ИСПОЛЬЗОВАНИЕМ СИСТЕМЫ РАСПРЕДЕЛЕННЫХ ВЫЧИСЛЕНИЙ MATHNET А.В. Антонов, Ф.C. Калашников Пензенский государственный университет, Региональный центр суперкомпьютерных вычислений Задача дифракции для сложной системы поверхностей и тел в резонансном диапазоне частот в настоящий момент чрезвычайно актуальна в связи с постоянным уменьшением размеров различных электронных устройств, масштаб которых в последнее время становится сопоставимым с длинами используемых ими электромагнитных волн. В категорию таких устройств, в частности, попадают средства вычислительной техники и телекоммуникации, которые в последнее время развиваются и внедряются все более быстрыми темпами и во все более внушительных масштабах. Решение задач указанного типа требует значительных вычислительных ресурсов, и в этой связи особую остроту приобретают проблемы разработки и внедрения новых математических методов для более эффективного и точного выполнения необходимых вычислений, а также проблема рациональной программной реализации этих методов, которая позволила бы получать результат требуемой точности за приемлемое время. Последнее становится возможным только при условии использования современных многопроцессорных вычислительных систем различной архитектуры, что, в свою очередь, требует применения методов и средств параллельного программирования для организации вычислений в рамках решения указанной физической задачи.

Ввиду малой распространенности специализированных вычислительных систем (суперкомпьютеров) с архитектурами SMP и MPP, обусловленной их высокой стоимостью, особый интерес представляет программная реализация решения задачи дифракции, адаптированная к выполнению на обычных рабочих станциях, объединенных стандартной на данный момент сетью Fast Ethernet.

Подобный подход не только более оправдан с экономической точки зрения, но и в большей степени соответствует современным тенденциям развития информационных технологий. Он хорошо соотносится с концепцией GRID-систем, разработка которых в настоящее время является одним из перспективных направлений в сфере вычислительной техники. Указанная концепция предполагает объединение территориально распределенных вычислительных ресурсов с целью их совместного использования для решения сложных и трудоемких задач различного характера. При этом, как правило, возникает иерархическая структура, в которой выделяются основной сервер, отвечающий за организацию вычислительного процесса и управление его ходом, и конечные узлы, выполняющие непосредственную обработку отдельных подзадач. Достоинством GRID-систем является то, что для их развертывания не требуется введение в строй дополнительных вычислительных мощностей или использование ВС со специфической архитектурой. Они позволяют задействовать свободные ресурсы типовых персональных компьютеров и рабочих станций, реальная загрузка которых в обычных условиях колеблется – по данным различных исследований – в диапазоне от 2-3% до 10%. Благодаря использованию GRID-систем эксперименты по решению сложных вычислительных задач могут быть поставлены даже в небольших научных учреждениях и учебных заведениях.

Ориентация на идеологию GRID-систем и применение стандартных, широко распространенных средств вычислительной техники требует учета особенностей целевой аппаратной среды при разработке программной реализации решения задачи дифракции. К этим особенностям относятся:

1. Разнородность узлов вычислительной системы, которая выражается в первую очередь в их неодинаковой производительности.

2. Ограниченная пропускная способность вычислительной сети и непостоянство связей между сервером и отдельными узлами.

3. Динамическое изменение количества узлов, задействованных для выполнения вычислений.

Необходимость учета перечисленных факторов определяет требования к целевой параллельной программе и средствам, которые могут быть использованы при ее разработке. В связи с первой из отмеченных особенностей среды предпочтительной является такая организация программы, при которой количество параллельных ветвей будет превышать количество доступных вычислительных узлов, что позволит распределить нагрузку на последние с учетом производительности каждого из них. Такой подход позволяет также избежать простоя отдельных рабочих станций, поскольку необработанные подзадачи могут распределяться динамически и передаваться на конкретный узел сразу после выполнения им ранее назначенной порции вычислений. Для учета второй особенности необходимо при распараллеливании алгоритма обеспечить минимальную зависимость подзадач по данным. В противном случае интенсивные обмены между подзадачами могут привести к перегрузке сети, простою рабочих станций (которые будут ожидать освобождения канала связи, чтобы получить возможность выполнить операции приема или передачи) и, как следствие, к неэффективному использованию вычислительных мощностей и увеличению общего времени выполнения программы. Третья особенность среды предполагает, что программа решения задачи дифракции должна обладать значительной гибкостью. Необходимо, чтобы она могла отслеживать появление свободных узлов, которые не были задействованы при старте вычислений, и передавать им на обработку подзадачи из числа не распределенных на момент обнаружения таких узлов. Кроме того, программа должна корректно обрабатывать исключительные ситуации, связанные с ошибками или отказами в работе отдельных узлов. При возникновении сбоя во время решения некоторой подзадачи на одной из рабочих станций весь процесс вычислений не потребуется начинать заново – достаточно будет лишь повторно обработать единичную подзадачу на другом узле вычислительной системы.

Для разработки программы решения задачи дифракции, удовлетворяющей вышеперечисленным требованиям, целесообразно использовать один из существующих инструментариев, реализующих основные положения концепции GRID-систем. К числу таких наборов программных средств относятся пакеты Globus, X-Com и MathNet.

Отличительной особенностью системы Globus является возможность решения с ее помощью широкого круга сложных вычислительных задач, а также организации групповой разработки и эксплуатации приложений. Однако возможности Globus представляются явно избыточными для рассматриваемых условий применения. Кроме того, система отличается сложностью и громоздкостью, что делает крайне затруднительным ее использование для разработки небольших экспериментальных приложений, ориентированных на выполнение на малых вычислительных мощностях. Возможность решения с помощью системы Globus широкого круга задач достигается за счет необходимости выработки индивидуального подхода к параллельной программной реализации каждой из них. Это приводит к повышению трудоемкости разработки приложений и сильной зависимости требований, предъявляемых ими к целевой аппаратной среде, от специфики задачи, для решения которой они предназначены.

В отличие от Globus X-Com обеспечивает решение ограниченного набора задач, но при этом обладает рядом особенностей, которые делают более предпочтительным его применение для проектирования экспериментальных приложений, а также их отладки и тестирования с использованием стандартной на сегодня компьютерной техники. Во первых, унифицированный интерфейс взаимодействия прикладной программы с основной системой избавляет от необходимости выполнения полного комплекса процедур разработки при решении каждой конкретной задачи. Во-вторых, наличие автоматической системы планирования снижает нагрузку на использующего инструментарий X-Com разработчика, который может сосредоточиться на поиске и рациональной реализации наиболее оптимального алгоритма, в то время как учетом конфигурации аппаратной среды и организацией вычислительного процесса займется сама система. В-третьих, ориентация на иерархическую структуру (вместо децентрализованной, используемой Globus) облегчает контроль за динамическим изменением состава вычислительной системы и объема ресурсов, доступных на каждом из ее узлов. X-Com способен работать в асинхронном режиме (т.е. в условиях отсутствия постоянной связи между узлами), использует только стандартные протоколы передачи данных и в принципе не требует применения аппаратных средств со специфической архитектурой или нетипичными характеристиками.

Система распределенных вычислений (СРВ) MathNet реализует ключевые принципы, аналогичные X-Com. На текущем этапе своего развития эта система представляет собой отличное средство начального уровня для проведения экспериментов по решению сложных вычислительных задач на стандартном оборудовании.

Развертывание программного комплекса MathNet не требует каких либо подготовительных процедур, а разработка адаптированных для него приложений не сопряжена с необходимостью серьезной переработки уже существующих последовательных алгоритмов или изучения специфических средств и приемов параллельного программирования. Система работает под управлением ОС Windows, что также упрощает ее использование в учебных лабораториях.

Программы для системы MathNet оформляются в виде динамически загружаемых библиотечных модулей (DLL), написанных на языке C/C++ и в обязательном порядке содержащих функции Initialize и Calculate. В рамках первой из указанных функций должно выполняться разбиение исходной задачи на небольшие фрагменты, что предполагает составление перечня сформированных подзадач и заполнение индивидуального буфера данных каждой из них. Вторая функция отвечает за непосредственную реализацию вычислений, которым предшествует этап извлечения данных из входного буфера и которые завершаются помещением результатов (окончательных либо промежуточных) в указанный выходной буфер. Семантика Initialize и Calculate уточняется разработчиком конкретного приложения. Автор исполняемой в среде MathNet программы также не ограничен в вопросе выбора способа представления и логической организации исходных данных и результатов, поскольку индивидуальные буферы подзадач абсолютно прозрачны для стандартных модулей СРВ.

Задача дифракции в общем случае сводится к системе линейных алгебраических уравнений, которую можно решить, используя итерационные методы. Обработка СЛАУ предполагает выполнение матричных операций, основной и наиболее трудоемкой из которых будет умножение матрицы на вектор. Это означает, что верхнему уровню распараллеливания вычислений в системе MathNet будет соответствовать выделение подзадач, связанных с определением значений отдельных элементов результирующего вектора. Учитывая размерность матрицы коэффициентов (порядка 103 - 104 для реальных задач) и требование минимизации обменов между подзадачами, целесообразно использовать ленточную схему разделения данных, при которой каждому процессу будет передаваться строка (или группа строк) исходной матрицы и копия вектора-множителя. При этом рассылка относительно больших объемов данных будет происходить только на подготовительном этапе, после чего в распоряжении каждого узла системы окажется все необходимое для автономного выполнения вычислений. Однако решение СЛАУ оказывается существенно менее трудоемкой процедурой, чем заполнение матрицы, элементы которой формируются в результате счета многомерных интегралов. Это означает, что распараллеливание вычислений на этапе определения коэффициентов СЛАУ (т.е. построения используемой в дальнейшем матрицы) также является необходимым условием снижения временных затрат на решение задачи дифракции. Более глубокая декомпозиция возможна за счет разбиения диапазонов интегрирования на отдельные участки, однако выделение столь мелких подзадач средствами самой системы MathNet представляется нецелесообразным. Таким образом, еще одним направлением распараллеливания вычислений в рамках решения задачи дифракции является одновременный счет интегралов на узлах вычислительной системы. Поскольку процедуры заполнения матрицы и решения СЛАУ достаточно разнородны (как в смысле используемых математических методов, так и в смысле времени выполнения), причем каждая из них допускает параллельную обработку данных, хотя сами они должны выполняться в строго определенной последовательности, логично реализовать их в виде двух самостоятельных приложений. Функция Initialize, входящая в состав первой программы, будет отвечать за распределение исходных данных, необходимых для счета интегралов.

Это распределение должно быть осуществлено таким образом, чтобы число сформированных подзадач примерно на порядок превосходило число доступных вычислительных узлов. Такое разбиение позволит более рационально использовать доступные аппаратные ресурсы. Если параметры вычислительной среды заранее определены и известно, что ее конфигурация не претерпит значительных изменений на протяжении всего эксперимента, то желательно иметь возможность явно указывать необходимый масштаб подзадач или их количество.

Для этого можно использовать файл настроек, содержимое которого будет анализироваться функцией Initialize (такой же подход вполне приемлем и для второй программы). Функция Calculate первой программы будет выполнять непосредственное вычисление интегралов. Сбор значений, полученных в результате вызовов Calculate на различных узлах системы, будет произведен автоматически средствами СРВ MathNet. Вычисленные значения интегралов поступят в буфер, подаваемый на вход функции Initialize, которая сформирует из них искомую матрицу и сохранит ее на рабочей станции, отвечающей за выполнение серверного процесса.

Основной задачей второй программы, как отмечалось выше, будет решение СЛАУ (представленной в матричной форме) одним из итерационных методов (например, методом сопряженных градиентов).

Функция Initialize этой программы выполнит разрезание полученной на предыдущем этапе матрицы по строкам и поместит образовавшиеся массивы значений во входные буферы подзадач вместе с копиями вектора-множителя. Собственно итерационный процесс по методу сопряженных градиентов будет реализован функцией Calculate.

Ключевой операцией, выполняемой этой функцией, будет умножение подмножества строк матрицы на вектор. Представление результатов в нужной форме и их сохранение для последующего анализа и дальнейшего использования, как и в предыдущем случае, выполнит функция Initialize. Процесс решения задачи дифракции для тела заданной формы можно будет считать законченным после успешного завершения работы второй программы.

Таким образом, разрабатываемая программа позволит отлаживать параллельный алгоритм решения задачи дифракции электромагнитных волн с учетом особенностей GRID-систем, что позволит легко адаптировать ее к другим системным реализациям, а для тестирования использовать доступные ограниченные вычислительные ресурсы.

РАЗРАБОТКА WEB-ОРИЕНТИРОВАННОГО ВЫЧИСЛИТЕЛЬНОГО КОМПЛЕКСА ДЛЯ РЕШЕНИЯ ТРЕХМЕРНЫХ ВЕКТОРНЫХ ЗАДАЧ ДИФРАКЦИИ ЭЛЕКТРОМАГНИТНЫХ ВОЛН НА ОСНОВЕ СУБИЕРАРХИЧЕСКИХ ПАРАЛЛЕЛЬНЫХ АЛГОРИТМОВ А.В. Антонов, М.Ю. Медведик, И.А. Родионова, Ю.Г. Смирнов Пензенский государственный университет Введение Рассмотрим задачу дифракции электромагнитного поля на идеально проводящем тонком, плоском ограниченном экране. В общей постановке задача состоит в нахождении решений уравнений Максвелла, удовлетворяющих определенным краевым условиям и условиям излучения на бесконечности. Данная задача принадлежит к числу классических в электродинамике. Наиболее естественный подход к решению этой задачи – сведение ее к векторному интегродифференциальному уравнению на экране. В наших обозначениях это уравнение имеет вид:

Lu := Grad A(Div u ) + k 2 A u = f, x, (1) где Div - операция поверхностной дивергенции, A - интегральный оператор ik x y e u ( y )ds, Au = (2) x y u – касательное к поверхности экрана векторное поле (плотность поверхностного тока). Индекс. показывает взятие касательных к компонент соответствующего векторного поля. Центральной проблемой при исследовании разрешимости представленных выше уравнений является выбор пространств для решений и для правых частей таким образом, чтобы обеспечить фредгольмовость (и, если удастся, однозначную разрешимость) этого уравнения в выбранных пространствах. Кроме того, пространство решений должно быть достаточно широким и содержать все возможно допустимые поля. Для решения данной задачи стали активно применяться численные методы (метод моментов, метод Галеркина), но без достаточного математического обоснования. Тем не менее в численных решениях задач дифракции был накоплен значительный опыт. Имеется ряд монографий по решению задач дифракции на экранах различной формы. Наиболее распространенным стал метод, предложенный в году в статье [3]. Следует подчеркнуть, что проблема эффективного численного решения задач дифракции на тонких экранах в настоящее время, по-видимому, пока не решена даже с использованием самых мощных современных ЭВМ.

В данной работе предлагается другой подход, в котором из результатов решения задачи, полученных на прямоугольном экране, «вырезается» другой экран произвольной формы, целиком помещается в прямоугольном экране и без повторных вычислений в матрице СЛАУ определяется значение поверхностных токов на новом экране.

Таким образом можно решить серию задач дифракции на экранах различной формы. Субиерархический метод используется совместно с параллельными вычислительными алгоритмами в связи с большой вычислительной сложностью формирования матрицы СЛАУ.

Наиболее удобно рассчитывать подобные задачи на кластере [4].

Постановка задачи Пусть R 2 = {x3 = 0} R 3 - ограниченная область с кусочно гладкой границей Г, состоящей из конечного числа простых дуг класса С, сходящихся под углами, отличными от нулевого. Задача дифракции стороннего монохроматического электромагнитного поля E 0, H 0 на бесконечно тонком идеально проводящем экране, расположенном в свободном пространстве с волновым числом k, k 2 = 2 ( + i 1 ), Im k 0 (k 0), сводится к решению уравнения (1), где f = 4kE0.

Будем предполагать, что все источники падающего поля находятся вне экрана так, что E0 | C ( ).

Обычно падающее поле - это либо плоская волна, либо электрический или магнитный диполь, расположенный вне.

Определим пространство W как замыкание C 0 ( ) в норме 2 2 =u + Divu.

u 1 / 2 1 / w Можно показать, что [1] { } ~ ~ W = u H 1 / 2 ( ) : Divu H 1 / 2 ( ), ~ где пространство Соболева H s ( ) определяем обычным образом.

Через W ' обозначено антидвойственное пространство для W относительно полуторалинейной формы ( f, v) = f v dx :

{ } 1 / 2 1 / (M ), W '= u : u H ( M ), Rot u H где M – замкнутая поверхность, такая, что M.

Метод Галеркина Рассмотрим n-мерное пространство Vn W. Будем проводить аппроксимации u элементами u n Vn. Методом Галеркина находим u n из системы уравнений [2] ( Lu n, v) = ( f, v) v Vn. (3) Эти уравнения определяются конечномерным оператором Ln : Vn Vn', где Vn' есть антидуальное пространство к Vn.

Основная трудность для уравнений электрического поля (1) состоит в том, что оператор L не является сильно эллиптическим и традиционные теоремы о сходимости метода Галеркина неприменимы.

Результаты о сходимости метода Галеркина удается обобщить на уравнения с операторами, эллиптическими на подпространствах, в том числе на уравнение электрического поля (1), так как оператор L является эллиптическим на подпространствах.

Каждый элемент матрицы (3) получается путем вычисления четырехкратного интеграла lij = ( Li, j ) = G ( x, y )divi ( x) div j ( y )ds + k 2 G ( x, y )i ( x) j ( y )ds, имеющего слабую особенность в области интегрирования. Здесь x = ( x1, x 2 ), y = ( y1, y 2 ). В качестве базисных функций (x) и тестовых u ( y) выберем функции RWG.

Аналогично рассматривается трехмерная векторная задача математической теории распространения волн в неограниченных областях: определение рассеянного электромагнитного поля волновода, сформированного плоскопараллельными слоями, связанными отверстием произвольной формы. Слои образованы тремя идеально проводящими и бесконечно тонкими параллельными плоскостями. Электромагнитные параметры в разных областях могут быть различны. Данная задача принадлежит к классу задач о связи объектов через отверстие. Наиболее естественным и эффективным подходом к решению этой задачи является ее сведение к интегральному уравнению на отверстии с помощью метода функций Грина. Задача решается методом Галеркина. В связи с большим количеством вычислений применяется параллельный алгоритм.

Интерфейс пользователя Интерфейс пользователя вычислительного комплекса организован по принципу «тонкого клиента» с возможностью доступа через сеть Интернет [6]. Для использования его возможностей необходимо иметь выход в сеть Интернет и Web-браузер с поддержкой JavaScript (рекомендуется использовать MS Internet Explorer версии не ниже или Mozilla Firefox версии не ниже 1.8). Тестовая версия вычислительного комплекса размещена на сайте Регионального центра суперкомпьютерных вычислений (РЦСВ) при Пензенском государственном университете по адресу http://alpha.pnzgu.ru в разделе «Научная работа».

Исходными данными для вычислений являются следующие параметры (см. рис. 1):

p – выбор поляризации: "1" - E-поляризация, "-1" - H поляризация падающей волны;

e – относительная диэлектрическая проницаемость (e=1) (для двумерной задачи параметр не используется);

x – X-координата вектора падения плоской волны;

y – Y-координата вектора падения плоской волны;

z – Z-координата вектора падения плоской волны;

n – параметр размерности матрицы из расчета 2n;

матрица, задающая форму фигуры, на которой также задаются вертикальная и горизонтальная срезки.

Рис. 1. Ввод исходных данных Числовые характеристики вводятся в соответствующие поля формы, а матрица рисуется при помощи указателя манипулятора мышь.

После ввода параметров нужно нажать кнопку «Сохранить», при этом все исходные данные сохранятся на сервере в файле специального формата.

Рис. 2. Результаты работы Далее пользователь должен перейти в раздел «Результаты работы»

(см. рис. 2). В нем отображается в виде рисунка заданная ранее фигура и графики сечения поверхностных токов, полученные во время предыдущего запуска расчетов. Для запуска вычислений по вновь введенным данным необходимо нажать кнопку «Запуск вычислений».

После этого задача ставится в очередь на выполнение, сообщение об этом выводится вместо кнопки запуска. Обновляя окно браузера можно увидеть сообщение о запуске программы с указанием времени ее запуска. После окончания расчета графики будут выводиться на основе вновь полученных данных. Для более подробного изучения каждый график можно открыть в отдельном окне. Также на странице результатов имеются ссылки на файл с исходными данными и файл с числовыми результатами вычислений.

Организация параллельных вычислений В вычислительном комплексе периодически проверяется наличие новых данных для выполнения вычислений (данные считаются подготовленными после нажатии кнопки «Запуск вычислений»). При наличии таковых файл с информацией для расчета копируется на вычислительную систему, на которой установлена программа расчета, реализующая алгоритм решения задачи дифракции. Данная программа может быть написана на любом языке программирования и может работать на любой вычислительной системе, единственным условием является возможность передавать ей входные данные через файл и возможность ее удаленного запуска.

После выполнения программы файл с результатами копируется обратно и предоставляется пользователю. Передача данных осуществляется с использованием протокола FTP, выполнение команд на запуск вычислений – использованием протокола SSH.

В настоящее время вычислительная программа написана на языке Си с использованием библиотеки MPICH. Вычислительный комплекс размещен на серверах РЦСВ. Тестирование комплекса производится с использованием вычислительных ресурсов НИВЦ МГУ.

Заключение Удобство подобной реализации состоит, с одной стороны, в том, что пользователю вычислительного комплекса не надо иметь специализированных средств и программ, а также специальных знаний в области параллельных вычислений для получения доступа к высокопроизводительной вычислительной системе. С другой стороны, имея один и тот же пользовательский интерфейс, вычислительную программу можно запускать на различных параллельных кластерных системах, причем даже независимо от их загруженности и доступности в конкретный момент времени, что позволит работать в «on-line»

режиме, сокращая время, затрачиваемое пользователем для решения сложной математической задачи.

Работа выполнена в рамках программы СКИФ-ГРИД при поддержке гранта РФФИ-06-07-89063.

Литература 1. Ильинский А. С., Смирнов Ю. Г. Дифракция электромагнитных волн на проводящих тонких экранах М.:

Радиотехника, 1996.

2. Колтон Д., Кресс Р. Методы интегральных уравнений в теории рассеяния. М.: Мир, 1987.

3. Rao S.M., Wilton D.R., Glisson A.W.. Electromagnetic Scattering by Surface of Arbitrary Share..// IEEE Transactions on antennas and propagation. Vol. Ap-30. Pp 409-417, May 1982.

4. Медведик М.Ю., Смирнов Ю.Г. Субиерархический параллельный вычислительный алгоритм и сходимость метода Галеркина в задачах дифракции электромагнитного поля на плоском экране // Известия высших учебных заведений.

Поволжский регион. Естественные науки. – 2004. – № 5. – С.

3–19.

5. Медведик М. Ю., Родионова И. А. Субиерархический параллельный вычислительный метод для электромагнитной задачи дифракции в экранированных слоях, связанных через отверстие // Труды международного симпозиума "Надежность и качество". Том 1. 2006. С. 272-274.

6. Антонов А. В., Токарев А. Н. Принципы организации параллельной вычислительной системы с доступом через Интернет // Материалы XIII Международной школы-семинара «Синтез и сложность управляющих систем» (Пенза, 14- октября 2002).

НОВАЯ КОНЦЕПЦИЯ ПРОГНОЗА ЛЕСНОЙ ПОЖАРНОЙ ОПАСНОСТИ И ЛАНДШАФТНОЕ РАСПАРАЛЛЕЛИВАНИЕ Н.В. Барановский ОСП НИИ прикладной математики и механики Томского государственного университета Введение Лесные пожары наносят огромный экономический и экологический ущерб. В настоящее время широко известны следующие методики прогноза лесной пожарной опасности – канадская [1] и американская [2] системы, европейская система [3] и критерий Нестерова [4], который с 1999 года используется в качестве ГОСТа [5] на территории РФ. Большинство методов базируется на метеоданных, которые получают с метеостанций или с помощью спутникового зондирования [6]. Ни первый, ни второй варианты не позволяют проводить прогнозных расчетов, а только позволяют оценивать текущую пожарную опасность лесопокрытых территорий.

Новая концепция прогноза лесной пожарной опасности Анализ обстановки в области охраны лесов от пожаров позволяет выделить основные узкие места существующего подхода к прогнозированию лесной пожарной опасности.

Существующие методы прогноза лесной пожарной опасности не учитывают физико-химические процессы сушки и зажигания слоя ЛГМ, которые являются одними из определяющих в наступлении пожарной опасности.

На больших малоосвоенных территориях, как правило, имеется лишь редкая и неразвитая сеть метеостанций, а в настоящий момент именно эта информация используется для оценки пожарной опасности по существующему ГОСТу.

Факторы антропогенной нагрузки и грозовой активности должным образом не учитываются.

В системе охраны лесов от пожаров отсутствует вычислительный центр для централизованной обработки исходной информации и выработки прогноза.

Чтобы ликвидировать данные недостатки, предлагается новая концепция прогноза лесной пожарной опасности [7]. Входная информация по метеопараметрам генерируется в программах, реализующих глобальные [8] или региональные [9] модели атмосферы, и поступает в качестве входной в подсистемы оценки вероятности возникновения лесных пожаров по метеоусловиям и сценариям зажигания. Данная идея предложена автором в 2003 году [10].

Отметим, что годом позже такой же подход был предложен в работе американских исследователей [11]. Следует разработать систему усвоения данных об уровне антропогенной нагрузки (С.У.Д.А.Н.) [12] на контролируемой лесопокрытой территории, чтобы учесть пространственно-временной характер антропогенной нагрузки.

Информация из систем пеленгации разрядов облако-земля [13] поступает в качестве входной в модель. В итоге детерминированно вероятностная модель [14] позволяет определить вероятность возникновения лесных пожаров. Предполагается создание общегосударственного центра мониторинга лесной пожарной опасности, где собирается исходная информация и в результате генерируется и направляется заинтересованным потребителям прогнозная информация. В центре функционирует многопроцессорная вычислительная система МВС, которая будет являться ядром всей информационно-вычислительной системы. Вся система может быть и распределенной, главное, чтобы была осуществима оперативная передача информации из различных подсистем для обработки на МВС.

Ландшафтное распараллеливание и прогноз лесных пожаров В аналитическом обзоре [15] представлены последние данные – в России 1807 лесхозов, 7851 лесничество, в каждом лесничестве более 100 кварталов, в каждом квартале может быть до 100 выделов (однородных участков). Необходимо применять МВС, и необходима разработка соответствующего проблемно-ориентированного подхода ландшафтного распараллеливания для прогноза лесной пожарной опасности на крупных лесопокрытых территориях, который бы базировался на трех основах: физически содержательная методика определения вероятности лесопожарного происшествия (в данном случае – возникновение лесного пожара), использование достаточно дешевых МВС, существующая структура устройства лесного хозяйства [16]. Сформулированы основные положения подхода ландшафтного распараллеливания [17].

Математическая постановка должна быть такой, чтобы расчеты для каждого отдельного однородного участка леса не зависели от других участков леса. Другими словами, необходимо разработать математическую постановку, которая бы позволяла вести расчет отдельно по всем выделам.

Однородный участок леса должен совпадать с однородными участками леса, принятыми в лесотаксационных описаниях [16].

Отсюда берет свое начало термин «ландшафтное распараллеливание».

Для обеспечения более или менее равномерной вычислительной загрузки процессорных узлов МВС необходимо использовать модель распараллеливания по данным [18]. В MPI, например, может быть использована SPMD-модель вычислений [19]. Хотя равномерная загрузка данными не всегда обеспечивает равномерность вычислительной загрузки.

Возможность обеспечивать высокую производительность (быстродействие) параллельной программы на как можно большем количестве МВС, различных по архитектуре, имеющих при этом хорошее соотношение цена/производительность, доступность и массовое распространение.

Обеспечение как можно меньшего количества обменов информационными пакетами между ветвями параллельной программы в процессе ее выполнения, так как основное узкое место МВС - это коммуникационная среда, применяемая для связи между процессорными узлами. Таким образом, самым оптимальным вариантом по критерию цена/производительность можно считать кластерные вычислительные системы, имеющие, однако, очень низкие показатели скорости обмена между процессорными узлами. Это и обусловливает необходимость как можно меньшего числа обменов и обеспечения возможности перекрытия вычислений и обменов.

Обеспечение однозначного отображения административно хозяйственного, лесотаксационного разделения лесного фонда государства (по крайней мере, Российской Федерации) на архитектуру МВС. Разбиение лесного фонда по выделам и распределение вычислительной нагрузки по процессорным узлам МВС.

С учетом сформулированных выше положений ландшафтного распараллеливания был разработан ряд различных по сложности математических моделей для определения времени сушки слоя ЛГМ.

Их применение позволяет обеспечить равномерность вычислительной нагрузки, высокую производительность и возможность использования недорогих МВС (вычислительных кластеров).

В случае когда вычислительная система состоит из одного узла (М=1), время выполнения цикла - To=pNV/c, где р - количество операций, необходимых для вычисления одной итерации цикла, NV число итераций цикла, с - производительность узла. Тогда, если NV М и NV делится нацело на М, на каждом процессоре выполняется NV/M итераций цикла и время выполнения цикла равно TM=pNV/(Mc).

Определим ускорение SM через отношение T0 к TM и в итоге получим:

SM=M. Эта формула для ускорения справедлива при полном отсутствии потерь. Под эффективностью понимается отношение T E = 0, которая в данном случае будет равна единице, так как не MTM учитываются потери.

Если NV не делится нацело на М, то задача об оптимальном распределении итераций цикла по процессорным узлам системы является задачей целочисленного программирования и, как отмечено в [20], не всегда имеет точное решение. Рассмотрим здесь следующую эвристику: сначала [NV/M] итераций равномерно распределяются по узлам, затем количество оставшихся итераций распределяется на NV-[NV/M]M процессорных узлов, что приведет к тому, что на некоторых узлах будет больше итераций.


Кроме того, перед выполнением цикла, как правило, необходимо разослать исходные данные по узлам вычислительной системы, а после выполнения цикла необходимо собрать результаты с процессорных узлов. Время, которое необходимо на выполнение указанных действий, обозначим через T'M. Если NV не делится нацело на М, а при распределении данных по узлам была использована некоторая эвристика, то на часть узлов попадут "лишние" данные [20], время обработки которых тоже присоединим к Т'M. В итоге время выполнения параллельного цикла равно TM=T0M+T'M=T0M+MT0M, где T0M - время выполнения параллельного цикла при отсутствии потерь, а M=T'M/T0M. Таким образом, с учетом потерь ускорение равно SM=M/(1+M). Когда необходимо учитывать потери, эффективность вычисляется по формуле T T E= 0 = ( ) MTM M TM + M TM 0 и будет равна 1/(1+M).

Расчеты проводились на вычислительном кластере Томского государственного университета. Технические характеристики:

18 процессоров Pentium III 650 MHz, 2.5 Гб ОЗУ, 36 Гб дискового пространства, Fast Ethernet. Программное обеспечение: операционная система FreeBSD 4.2, кластерный пакет LAM MPI v 6.3.2. Кроме того, был создан и запущен в эксплуатацию вычислительный кластер на базе компьютеров локальной вычислительной сети кафедры [17], который состоит из 4-х однопроцессорных компьютеров на базе процессоров Intel Pentium III 800 МГц. На компьютерах установлено по 128 Мб оперативной памяти и жесткий диск на 20 GB. Компьютеры объединены с помощью сетевой технологии Ethernet. Для организации параллельных вычислений на кластере установлен кластерный пакет LAM MPI 6.5.1. Узлы кластера в одно и то же время могут использоваться как в качестве пользовательских станций, так и непосредственно для проведения вычислений.

Реализация параллельной программы осуществляется на языке программирования Си с применением функций библиотеки передачи сообщений MPI. Алгоритм параллельной программы: исходные данные разрезаются и рассылаются корневым процессом параллельной программы. Затем на каждом узле параллельная программа обрабатывает свою часть данных. Межпроцессорных обменов нет, распараллеливание организовано крупнозернистыми блоками. По окончании вычислений корневой процесс собирает результаты со всех процессорных узлов и сохраняет их в файле результатов. Разработаны масштабируемые параллельные программы (число задействованных процессоров является параметром программы).

Проанализировав полученные результаты, можно сделать вывод о том, что алгоритм рассматриваемой задачи очень хорошо подходит для параллельной реализации на МВС. В результате имеет место ускорение, практически пропорциональное числу задействованных процессоров МВС. Эффективность практически не зависит от числа задействованных процессоров, так как в процессе работы программы нет межпроцессорных передач данных. Установлено, что падение производительности невелико и M [1,16]( M ) = 0,09.

max Следует заметить, что несмотря на применение эвристики для распределения данных в случае, когда NV не делится нацело на M (статическая эвристика с предварительным распределением перед началом выполнения параллельного цикла), это не приводит к заметной разбалансировке вычислительной нагрузки и нет необходимости применять средства динамической перебалансировки вычислительной нагрузки в процессе выполнения параллельной программы. Рассылка и сбор данных корневым процессом параллельной программы технически реализованы посредством векторных вариантов функций рассылки и сбора данных библиотеки MPI.

Подход ландшафтного распараллеливания является проблемно ориентированным, но в пределах области своего приложения достаточно гибок и универсален. Разработаны прототип аппаратно программного комплекса для лесопожарного мониторинга крупных лесопокрытых территорий и параллельный программный комплекс прогноза возникновения лесных пожаров на крупных лесопокрытых территориях.

Разработанный аппаратно-программный комплекс (вычислительный кластер, параллельный программный комплекс, сопутствующее методическое обеспечение) использовался в 2002 году в учебном и научно-исследовательском процессах на кафедре физической и вычислительной механики ММФ ТГУ.

Заключение В рамках новой концепции прогноза лесной пожарной опасности разработан проблемно-ориентированный подход ландшафтного распараллеливания. Как показал анализ результатов проведенного исследования, данный подход очень эффективен при решении задач лесопожарного созревания слоя ЛГМ, определения вероятности возникновения лесных пожаров, оценки экологических последствий лесных пожаров. Параллельная программа достигает практически максимально возможного ускорения, когда ускорение практически пропорционально числу задействованных процессоров.

Литература 1. Stocks B.J., Alexander M.E., McAlpine R.S. et al. Canadian Forest Fire Danger Rating System. Canadian Forestry service, 1987.

500 p.

2. Курбатский Н.П., Костырина Т.В. Национальная система расчета пожарной опасности США // Сб. «Обнаружение и анализ лесных пожаров». Красноярск: ИЛиД СО АН СССР, 1977. С. 38–90.

3. Camia A., Barbosa P., Amatulli G., San-Miguel-Ayanz J. Fire Danger Rating in the European Forest Fire Information System (EFFIS): Current developments // Forest Ecology and Management. 2006. Vol. 234. Supplement 1. P. S20.

4. Нестеров В.Г. Горимость леса и методы ее определения. М.;

Л.: Гослесбумиздат, 1949. 76 с.

5. ГОСТ Р 22.1.09-99 “Мониторинг и прогнозирование лесных пожаров. Общие требования”.

6. Сухинин А.И., Пономарев Е.И. Картирование и краткосрочное прогнозирование пожарной опасности в лесах Восточной Сибири по спутниковым данным // Сибирский экологический журнал. 2003. № 6. С. 669 – 675.

7. Барановский Н.В. Новая концепция прогноза лесной пожарной опасности // Современные методы математического моделирования природных и антропогенных катастроф:

Тезисы IX Всероссийской конференции (17–22 сентября г., Барнаул). – Барнаул: Изд-во Алт. ун-та, 2007. С. 13.

8. Толстых М.А. Полулагранжева модель атмосферы с высоким разрешением для численного прогноза погоды // Метеорология и гидрология, 2001, № 4, С. 5 – 15.

9. Lixiang Z., Xiaoshan Z., Yongzuo L., Jinggui W. Case study on tropical cyclone track prediction with MM5 // Journal of Nanjing Institute of Meteorology. Nanjing, China, 2000. Vol. 23. N 1. P. – 80.

10. Барановский Н.В., Гришин А.М., Лоскутникова Т.П.

Информационно-прогностическая система определения вероятности возникновения лесных пожаров // Вычислительные технологии. 2003. № 2. С. 16 – 26.

11. Hoadley J.L., Westrick K.J., Ferguson S.A., Goodrick S.L., Bradshaw L., Werth P.A. The effect of increased model resolution in predicting meteorological parameters used in fire danger rating // Journal of Applied Meteorology. 2004. Vol. 43. P. 1333 – 1347.

12. Барановский Н.В. Математические основы системы усвоения данных об уровне антропогенной нагрузки на контролируемой лесопокрытой территории // Наука на рубеже тысячелетий “Progressive technologies of development”: 3-я Международная научно-практическая конференция: 24 – 25 ноября 2006 г.

Тамбов: ОАО “Тамбовполиграфиздат”, 2006. С. 120 – 121.

13. Cummins K.L., Murphy M.J., Bardo E.A., Hiscox W.L., Pyle R.B., Pifer A.E. A combined TOA/MDF technology upgrade of the U.S.

national lightning detection network // Journal of Geophysical Research. 1998. Vol. 103. P. 9035–9044.

14. Барановский Н.В. Математическое моделирование наиболее вероятных сценариев и условий возникновения лесных пожаров: Дисс. … канд. физ.-мат. наук. Томск: Томский государственный университет, 2007. 153 с.

15. Исаев А.С., Коровин Г.Н., Титов С.П. и др. Экологические проблемы поглощения углекислого газа посредством лесовосстановления и лесоразведения в России:

Аналитический обзор. М.: Центр экологической политики, 1995. 156 с.

16. Проект организации и развития лесного хозяйства Тимирязевского мехлесхоза Томского лесохозяйственного территориального производственного объединения министерства лесного хозяйства РСФСР. Том III.

Таксационные описания Тимирязевского лесничества. Книга 3. Кварталы 91-145. Инв. № 390. Томск: Гослезхоз СССР.

Всесоюзное объединение "Леспроект". Западно-Сибирское лесоустроительное предприятие, 1990. 400 с.

17. Барановский Н.В. Ландшафтное распараллеливание и прогноз лесной пожарной опасности // Сибирский журнал вычислительной математики. 2007. Том 10. № 2. С. 141–152.

18. Малышкин В.Э. Основы параллельных вычислений: Учеб.

пособие. Новосибирск: Изд-во НГТУ. 1998. 60 с.

19. Snir M., Otto S.M., Huss-Lederman S. et al. MPI: The Complete Reference. - Boston: MIT Press. 1996.

20. Аветисян А.И., Гайсарян С.С., Самоваров О.И. Возможности оптимального выполнения параллельных программ, содержащих простые и итерированные циклы, на неоднородных параллельных вычислительных системах с распределенной памятью // Программирование. № 1. 2002. С.

38 – 54.

О ПРАКТИЧЕСКОМ ПРИМЕНЕНИИ ПАРАЛЛЕЛЬНОЙ СИСТЕМЫ ОПТИМИЗАЦИИ ABSOLUTE EXPERT К.А. Баркалов Нижегородский государственный университет Введение Работа выполнена в рамках совместного проекта «Быстрые вычисления в глобальной оптимизации: последовательные и параллельные среды» между ННГУ и Технологическим университетом г. Делфта, Нидерланды (TUDelft). Задачами проекта являлись разработка параллельной системы глобальной оптимизации и ее использование для решения вычислительно-трудоемких задач на высокопроизводительных кластерных системах. Инженерным приложением являлась задача поиска оптимального профиля колеса для рельсовых видов транспорта: метро, трамвай и т.п.

Содержательная постановка задачи Рассматривается задача оптимизации профиля рельсового колеса ([1], [2]). Вследствие конической формы колеса центр колесной пары совершает синусоидальные движения (см. рис. 1). Кинематические свойства контакта колеса с рельсом, такие как радиус вращения, угол контакта и угол наклона колесной пары, варьируются при поперечном – относительно рельса – смещении колесной пары. Зависимость между этим изменениями и поперечной позицией колесной пары определяется профилем колеса и рельса.

Рис. Важной характеристикой контакта колеса и рельса является радиус вращения колеса в контактной точке. Фактически радиус может быть разным для правого и левого колес, так как колесная пара смещается по рельсу (радиусы r1 и r2 соответственно на рис. 2).

Рис. Когда колесная пара находится в центральной позиции, радиусы вращения левого и правого колес совпадают, т.е. r 1 = r 2 = r. Отличие между радиусами вращения левого и правого колес может быть определено как функция бокового смещения y колесной пары по отношению к ее центральной позиции r(x)=r1(x)r2(x).

Математическая модель Профиль колеса описывается с помощью B-сплайна, для построения которого выбирается множество точек на кромке, основании кромки и поверхности качения колеса (рис. 3). Положение этих точек может варьироваться с целью изменения профиля. Для уменьшения трудоемкости задачи оптимизации положение точек на верху кромки и конической части профиля фиксируется, так как эти части колесного профиля не участвуют в контакте с рельсом.

Рис. В качестве компонент вектора y параметров задачи оптимизации выбраны ординаты z i подвижных точек сплайна, т.е.

y=[z1,…,zN], при этом абсциссы данных точек фиксированы.

В рассматриваемой задаче число подвижных точек – следовательно, и число переменных – составляет N=11, границы изменения параметров [–1, 1];

минимизируется разность радиусов вращения r(x), а ограничения вводятся из соображений устойчивости (например, одно из ограничений наложено на максимальный угол наклона колесной пары).

Таким образом, возникает задача оптимизации с числом параметров N=11, числом ограничений m=6;

целевая функция и функции ограничений – многоэкстремальные. Для иллюстрации на рис. 4 приведено одномерное сечение целевой функции.

Рис. Указанная задача является вычислительно-трудоемкой: проверка ограничений задачи и вычисление значения целевой функции в одной точке занимает 20 сек. (Pentium IV, 3 ГГц). Для функции с такой вычислительной трудоемкостью определение значения градиента в точке занимает 7 минут, что делает весьма затратным применение методов оптимизации, основанных на идее градиентного спуска.

В Технологическом университете г. Делфта для решения задачи применялась система оптимизации MARS (см. [3]). В данной системе решение исходной задачи оптимизации сводится к решению последовательности задач квадратичного программирования. Тем самым гарантируется сходимость, вообще говоря, лишь к локально оптимальному решению исходной многоэкстремальной задачи. С помощью системы MARS было получено локально-оптимальное решение, которому соответствует значение *=3.89 целевой функции.

Параллельная система оптимизации Absolut Expert С целью получения глобально-оптимального решения задачи была использована параллельная система оптимизации Absolut Expert, разработанная на кафедре МО ЭВМ факультета ВМК ННГУ. В основе алгоритмов, реализованных в системе, лежит индексный метод глобальной оптимизации, разработанный под руководством Стронгина Р.Г. (см. [4] – [8]).

Рассмотрим общую постановку задачи оптимизации =(y)=min{(y): yD, gj(y)0, 1jm}, (1) D={yRN: aiyibi, 1iN}, целевая функция (y) и левые части ограничений gj(y),1jm, предполагаются липшицевыми с соответствующими константами Lj,1jm+1.

Используя кривые типа развертки Пеано y(x), однозначно отображающие отрезок [0,1] на N-мерный гиперкуб D D={yRN: 21yi21, 1iN}={y(x): 0x1}, исходную задачу можно редуцировать к следующей одномерной задаче:

(y(x))=min{(y(x)): x[0,1], gj(y(x))0, 1jm}.

Редукция многомерных задач к одномерным с помощью разверток имеет такие важные свойства, как непрерывность и сохранение равномерной ограниченности разностей функций при ограниченности вариации аргумента. Однако при этом происходит потеря части информации о близости точек в многомерном пространстве, ибо точка x[0,1] имеет лишь левых и правых соседей, а соответствующая ей точка y(x)RN имеет соседей по 2N направлениям. Как результат, при использовании отображений типа кривой Пеано близким в N-мерном пространстве образам y', y'' могут соответствовать достаточно далекие прообразы x', x'' на отрезке [0,1].

В работе [5] предложен возможный способ преодоления этого недостатка, идея которого заключается в одновременном использовании множественных отображений YL(x)={y1(x),…, yL(x)} вместо применения единственной кривой Пеано y(x), что сводит одну многомерную задачу к нескольким связанным одномерным задачам.

Каждая кривая Пеано yi(x) из YL(x) может быть получена в результате некоторого сдвига вдоль главной диагонали гиперинтервала D. Таким образом сконструированное множество кривых Пеано позволяет получить для любых близких образов y', y'', отличающихся только по одной координате, близкие прообразы x', x'' для некоторого отображения yi(x).

Использование множества отображений приводит к формированию соответствующего множества одномерных многоэкстремальных задач (2) min{(yl(x)):x[0,1], gj(yl(x))0, 1jm}, 1lL.

Каждая задача из данного набора может решаться независимо, при этом любое вычисленное значение z=g(y'), =(y'), y'=yi(x') функции g(y) в i-й задаче может интерпретироваться как вычисление значения z=g(y'), =(y'), y'=ys(x'') для любой другой s-й задачи без повторных трудоемких вычислений функции g(y).

Подобное информационное единство дает возможность решать исходную задачу (1) путем параллельного решения индексным методом L одномерных задач вида (2) на наборе отрезков [0,1]. Каждая одномерная задача (или группа задач при недостаточном количестве процессоров) решается на отдельном процессоре. Результаты испытания в точке xk, полученные конкретным процессором для решаемой им задачи, интерпретируются как результаты испытаний во всех остальных задачах (в соответствующих точках xk1,…,xkL).

Подробное описание решающих правил параллельного алгоритма глобальной оптимизации см. в работе [8].

Результаты экспериментов Задача решалась на вычислительном кластере из 4 компьютеров (Pentium IV, 3 ГГц, сеть 100 Мбит, под управлением WindowsXP, использовался MPI в реализации MPICH 1.2.5) с помощью параллельного индексного метода с множественной разверткой. Число разверток соответствовало числу процессоров L=4.

С помощью системы Absolute Expert было получено решение *=3.94, которое было локально уточнено до значения *=3.86. Всего для получения решения потребовалось 26 часов машинного времени, при этом функционалы задачи были оценены в 4297 точках. Расчеты, проведенные специалистами TUDelft для колеса оптимизированного профиля, показали, что его ресурс возрос до 120000 км пробега (более чем в пять раз по сравнению с колесом оригинального профиля), а максимально допустимая скорость – с 40 до 60 м/сек.

Результаты работы используются в Технологическом университете г. Делфта (Нидерланды).

Работа выполнена при финансовой поддержке РФФИ (номер проекта 07-01-00467) и Нидерландской организации по научным исследованиям (the Netherlands Organisation for Scientific Research), номер проекта 047.016.014.

Литература 1. Shevtsov I.Y., Markine V.L., Esveld C. Optimal design of wheel profile for railway vehicles // Proceedings 6th International Conference on Contact Mechanics and Wear of Rail/Wheel Systems, Gothenburg, Sweden, June 10 – 13, 2003. Pp. 231 – 236.

2. Shevtsov I.Y., Markine V.L., Esveld C. An inverse shape design method for railway wheel profiles. Structural and Multidisciplinary Optimization. Volume 33, № 3, Springer Berlin/Heidelberg, 2007.

Pp.243 – 253.

3. Toropov V.V., Keulen F., Markine, V.L., Alvarez L.F. Multipoint Approximations Based on Response Surface Fitting: a Summary of Recent Developments // In V.V. Toropov (Ed.) Proceedings of the 1st ASMO UK/ISSMO Conference on Engineering Design Optimization, Ilkley, West Yorkshire, UK, 1999. Pp. 371 – 381.

4. Стронгин Р.Г. Поиск глобального оптимума. М.: Знание, 1990.

5. Стронгин Р.Г. Параллельная многоэкстремальная оптимизация с использованием множества разверток// Ж.

вычисл. матем. и матем. физ. 1991. Т.31. №8. С. 1173 – 1185.

6. Стронгин Р.Г., Баркалов К.А. О сходимости индексного алгоритма в задачах условной оптимизации с резервированными решениями// Математические вопросы кибернетики. М.: Наука, 1999. С. 273 – 288.

7. Баркалов К.А. Ускорение сходимости в задачах условной глобальной оптимизации. Нижний Новгород: Изд-во Нижегородского гос. ун-та, 2005.

8. Strongin R.G., Sergeyev Ya.D. Global optimization with non convex constraints. Sequential and parallel algorithms. Kluwer Academic Publishers, Dordrecht, 2000.

ВЕБ-СЕРВИС ПОСТРОЕНИЯ НАГЛЯДНЫХ СХЕМ ПРОЦЕССОВ В ПРОГРАММАХ НА ЯЗЫКЕ OCCAM В.Н. Белов, А.С. Сарайкин Пензенский государственный университет Введение Параллельные вычисления уже долгое время являются одной из приоритетных областей научных и практических исследований для вычислительной техники. Постоянно создаются новые и совершенствуются существующие аппаратные и программные средства для более эффективного решения задач. Одним из таких программных средств является язык Occam.

Язык программирования Occam — это процедурный язык параллельного программирования высокого уровня, разработанный группой учёных из Оксфорда в рамках работ по созданию транспьютеров.



Pages:   || 2 | 3 | 4 | 5 |   ...   | 10 |
 

Похожие работы:





 
© 2013 www.libed.ru - «Бесплатная библиотека научно-практических конференций»

Материалы этого сайта размещены для ознакомления, все права принадлежат их авторам.
Если Вы не согласны с тем, что Ваш материал размещён на этом сайте, пожалуйста, напишите нам, мы в течении 1-2 рабочих дней удалим его.