Издается с 1978 года
в г. Сарове (Арзамас-16) Нижегородской области

РОССИЙСКИЙ ФЕДЕРАЛЬНЫЙ
ЯДЕРНЫЙ ЦЕНТР -
ВСЕРОССИЙСКИЙ НИИ
ЭКСПЕРИМЕНТАЛЬНОЙ ФИЗИКИ
 
 Русский |  English
О ЖУРНАЛЕ РЕДКОЛЛЕГИЯ ПУБЛИКАЦИОННАЯ ЭТИКА ПРАВИЛА ДЛЯ АВТОРОВ АВТОРЫ АРХИВ ПОСЛЕДНИЙ ВЫПУСК СЛЕДУЮЩИЙ ВЫПУСК СТАТЬЯ ГОДА




Численные исследования алгоритмов распараллеливания трехмерных задач диффузии и переноса нейтронов в комплексе САТУРН на многопроцессорных ЭВМ

Алексеев А. В., Софронов И. Д., Федотова Л. П., Шагалиев Р. М.
Вопросы атомной науки и техники. Сер. Математическое моделирование физических процессов. Тезисы докл. Междунар. математич. конф 1997. Вып.1. С. 3.

      В работе рассматриваются алгоритмы распараллеливания решения трекерных групповых задач диффузии и переноса нейтронов на многопроцессорных ЭВМ с распределенной памятью. Данные алгоритмы реализованы в комплексе САТУРН, предназначенном для численного решения трехмерных стационарных и нестационарных задач нейтронно-ядерного взаимодействия и переноса нейтронов в групповом диффузи-онном и кинетическом приближении.
      Алгоритм распараллеливания уравнения диффузии основан на разбиении системы по пространству на подобласти с использованием итерационного процесса по внутренним граничным условиям специального вида, обеспечивающим безусловную сходимость итерационного процесса.
      Алгоритм распараллеливания уравнения переноса является безитерационным и основан на использовании схемы конвейерного типа с последовательной загрузкой процессоров.
      Приводятся результаты тестирования алгоритмов распараллеливания на отечественной 8-процессорной системе МП-3, а также на зарубежных многопроцессорных (до 256 процессорных элементов) системах с распределенной памятью Cray T3D и IBM SP2.



Распараллеливание вычислений по счетным областям при решении задач механики сплошной среды на 8-процессорной вычислительной системе МП-3 с распределенной памятью

Бондаренко Ю. А., Винокуров О. А., Змушко В. В., Плетенев Ф. А., Рыбаченко П. В., Сараев В. А., Софронов И. Д.
Вопросы атомной науки и техники. Сер. Математическое моделирование физических процессов. Тезисы докл. Междунар. математич. конф 1997. Вып.1. С. 12.

      В докладе приведены результаты работы, выполненной в комплексе программ МИМОЗА, по распараллеливанию вычислений при решении двумерных уравнений газовой динамики и теплопроводности на 8-процессорной вычислительной системе МП-3. Область решения разбивается на подобласти, число которых равно числу процессоров. При решении уравнений газовой динамики соседние подобласти имеют общие пересекающиеся части, через которые осуществляется обмен между процессорами. При распараллеливании вычислений решения двумерного уравнения теплопроводности используется конвейерный алгоритм, а также алгоритм с транспонированием. Приведены результаты двух расчетов.



Конструирование разностных схем для расчета многомерных нестационарных упругопластических течений на основе закона взаимного превращения кинетической и внутренней энергии

Делов В. И., Сенилова О. В., Софронов И. Д.
Вопросы атомной науки и техники. Сер. Математическое моделирование физических процессов. Тезисы докл. Междунар. математич. конф 1997. Вып.1. С. 20-21.

      В докладе предложен подход к конструированию консервативных дифференциально-разностных представлений уравнений, описывающих нестационарные упругопластические течения в переменных Лагранжа. Излагаемая методика является развитием двумерной методики построения пространственных аппроксимаций уравнений движения газовой динамики [1,2] для случая упругопластических сред.
      В представленной работе матрица кинетической энергии, определяющая способ аппроксимации градиента давления, берется в канонической форме, которая традиционно используется в газодинамических методиках.
      В докладе приведены разностные формулы для компонент тензора скоростей деформаций и полученные по ним разностные аппроксимации для вычисления производных от компонент девиатора напряжений.
      Сообщается о результатах расчетов по разностным схемам, в которых сеточное распределение величин по времени берется, как это принято в методике Д [3], и производная по времени аппроксимируется со вторым порядком. На задаче о колебаниях упругой мембраны показаны несомненные преимущества полученных разностных схем по сравнению с классической схемой Уилкинса.
      1. Исаев В.Н., Софронов И.Д. Конструирование дискретных моделей уравнений газовой динамики на основе законов взаимного превращения кинетической и внутренней энергий сплошной среды // Вопросы атомной науки и техники. Сер. Методики и программы численного решения задач математической физики.1984. Вып. 1(15). С. 3-7.
      3. Дмитриев Н.А., Дмитриева Л.В., Малиновская Е.В., Софронов И.Д. Методика расчета нестационарных двумерных задач газовой динамики в лагранжевых переменных // Теоретические основы и конструирование, численных алгоритмов задач математической физики / Под ред. Бабенко К.И. М.: Наука, 1979.С. 175-200.



Разработка мультипроцессорных вычислительных систем с массовым параллелизмом на основе гиперкубической архитектуры

Новичихин В. А., Пастухов А. В., Гусев В. А., Лякишев А. М., Поповидченко Г. А., Рунич А. А., Софронов И. Д., Степаненко С. А., Тимченко В. Н., Узенцов А. А., Холостов А. А.
Вопросы атомной науки и техники. Сер. Математическое моделирование физических процессов. Тезисы докл. Междунар. математич. конф 1997. Вып.1. С. 30-31.

      Мультипроцессор МП-Х класса MIMD (разные потоки команд над разными потоками данных) из 2x-процессорных элементов является функциональным модулем, предназначенным для выполнения параллельных вычислений.
      В основе проекта МП-Х — следующие концепции:

- комплексирование мультипроцессора МП-Х с универсальной ЭВМ Y (HOST-машиной), позволяющее совместить преимущества параллельной, векторной и скалярной обработки при выполнении программ, содержащих нераспараллеливаемые участки;
- адаптируемость структуры связей мультипроцессора (гиперкуб) к алгоритмам решаемых задач (программная эмуляция различных структур межпроцессорных связей);
- модульность конструкции, что позволяет наращивать вычислительную мощность в соответствии с потребностями пользователя (масштабируемость) и упрощает переход на новые микропроцессоры и новые технологии обмена сообщениями;
- аппаратная поддержка алгоритмов маршрутизации для повышения производительности сети межпроцессорного обмена;
- повышенная отказоустойчивость МП-Х, обусловленная резервированием;
- ориентация на распространенные языки программирования с поддержкой стандартных в данной области средств создания параллельных программ.
      Области наиболее эффективного применения МП-X-Y; многомерные задачи математической физики, задачи автоматизации проектирования, обработки изображений, искусственного интеллекта и другие, решение которых требует предельно возможного для данного класса вычислительных машин Y количества операций.
      Изложенные концепции применены в созданных моделях МП-0, МП-3 и положены в основу технического проекта МП-7.
      Описана элементная база существующих и проектируемых моделей ряда МП-Х, а также программное обеспечение, используемое при создании параллельных программ. Приведены результаты выполнения ряда тестовых задач на различных типах аналогичных ЭВМ, включая МЦ-0 и МЦ-3.
      Доклад сопровождался иллюстрациями и демонстрацией действующих образцов.



Математическое моделирование во ВНИИЭФ

Софронов И. Д.
Вопросы атомной науки и техники. Сер. Математическое моделирование физических процессов. Тезисы докл. Междунар. математич. конф 1997. Вып.1. С. 34.

      В докладе освещены следующие вопросы:
      1. Краткая характеристика программ, созданных в период 1985-1995.гг:

- одномерные программы;
- трехмерные программы;
- о моделях учитываемых процессов.
      2. Некоторые особенности созданной технологии расчетов:
- недостаточны мощность парка ЭВМ и требования к методикам, машинам и математикам;
- малое число точек, вопросы достоверности расчетов, различные манеры счета;
- натурные испытания - необходимый элемент технологии расчетов.
      3. Некоторые требования к новой технологии;
- более точные модели физических процессов;
- независимость результатов от исполнителя;
- расчеты на сходимость, доказательность расчетов;
- о математических испытаниях;
- разработка новых алгоритмов, допускающих достаточное распараллеливание.
      4. Техническая база;
- ВСКП;
- современное состояние парка ЭВМ;
- различные классы машин в новом парке ЭВМ;
- параметры желаемой супер-ЭВМ;
- различные пути оснащения машинами.



Методы распараллеливания и параллельная программа численного решения трехмерного уравнения теплопроводности на вычислительных системах (ВС) с распределенной памятью. Результаты численных экспериментов на ВС МП-3 и MEIKO

Софронов И. Д., Воронин Б. Л., Бутнев О. И., Быков А. Н., Скрыпник С. И., Нильсен Д., Новак Д. (мл.), Медсен Н., Эванс Р.
Вопросы атомной науки и техники. Сер. Математическое моделирование физических процессов. Тезисы докл. Междунар. математич. конф 1997. Вып.1. С. 34-35.

      Численное решение трехмерных задач требует предельных вычислительных ресурсов, которые предоставляют массивно-параллельные вычислительные системы (ВС) с распределенной памятью. Успешное использование большой потенциальной мощности таких систем для решения одной задачи возможно лишь после разработки прикладного программного обеспечения, учитывающего параллельную обработку информации.
      В докладе приведены результаты работы по распараллеливанию вычислений при решении трехмерного уравнения теплопроводности. Основным методом численного решения систем трехмерных неявных конечноразностных уравнений является метод расщепления по направлениям. Он позволяет редуцировать сложную многомерную задачу на совокупность более простых, поддающихся реализации на параллельных процессах.
      Разработано два принципиально различных подхода к организации массивно-параллельных вычислений. Первый подход использует перестраиваемую на временном шаге декомпозицию трехмерной матрицы данных и является развитием алгоритмов распараллеливания для многопроцессорных ВС с общей оперативной памятью. Второй, подход основан на использовании неперестраиваемой в пределах временного шага декомпозиции трехмерной матрицы данных.
      Приведены количественные оценки эффективности распараллеливания разработанных алгоритмов; полученные на вычислительных системах МП-3 и Meiko.



 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
[ Возврат ]


 
 
 
© ФГУП "РФЯЦ-ВНИИЭФ", 2000-2024