Сложность
Сложность
Продвинутый
Тип обучения
Тип обучения
Курс
Формат обучения
Формат обучения
С проверкой домашнего задания
Сертификат
Сертификат
Да

Стоимость курса

40 000 ₽
нет рассрочки

Целью реализации программы является базовая подготовка лиц, желающих получить знания и навыки работы в области разработки высокоэффективных приложений для суперкомпьютеров.

В программе изучаются основные понятия и принципы построения суперкомпьютерных систем,  архитектура и  функциональные возможности системного  программного обеспечения суперкомпьютеров,  технологии параллельного программирования MPI и OpenMP, методы отладки и настройки эффективности  параллельных программ для суперкомпьютеров с использованием технологий передачи сообщений MPI и OpenMP.

Особое внимание уделяется  изучению и практическому освоению изучаемых технологий и используемых методов построения параллельных программ на примере суперкомпьютеров, установленных в МГУ: системах «Ломоносов» и Blue Gene/P. В частности, изучаются  особенности использования современных компиляторов для языков программирования C, C++, Fortran, установленных на этих системах, использованию параллельных математических библиотек, инструментальных систем для отладки и настройки эффективности параллельных программ, методы организации параллельной работы с файлами. 

Форма обучения
Очная

Объем программы (академические часы)
Всего - 72
Аудиторных - 60

Требования для поступления: лица с высшим образованием, сфера профессиональной деятельности – научные работники в области информационно-коммуникационных технологий, математического моделирования с применением средств высокопроизводительных вычислительных систем, преподаватели высших учебных заведений, инженерно-технические работники организаций, связанных с использованием высокопроизводительной вычислительной техники.

Результаты обучения:

Владение  технологиями параллельного программирования MPI и OpenMP, работой с суперкомпьютером и  информационными сетями; понимание принципов построения архитектур суперкомпьютеров и их программного обеспечения, владение основными методами и средствами разработки параллельных программ для суперкомпьютеров .

В результате освоения курса слушатель должен:

знать:

·         основы методов разработки параллельных программ для суперкомпьютеров;

·         принципы построения архитектур суперкомпьютеров;

·         спецификацию технологии параллельного программирования MPI-1 и MPI-2,   состав и особенности различных открытых библиотек, реализующих стандарты MPI;

·         директивы и функции OpenMP;

·         основные понятия и директивы систем управления заданиями для суперкомпьютеров;

·         методы удаленного доступа к суперкомпьютерам, протоколы ssh и ftp для удаленного доступа и копирования информации;

·         методы оценки эффективности параллельных программ 

уметь:

·         эффективно применять изученные технологии в практике разработки параллельных программ для суперкомпьютеров «Ломоносов» и Blue Gene/P.

Владеть технологиями разработки параллельных программ для суперкомпьютеров.

Вас будут обучать

Образовательная организация

Общая информация

  • Программы дополнительного образования МГУ
  • Открытые лектории в Московском университете
  • «МГУ — школе»
  • «Университет без границ»
  • Подготовка к поступлению
  • Школы юных, кружки и образовательные курсы для школьников при факультетах МГУ
  • Общеуниверситетские подготовительные курсы
  • Подготовительные курсы факультетов МГУ (бакалавриат, специалитет, магистратура)
  • Мероприятия для школьников в музеях МГУ

Нормативные документы

  • Приказ Минобрнауки России от 1 июля 2013 г. №499 «Об утверждении Порядка организации и осуществления образовательной деятельности по дополнительным профессиональным программам»
  • Положение о повышении квалификации работников МГУ

Программа курса

Модуль 1. Введение в тематику высокопроизводительных вычислений.

1.1. Базовые определения и основные понятия.

1.2. Обоснование необходимости разработки суперкомпьютеров. Задачи «большого вызова».

1.3. Основные направления развития суперкомпьютерных технологий. Проблемы экзафлопных вычислений.

1.4. Примеры задач

2. Принципы построения архитектур высокопроизводительных вычислительных систем.

2.1. Основные элементы архитектур многопроцессорных вычислительных систем.

2.1.1. Процессорные узлы. Примеры реализаций.

2.1.2. Многоуровневая организация  памяти суперкомпьютеров.

2.1.3. Методы реализации подсистем связи процессорных узлов.

2.1.4. Методы аппаратной организации систем ввода-вывода.

2.2. Обзор архитектур многопроцессорных вычислительных систем.

2.2.1. Многопроцессорные системы с общей памятью.

2.2.2. Многопроцессорные системы с распределенной памятью.

2.2.3. Неоднородные высокопроизводительные вычислительные системы

2.2.4. Массивно-параллельные вычислительные системы.

2.2.5. Кластерные системы.

2.3. Методы оценки производительности вычислительных систем.

2.4. Тенденции развития высокопроизводительных вычислительных систем. Закон Мура.  Список Top500 и Top50.

2.5. Примеры архитектур высокопроизводительных вычислительных систем.

2.5.1. Архитектура суперкомпьютера МГУ «Ломоносов»

2.5.2. Архитектура многопроцессорной системы с разделяемой памятью IBM      Regatta.

2.5.3. Архитектура массивно-параллельной вычислительной системы BlueGene/P

3. Основные элементы программного обеспечения многопроцессорных вычислительных систем.

3.1. Операционные системы .

3.2.  Параллельные файловые системы.

3.3.  Системы управления заданиями.

3.4.  Параллельные математические библиотеки.

3.5. Системы программирования и инструментальные среды для разработки и отладки параллельных программ.

3.6. Программное обеспечение суперкомпьютеров «Ломоносов»,BlueGene/P.

Модуль 2.  Основы технологии OpenMP.

2.1 Базовые понятия. Вспомогательные функции. Параллельные и последовательные области. Распределение работ. Параллельные циклы.

2.2  Параллельные секции. Задачи. Способы синхронизации.

Модуль 3. Основы технологии передачи сообщений MPI.

3.1. Стандарты MPI: реализации, направления развития.

3.2.  Основные понятия, принципы построения параллельных программ с использованием технологии MPI.

3.3. Понятие о режимах передачи сообщений.

3.4. Организация двухточечных обменов.

3.5. Коллективные операции MPI.

3.6. Производные типы данных.

3.7.  Виртуальные топологии и операции над коммуникаторами.

3.8. Интеркоммуникаторы. Односторонние коммуникации. Обработка ошибок.

3.9. Динамическое управление процессами. Параллельный ввод/вывод.

Рейтинг курса

2.7
рейтинг
0
0
0
0
0

Может быть интересно

обновлено 20.11.2024 09:47
«Высокопроизводительные вычислительные системы и приложения»

«Высокопроизводительные вычислительные системы и приложения»

Оставить отзыв
Поделиться курсом с друзьями