Автор работы: Пользователь скрыл имя, 27 Декабря 2012 в 15:40, курсовая работа
С момента появления разума на нашей планете его носители старались облегчить свой труд. Исследуя возможность раскапывания корений палкой, люди, скорее всего, не задумывались, что через века это замечательное, новейшее устройство упрощения простых механических операций трансформируется в нечто, способное совершать неподвластные человеческому мозгу операции вычислительные – и упрощать тем самым уже другие исследования. Тем не менее, это произошло. Появление первых электронных вычислителей, а затем и компьютеров позволило людям сделать огромный рывок в научной деятельности, так как стали доступны такие операции и их объемы, на выполнение которых человеческому мозгу требуется время, несопоставимое с понятием «оперативный результат».
Введение 6
1. Суперкомпьютеры 7
1.1 Что такое суперкомпьютер? 7
1.2 Определение суперкомпьютера 10
1.3 Краткая история развития суперЭВМ 12
1.4 Современные направления развития. Архитектуры суперЭВМ 17
1.4.1 Векторно-конвейерные компьютеры 18
1.4.2 Параллельные компьютеры 20
1.4.2.1 Основные формы параллелизма 20
1.4.2.2 Топологии систем MPP 23
1.4.3 Кластерные системы 25
1.4.3.1 Основные виды кластеров 25
1.4.3.2 Преимущества кластерной организации ЭВМ 26
2 Программное обеспечение суперкомпьютеров 31
2.1 Назначение суперкомпьютеров. Области использования 31
2.2 Вычислительная мощность компьютера 33
2.2.1 Вариативность определения ВМ 33
2.2.2 Тесты производительности 34
2.3 Операционная система 35
2.3.1 Linux 35
2.3.2 UNICOS 36
2.3.3 Windows Compute Cluster Server 37
2.4 Организация параллельных вычислений 38
2.5 Прикладное программное обеспечение 39
2.5.1 Наиболее популярные прикладные программные пакеты 39
2.5.2 Программное обеспечение специализированных областей 41
2.5.2.1 Программная система ANSYS 41
2.5.2.2 Программный комплекс STAR-CD 42
2.5.2.3 Программный комплекс LS-DYNA 43
2.5.2.4 Система решения задач NAMD 43
2.5.2.5 Приложение Shake 44
3 Практическая часть 45
Заключение 47
Список литературы 49
Наконец, в последнее время появилась возможность интеграции через Интернет целых организаций. В результате формируются слабо связанные распределенные вычислительные сетки, или решетки. Такие системы только начинают развиваться, но их потенциал весьма высок.
Проблемы,
присущие многопроцессорным системам
с общей памятью, простым и
естественным образом устраняются
в системах с массовым параллелизмом.
Компьютеры этого типа представляют
собой многопроцессорные
|
Рисунок 6 - Архитектура систем с распределенной памятью.
Каждый из узлов состоит из одного или нескольких процессоров, собственной оперативной памяти, коммуникационного оборудования, подсистемы ввода/вывода, т.е. обладает всем необходимым для независимого функционирования. При этом на каждом узле может функционировать либо полноценная операционная система (как в системе RS/6000 SP2), либо урезанный вариант, поддерживающий только базовые функции ядра, а полноценная ОС работает на специальном управляющем компьютере (как в системах Cray T3E, nCUBE2).
Процессоры
в таких системах имеют прямой
доступ только к своей локальной
памяти. Доступ к памяти других узлов
реализуется обычно с помощью
механизма передачи сообщений. Такая
архитектура вычислительной системы
устраняет одновременно как проблему
конфликтов при обращении к памяти,
так и проблему когерентности
кэш-памяти. Это дает возможность
практически неограниченного
Успешно
функционируют MPP (massive parallel processing, «массивно-
На практике все, конечно, гораздо сложнее. Устранение одних проблем, как это обычно бывает, порождает другие. Для MPP систем на первый план выходит проблема эффективности коммуникационной среды. Легко сказать: "Давайте соберем систему из 1000 узлов". Но каким образом соединить в единое целое такое множество узлов? Самым простым и наиболее эффективным было бы соединение каждого процессора с каждым. Но тогда на каждом узле потребовалось бы 999 коммуникационных каналов, желательно двунаправленных. Очевидно, что это нереально. Различные производители MPP систем использовали разные топологии.
1.4.2.2 Топологии систем MPP
В компьютерах Intel Paragon процессоры образовывали прямоугольную двумерную сетку. Для этого в каждом узле достаточно четырех коммуникационных каналов. В компьютерах Cray T3D/T3E использовалась топология трехмерного тора. Соответственно, в узлах этого компьютера было шесть коммуникационных каналов. Фирма nCUBE использовала в своих компьютерах топологию n-мерного гиперкуба (рисунок 7).
Рисунок 7 – Топология гиперкуба
Каждая
из рассмотренных топологий имеет
свои преимущества и недостатки. Отметим,
что при обмене данными между
процессорами, не являющимися ближайшими
соседями, происходит трансляция данных
через промежуточные узлы. Очевидно,
что в узлах должны быть предусмотрены
какие-то аппаратные средства, которые
освобождали бы центральный процессор
от участия в трансляции данных.
В последнее время для
Системы с распределенной памятью идеально подходят для параллельного выполнения независимых программ, поскольку при этом каждая программа выполняется на своем узле и никаким образом не влияет на выполнение других программ. Однако при разработке параллельных программ приходится учитывать более сложную, чем в SMP системах, организацию памяти. Оперативная память в MPP системах имеет 3-х уровневую структуру:
При этом
отсутствует возможность
1.4.3.1 Основные виды кластеров
Один из первых архитекторов кластерной технологии Грегори Пфистер (Gregory F. Pfister) дал кластеру следующее определение: «Кластер — это разновидность параллельной или распределённой системы, которая:
Обычно различают следующие основные виды кластеров:
- отказоустойчивые кластеры (High-availability clusters, HA, кластеры высокой доступности);
- кластеры с балансировкой нагрузки (Load balancing clusters), вычислительные кластеры (Computing clusters);
- GRID- (РИВС-)-системы. В настоящее время распределенную информационно-вычислительную среду (РИВС) принято называть GRID (вычислительная решетка). Распределенная информационно-вычислительная среда состоит, как правило, из разных аппаратно-программных платформ, содержит компьютеры разных классов, в том числе персональные компьютеры, рабочие станции, мейнфреймы, суперЭВМ.
Кластерные технологии стали логическим продолжением развития идей, заложенных в архитектуре MPP систем. Если процессорный модуль в MPP системе представляет собой законченную вычислительную систему, то следующий шаг подсказывает элементарная логика: использовать в качестве таких вычислительных узлов обычные серийно выпускаемые компьютеры. Развитие коммуникационных технологий, а именно, появление высокоскоростного сетевого оборудования и специального программного обеспечения, такого как система MPI, реализующего механизм передачи сообщений над стандартными сетевыми протоколами, сделали кластерные технологии общедоступными. Сегодня не составляет большого труда создать небольшую кластерную систему, типичная схема которой представлена на рисунке 8, объединив вычислительные мощности компьютеров отдельной лаборатории или учебного класса.
Рисунок 8 – Кластерная система
1.4.3.2 Преимущества кластерной организации ЭВМ
Привлекательной
чертой кластерных технологий является
то, что они позволяют для
Конечно,
о полной эквивалентности этих систем
говорить не приходится. Производительность
систем с распределенной памятью
очень сильно зависит от производительности
коммуникационной среды. Коммуникационную
среду можно достаточно полно
охарактеризовать двумя параметрами:
Если говорить кратко, то кластер - это связанный набор полноценных компьютеров, используемый в качестве единого вычислительного ресурса. Преимущества кластерной системы перед набором независимых компьютеров очевидны. Во-первых, разработано множество диспетчерских систем пакетной обработки заданий, позволяющих послать задание на обработку кластеру в целом, а не какому-то отдельному компьютеру. Эти диспетчерские системы автоматически распределяют задания по свободным вычислительным узлам или буферизуют их при отсутствии таковых, что позволяет обеспечить более равномерную и эффективную загрузку компьютеров. Во-вторых, появляется возможность совместного использования вычислительных ресурсов нескольких компьютеров для решения одной задачи.
Для создания кластеров обычно используются либо простые однопроцессорные персональные компьютеры, либо двух- или четырех- процессорные SMP-серверы. При этом не накладывается никаких ограничений на состав и архитектуру узлов. Каждый из узлов может функционировать под управлением своей собственной операционной системы. Чаще всего используются стандартные ОС: Linux, FreeBSD, Solaris, Tru64 Unix, Windows NT. В тех случаях, когда узлы кластера неоднородны, то говорят о гетерогенных кластерах.
При создании
кластеров можно выделить два
подхода. Первый подход применяется
при создании небольших кластерных
систем. В кластер объединяются полнофункциональные
компьютеры, которые продолжают работать
и как самостоятельные единицы,
например, компьютеры учебного класса
или рабочие станции
В общем
случае кластер функционирует как
мультипроцессорная система, поэтому,
важно понимать классификацию таких
систем в рамках распределения программно-
Рисунок 9 - Тесно связанная мультипроцессорная система
Рисунок 10 - Умеренно связанная мультипроцессорная система
Рисунок 11 - Слабо связанная мультипроцессорная система
Разработано множество технологий соединения компьютеров в кластер. Наиболее широко в данное время используется технология Fast Ethernet. Это обусловлено простотой ее использования и низкой стоимостью коммуникационного оборудования. Однако за это приходится расплачиваться заведомо недостаточной скоростью обменов. В самом деле, это оборудование обеспечивает максимальную скорость обмена между узлами 10 Мб/сек, тогда как скорость обмена с оперативной памятью составляет 250 Мб/сек и выше. Разработчики пакета подпрограмм ScaLAPACK, предназначенного для решения задач линейной алгебры на многопроцессорных системах, в которых велика доля коммуникационных операций, формулируют следующим образом требование к многопроцессорной системе: "Скорость межпроцессорных обменов между двумя узлами, измеренная в Мб/сек, должна быть не менее 1/10 пиковой производительности вычислительного узла, измеренной в Mflops". Таким образом, если в качестве вычислительных узлов использовать компьютеры с процессорами класса Intel Core 2 Duo 2,4 ГГц (пиковая производительность 19,2 Гфлопс, т. е. 19200 Мфлопс), то аппаратура Fast Ethernet обеспечивает только 1/192 от требуемой скорости. Частично это положение исправляет переход на технологии Gigabit Ethernet.
Информация о работе Изучение аппаратного и программного обеспечения персонального компьютер