Автор работы: Пользователь скрыл имя, 19 Декабря 2013 в 06:28, контрольная работа
В любом компьютере все основные параметры тесно связаны. Трудно себе представить универсальный компьютер, имеющий высокое быстродействие и мизерную оперативную память, либо огромную оперативную память и небольшой объем дисков. Следуя логике, делаем вывод: супер-ЭВМ это компьютеры, имеющие в настоящее время не только максимальную производительность, но и максимальный объем оперативной и дисковой памяти (вопрос о специализированном ПО, с помощью которого можно эффективно всем этим воспользоваться, пока оставим в стороне).
Введение 3
1. Понятие матричной вычислительной системы и ее отличие от векторной вычислительной системы 5
2. Структура матричной вычислительной системы 6
3. Интерфейсная вычислительная машина 8
4. Массив процессоров и его контроллер 9
5. Структура процессорного элемента 14
6. Подключение и отключение процессорных элементов 17
7. Сети взаимосвязей процессорных элементов 19
Заключение 20
Список используемой литературы: 23
Муниципaльнoe oбpaзoвaтeльнoe учpeждeниe
выcшeгo пpoфeccиoнaльнoгo oбpaзoвaния
Южнo-Уpaльcкий пpoфeccиoнaльный инcтитут
кoнтpoльнaя paбoтa пo диcциплинe:
«Защита информации в вычислительных системах и сетях»
Массивы процессорных элементов
Cтудeнт: И.A. *******
Гpуппa: *******
Cпeциaльнocть: *******
Peцeнзeнт: ******
Чeлябинcк
2013
Оглавление
Введение 3
1. Понятие матричной вычислительной системы и ее отличие от векторной вычислительной системы 5
2. Структура матричной вычислительной системы 6
3. Интерфейсная
4. Массив процессоров и
5. Структура процессорного
6. Подключение и отключение
7. Сети взаимосвязей
Заключение 20
Список используемой литературы: 23
Время не стоит на месте,
и человеку производит, потребляет
и обрабатывает с каждым днем все
большие и большие объемы информации.
Естественно, что мы давно уже
перестали справляться с
Для многих подобные машины так и остаются тайной за семью печатями, с которой ассоциации всегда связаны с чем-то большим: огромные размеры, большие задачи, крупные фирмы и компании, невероятные скорости работы или что-то иное, но обязательно это будет "на грани", для чего "обычного" явно мало, а подойдет только "супер", суперкомпьютер или супер-ЭВМ. В этом интуитивном восприятии есть изрядная доля истины, поскольку к классу супер-ЭВМ принадлежат лишь те компьютеры, которые имеют максимальную производительность в настоящее время.
Быстрое развитие компьютерной индустрии определяет относительность данного понятия - то, что десять лет назад можно было назвать суперкомпьютером, сегодня под это определение уже не попадает. Например, производительность персональных компьютеров, использующих Pentium-III/500MHz, сравнима с производительностью суперкомпьютеров начала 70-х годов, однако по сегодняшним меркам суперкомпьютерами не являются ни те, ни другие.
В любом компьютере все основные параметры тесно связаны. Трудно себе представить универсальный компьютер, имеющий высокое быстродействие и мизерную оперативную память, либо огромную оперативную память и небольшой объем дисков. Следуя логике, делаем вывод: супер-ЭВМ это компьютеры, имеющие в настоящее время не только максимальную производительность, но и максимальный объем оперативной и дисковой памяти (вопрос о специализированном ПО, с помощью которого можно эффективно всем этим воспользоваться, пока оставим в стороне).
Так о чем же речь и какие суперкомпьютеры существуют в настоящее время в мире? Вот лишь несколько параметров, дающих достаточно красноречивую характеристику машин этого класса. Компьютер ASCI WHITE, занимающий первое место в списке пятисот самых мощных компьютеров мира, объединяет 8192 процессора Power 3 с общей оперативной памятью в 4 Терабайта и производительностью более 12 триллионов операций в секунду.
Супер-ЭВМ и сверхвысокая производительность: зачем?
Простые расчеты показывают,
что конфигурации подобных систем могут
стоить не один миллион долларов США
- ради интереса прикиньте, сколько
стоят, скажем, лишь 4 Тбайта оперативной
памяти? Возникает целый ряд
Для того чтобы оценить сложность решаемых на практике задач, возьмем конкретную предметную область, например, оптимизацию процесса добычи нефти. Имеем подземный нефтяной резервуар с каким-то число пробуренных скважин: по одним на поверхность откачивается нефть, по другим обратно закачивается вода. Нужно смоделировать ситуацию в данном резервуаре, чтобы оценить запасы нефти или понять необходимость в дополнительных скважинах.
2500 миллиардов арифметических
операций для выполнения
Назначение матричных вычислительных
систем во многом схоже с наз-начением
векторных ВС – обработка больших массивов
данных. В основе мат-ричных систем лежит матричный процессор (array
processor), состоящий из регулярного массива
процессорных элементов (ПЭ). Системы подобного
типа имеют общее управляющее устройство,
генерирующее поток команд, и большое
число ПЭ, работающих параллельно и обрабатывающих
каждый свой поток данных. С целью обеспечения
достаточной эффективности системы при
реше- нии широкого круга задач необходимо
организовать связи между процессор- ными
элементами так, чтобы наиболее полно
загрузить процессоры работой. Именно характер связей
Между матричными и векторными
системами есть существенная разни- ца.
Матричный процессор интегрирует множество
идентичных функциональ- ных блоков (ФБ),
логически объединенных в матрицу и работающих
в SIMD-стиле. Не столь существенно, как конструктивно
реализована матрица процес-сорных элементов
– на едином кристалле или на нескольких.
Важен сам прин- цип – ФБ логически скомпонованы
в матрицу и работают синхронно, т.е. при-сутствует
только один поток команд для всех. Векторный
процессор имеет встроенные команды для
обработки векторов данных, что позволяет
эффек- тивно загрузить конвейер из функциональных
блоков. В свою очередь, вектор- ные процессоры
проще использовать, потому что команды
для обработки век-торов – это более удобная для
Структура матричной вычислительной
системы представлена на рис. 8.1. Параллельная
обработка множественных
| |
Рис. 1. Обобщенная модель матричной
жиме жесткой синхронизации. Сигналы управления используются для синхро-низации команд и пересылок, а также для управления процессом вычислений (например определяют, какие процессоры массива должны выполнять опера- цию, а какие – нет). Команды, данные и сигналы управления передаются из КМП в массив процессоров по шине широковещательной рассылки. Поскольку выполнение операций условного перехода зависит от результатов вычислений, результаты обработки данных в массиве процессоров транслируются в КМП, проходя по шине результата.
Для обеспечения пользователя
удобным интерфейсом при
Для хранения множественных
наборов данных в массиве процессоров
должны присутствовать и модули памяти.
Кроме того, в массиве должна быть
реализована сеть взаимосвязей как
между процессорами, так и между процес-сорами
и модулями памяти. Таким образом массив процессоров – это
блок, состоящий из процессоров,
Дополнительную гибкость
при работе с рассматриваемой
системой обес-печивает механизм маскирования,
позволяющий привлекать к участию в опе-рациях
лишь определенное подмножество из входящих
в массив процессоров. Маскирование реализуется
как на стадии компиляции, так и на этапе
выпол- нения. При этом процессоры, исключенные
путем установки в ноль соответ- ствующих
Интерфейсная ВМ (ИВМ) соединяет
матричную SIMD-cистему с внеш- ним миром,
используя для этого какой-либо сетевой
интерфейс, например Ethernet. Интерфейсная
ВМ работает под управлением операционной
системы (чаще всего OC UNIX). На ИВМ пользователи
подготавливают, компилируют и отлаживают
свои программы. В процессе выполнения
программы сначала загружаются из интерфейсной
ВМ в контроллер управления массивом про-цессоров,
который выполняет программу и распределяет
команды и данные по процессорным элементам
массива. В некоторых ВС, например в Massively
Parallel Computer MPP, при создании, компиляции
и отладке программ КМП и интерфейсная ВМ
На роль ИВМ подходят различные
вычислительные машины. Так, в сис-теме
СМ-2 в этом качестве выступает рабочая
станция SUN-4, в системе MasPar –
Контроллер массива
Рис. 2. Модель контроллера массива
При загрузке из ИВМ программа через интерфейс ввода/вывода заносит- ся в оперативное запоминающее устройство КМП (ОЗУ КМП). Команды для процессорных элементов и глобальная маска, формируемая на этапе компиля- ции, также загружаются через интерфейс ввода/вывода в ОЗУ команд и гло-бальной маски (ОЗУ КГМ). Затем КМП начинает выполнять программу, извле- кая либо одну скалярную команду из ОЗУ КМП, либо множественные коман- ды из ОЗУ КГМ. Скалярные команды (команды, осуществляющие операции над хранящимися в КМП скалярными данными), выполняются центральным процессором (ЦП) контроллера массива процессоров. В свою очередь коман- ды, оперирующие параллельными переменными, хранящимися в каждом ПЭ, преобразуются в блоке выборки команд в более простые единицы выполнения – нанокоманды. Нанокоманды совместно с маской пересылаются через шину команд для ПЭ на исполнение в массив процессоров. Например, команда сло-жения 32-разрядных слов в КМП системы МРР преобразуется в 32 нанокоман- ды одноразрядного сложения, которые каждым ПЭ обрабатываются последо-вательно.
В большинстве алгоритмов дальнейший порядок вычислений зависит от результатов и флагов условий предшествующих операций. Для обеспечения та-кого режима в матричных системах статусная информация, хранящаяся в про-цессорных элементах, должна быть собрана в единое слово и передана в КМП для выработки решения о ветвлении программы. Например, в предложении IF ALL (условие А) THEN DO B оператор B будет выполнен, если условие А справедливо во всех ПЭ. Для корректного включения/отключения процессор- ных элементов КМП должен знать результат проверки условия А во всех ПЭ. Такая информация передается в КМП по однонаправленной шине результата. В системе СМ-2 эта шина называется GLOBAL. В системе МРР для той же цели организована структура, называемая деревом SUM-OR. Каждый ПЭ по-мещает содержимое своего одноразрядного регистра признака на входы дере- ва, которое с помощью операции логического сложения комбинирует эту ин-формацию и формирует слово результата, используемое в КМП для принятия решения.
В матричных SIMD-системах получили
распространение два основных типа архитектурной
В первом варианте, известном
как архитектура типа «процессорный эле-мент-процессорный
элемент» (ПЭ-ПЭ), N процессорных
элементов (ПЭ) свя- заны между собой сетью
соединений (рис. 8.3, а). Каждый ПЭ – это
процессор с локальной памятью. Процессорные
элементы выполняют команды, получае-
мые из КМП по шине широковещательной
рассылки, и обрабатывают данные как хранящиеся
в их локальной памяти, так и поступающие
из КМП. Обмен данными между процессорными
элементами производится по сети соедине- ний,
в то время как шина ввода-вывода служит
для обмена информацией меж- ду ПЭ и устройствами
ввода-вывода. Для трансляции результатов
из отдель- ных ПЭ в контроллер массива
процессоров служит шина результата.
Благода- ря использованию локальной памяти
аппаратные средства ВС рассматривае- мого
типа могут быть построены весьма эффективно.
Во многих алгоритмах действия по пересылке
информации локальны, то есть происходят
между бли-жайшими соседями. По этой причине
архитектура, где каждый ПЭ связан толь- ко
с соседними, очень популярна. Примерами
вычислительных систем с рас-сматриваемой
архитектурой являются MasPar MP-1, Connection Machine
CM-2, GF-11, DAP, MPP,
Рис. 3. Модели массивов процессоров:
Второй вид архитектуры
– «процессор-память»
показан на рис. 8.3, б. В такой конфигурации
двунаправленная сеть соединений связывает N процессо- ров c М