Массивы процессорных элементов

Автор работы: Пользователь скрыл имя, 19 Декабря 2013 в 06:28, контрольная работа

Описание работы

В любом компьютере все основные параметры тесно связаны. Трудно себе представить универсальный компьютер, имеющий высокое быстродействие и мизерную оперативную память, либо огромную оперативную память и небольшой объем дисков. Следуя логике, делаем вывод: супер-ЭВМ это компьютеры, имеющие в настоящее время не только максимальную производительность, но и максимальный объем оперативной и дисковой памяти (вопрос о специализированном ПО, с помощью которого можно эффективно всем этим воспользоваться, пока оставим в стороне).

Содержание работы

Введение 3
1. Понятие матричной вычислительной системы и ее отличие от векторной вычислительной системы 5
2. Структура матричной вычислительной системы 6
3. Интерфейсная вычислительная машина 8
4. Массив процессоров и его контроллер 9
5. Структура процессорного элемента 14
6. Подключение и отключение процессорных элементов 17
7. Сети взаимосвязей процессорных элементов 19
Заключение 20
Список используемой литературы: 23

Файлы: 1 файл

АВC.docx

— 116.27 Кб (Скачать файл)

Муниципaльнoe oбpaзoвaтeльнoe учpeждeниe


выcшeгo пpoфeccиoнaльнoгo oбpaзoвaния

Южнo-Уpaльcкий пpoфeccиoнaльный инcтитут

 

 

 

 

 

 

 

 

кoнтpoльнaя paбoтa пo диcциплинe:

«Защита информации в вычислительных системах и сетях»

Массивы процессорных элементов

 

 

 

 

Cтудeнт: И.A. *******

Гpуппa: *******

Cпeциaльнocть: *******

Peцeнзeнт: ******

 

 

 

 

Чeлябинcк

2013 

Оглавление

Введение 3

1.  Понятие матричной вычислительной системы и ее отличие от векторной вычислительной системы 5

2. Структура матричной вычислительной системы 6

3. Интерфейсная вычислительная машина 8

4. Массив  процессоров  и  его  контроллер 9

5. Структура  процессорного  элемента 14

6. Подключение  и  отключение  процессорных  элементов 17

7. Сети  взаимосвязей  процессорных  элементов 19

Заключение 20

Список используемой литературы: 23

 

 

Введение

Время не стоит на месте, и человеку производит, потребляет и обрабатывает с каждым днем все  большие и большие объемы информации. Естественно, что мы давно уже  перестали справляться с подобными  задачами вручную, всю «механическую» работу по обработке с информации берут на себя вычислительные машины.

Для многих подобные машины так и остаются тайной за семью печатями, с которой ассоциации всегда связаны с чем-то большим: огромные размеры, большие задачи, крупные фирмы и компании, невероятные скорости работы или что-то иное, но обязательно это будет "на грани", для чего "обычного" явно мало, а подойдет только "супер", суперкомпьютер или супер-ЭВМ. В этом интуитивном восприятии есть изрядная доля истины, поскольку к классу супер-ЭВМ принадлежат лишь те компьютеры, которые имеют максимальную производительность в настоящее время.

Быстрое развитие компьютерной индустрии определяет относительность  данного понятия - то, что десять лет назад можно было назвать  суперкомпьютером, сегодня под это  определение уже не попадает. Например, производительность персональных компьютеров, использующих Pentium-III/500MHz, сравнима с производительностью суперкомпьютеров начала 70-х годов, однако по сегодняшним меркам суперкомпьютерами не являются ни те, ни другие.

В любом компьютере все  основные параметры тесно связаны. Трудно себе представить универсальный  компьютер, имеющий высокое быстродействие и мизерную оперативную память, либо огромную оперативную память и небольшой  объем дисков. Следуя логике, делаем вывод: супер-ЭВМ это компьютеры, имеющие в настоящее время не только максимальную производительность, но и максимальный объем оперативной и дисковой памяти (вопрос о специализированном ПО, с помощью которого можно эффективно всем этим воспользоваться, пока оставим в стороне).

Так о чем же речь и какие суперкомпьютеры существуют в настоящее время в мире? Вот лишь несколько параметров, дающих достаточно красноречивую характеристику машин этого класса. Компьютер ASCI WHITE, занимающий первое место в списке пятисот самых мощных компьютеров мира, объединяет 8192 процессора Power 3 с общей оперативной памятью в 4 Терабайта и производительностью более 12 триллионов операций в секунду.

Супер-ЭВМ и сверхвысокая производительность: зачем?

Простые расчеты показывают, что конфигурации подобных систем могут  стоить не один миллион долларов США - ради интереса прикиньте, сколько  стоят, скажем, лишь 4 Тбайта оперативной  памяти? Возникает целый ряд естественных вопросов: какие задачи настолько важны, что требуются компьютеры стоимостью несколько миллионов долларов? Или, какие задачи настолько сложны, что хорошего Пентиума не достаточно? На эти и подобные им вопросы хотелось бы найти разумные ответы.

Для того чтобы оценить  сложность решаемых на практике задач, возьмем конкретную предметную область, например, оптимизацию процесса добычи нефти. Имеем подземный нефтяной резервуар с каким-то число пробуренных скважин: по одним на поверхность откачивается нефть, по другим обратно закачивается вода. Нужно смоделировать ситуацию в данном резервуаре, чтобы оценить запасы нефти или понять необходимость в дополнительных скважинах.

2500 миллиардов арифметических  операций для выполнения одного  лишь расчета! А изменение параметров  модели? А отслеживание текущей  ситуации при изменении входных  данных? Подобные расчеты необходимо  делать много раз, что накладывает  очень жесткие требования на  производительность используемых  вычислительных систем.

 

  1. Понятие  матричной  вычислительной  системы  и  ее  отличие  от  векторной  вычислительной  системы

Назначение матричных вычислительных систем во многом схоже с наз-начением векторных ВС – обработка больших массивов данных. В основе мат-ричных систем лежит матричный процессор (array processor), состоящий из регулярного массива процессорных элементов (ПЭ). Системы подобного типа имеют общее управляющее устройство, генерирующее поток команд, и большое число ПЭ, работающих параллельно и обрабатывающих каждый свой поток данных. С целью обеспечения достаточной эффективности системы при реше- нии широкого круга задач необходимо организовать связи между процессор- ными элементами так, чтобы наиболее полно загрузить процессоры работой. Именно  характер  связей  между  ПЭ  и  определяет  разные  свойства  системы.

Между матричными и векторными системами есть существенная разни-   ца. Матричный процессор интегрирует множество идентичных функциональ-  ных блоков (ФБ), логически объединенных в матрицу и работающих в SIMD-стиле. Не столь существенно, как конструктивно реализована матрица процес-сорных элементов – на едином кристалле или на нескольких. Важен сам прин- цип – ФБ логически скомпонованы в матрицу и работают синхронно, т.е. при-сутствует только один поток команд для всех. Векторный процессор имеет встроенные команды для обработки векторов данных, что позволяет эффек-     тивно загрузить конвейер из функциональных блоков. В свою очередь, вектор- ные процессоры проще использовать, потому что команды для обработки век-торов – это  более  удобная  для  человека  модель  программирования, чем  SIMD.

 

  1. Структура матричной вычислительной системы

Структура матричной вычислительной системы представлена на рис. 8.1. Параллельная обработка множественных элементов  данных осуществляется массивом процессоров (МПр). Единый поток команд, управляющий обработкой данных в массиве процессоров, генерируется контроллером массива процессо- ров (КМП). КМП выполняет последовательный программный код, реализует операции условного и безусловного переходов, транслирует в МПр команды, данные  и  сигналы  управления.  Команды  обрабатываются  процессорами  в  ре-

   



 

 

 

 

 

 

 

 

 

 

 

 

Рис. 1. Обобщенная  модель  матричной  SIMD-системы  

 

жиме жесткой синхронизации. Сигналы управления используются для синхро-низации команд и пересылок, а также для управления процессом вычислений (например определяют, какие процессоры массива должны выполнять опера- цию, а какие – нет). Команды, данные и сигналы управления передаются из    КМП в массив процессоров по шине широковещательной рассылки. Поскольку выполнение операций условного перехода зависит от результатов вычислений, результаты обработки данных в массиве процессоров транслируются в КМП, проходя  по  шине  результата.

Для обеспечения пользователя удобным интерфейсом при создании и от-ладке программ в состав подобных ВС обычно включают интерфейсную ВМ (front-end computer). В роли такой ВМ выступает универсальная вычислитель-  ная машина, на которую дополнительно возлагается задача загрузки программ     и данных в КМП. Кроме того, загрузка программ и данных в КМП может производиться и напрямую с устройств ввода-вывода(например, с магнитных дисков). После загрузки КМП приступает к выполнению программы, трансли-   руя  в  МПр  по  широковещательной  шине  соответствующие  SIMD-команды.

Для хранения множественных  наборов данных в массиве процессоров  должны присутствовать и модули памяти. Кроме того, в массиве должна быть реализована сеть взаимосвязей как между процессорами, так и между процес-сорами и модулями памяти. Таким образом массив процессоров – это блок, состоящий  из  процессоров,  модулей  памяти  и  сети  соединений.

Дополнительную гибкость при работе с рассматриваемой  системой обес-печивает механизм маскирования, позволяющий привлекать к участию в опе-рациях лишь определенное подмножество из входящих в массив процессоров. Маскирование реализуется как на стадии компиляции, так и на этапе выпол-      нения. При этом процессоры, исключенные путем установки в ноль соответ-       ствующих  битов  маски,  во  время  выполнения команды  простаивают.

 

  1. Интерфейсная вычислительная машина

Интерфейсная ВМ (ИВМ) соединяет  матричную SIMD-cистему с внеш-  ним миром, используя для этого какой-либо сетевой интерфейс, например Ethernet. Интерфейсная ВМ работает под управлением операционной системы (чаще всего OC UNIX). На ИВМ пользователи подготавливают, компилируют      и отлаживают свои программы. В процессе выполнения программы сначала загружаются из интерфейсной ВМ в контроллер управления массивом про-цессоров, который выполняет программу и распределяет команды и данные        по процессорным элементам массива. В некоторых ВС, например в Massively Parallel Computer MPP, при создании, компиляции и отладке программ КМП и интерфейсная  ВМ  используются  совместно.

На роль ИВМ подходят различные  вычислительные машины. Так, в сис-теме СМ-2 в этом качестве выступает рабочая станция SUN-4, в системе      MasPar – DECstation 3000, а  в  системе  МРР – DEC VAX-11/780.

 

  1. Массив  процессоров  и  его  контроллер

Контроллер массива процессоров  выполняет последовательный программ-ный код, реализует команды ветвления программы, транслирует команды и сигналы управления в процессорные элементы. Одну из возможных реализа-    ций КМП, принятую в устройстве управления системы PASM, иллюстрирует   рис. 8.2.


Рис. 2. Модель  контроллера  массива  процессоров  

 

При загрузке из ИВМ программа  через интерфейс ввода/вывода заносит-   ся в оперативное запоминающее устройство КМП (ОЗУ КМП). Команды для  процессорных элементов и глобальная маска, формируемая на этапе компиля- ции, также загружаются через интерфейс ввода/вывода в ОЗУ команд и гло-бальной маски (ОЗУ КГМ). Затем КМП начинает выполнять программу, извле- кая либо одну скалярную команду из ОЗУ КМП, либо множественные коман-    ды из ОЗУ КГМ. Скалярные команды (команды, осуществляющие операции     над хранящимися в КМП скалярными данными), выполняются центральным процессором (ЦП) контроллера массива процессоров. В свою очередь коман-    ды, оперирующие параллельными переменными, хранящимися в каждом ПЭ, преобразуются в блоке выборки команд в более простые единицы выполнения     – нанокоманды. Нанокоманды совместно с маской пересылаются через шину команд для ПЭ на исполнение в массив процессоров. Например, команда сло-жения 32-разрядных слов в КМП системы МРР преобразуется в 32 нанокоман-  ды одноразрядного сложения, которые каждым ПЭ обрабатываются последо-вательно.

В большинстве алгоритмов дальнейший порядок вычислений зависит  от результатов и флагов условий  предшествующих операций. Для обеспечения  та-кого режима в матричных системах статусная информация, хранящаяся в про-цессорных элементах, должна быть собрана в единое слово и передана в КМП  для выработки решения о ветвлении программы. Например, в предложении IF ALL (условие А) THEN DO B оператор B будет выполнен, если условие А справедливо во всех ПЭ. Для корректного включения/отключения процессор-  ных элементов КМП должен знать результат проверки условия А во всех ПЭ. Такая информация передается в КМП по однонаправленной шине результата.      В системе СМ-2 эта шина называется GLOBAL. В системе МРР для той же     цели организована структура, называемая деревом SUM-OR. Каждый ПЭ по-мещает содержимое своего одноразрядного регистра признака на входы дере-    ва, которое с помощью операции логического сложения комбинирует эту ин-формацию и формирует слово результата, используемое в КМП для принятия решения.

В матричных SIMD-системах получили распространение два основных  типа  архитектурной  организации  массива  процессорных  элементов  (рис. 8.3).

В первом варианте, известном  как архитектура типа «процессорный эле-мент-процессорный элемент» (ПЭ-ПЭ), N процессорных элементов (ПЭ) свя-     заны между собой сетью соединений (рис. 8.3, а). Каждый ПЭ – это процессор      с локальной памятью. Процессорные элементы выполняют команды, получае- мые из КМП по шине широковещательной рассылки, и обрабатывают данные    как хранящиеся в их локальной памяти, так и поступающие из КМП. Обмен данными между процессорными элементами производится по сети соедине-    ний, в то время как шина ввода-вывода служит для обмена информацией меж-     ду ПЭ и устройствами ввода-вывода. Для трансляции результатов из отдель-    ных ПЭ в контроллер массива процессоров служит шина результата. Благода-   ря использованию локальной памяти аппаратные средства ВС рассматривае-  мого типа могут быть построены весьма эффективно. Во многих алгоритмах действия по пересылке информации локальны, то есть происходят между бли-жайшими соседями. По этой причине архитектура, где каждый ПЭ связан толь-   ко с соседними, очень популярна. Примерами вычислительных систем с рас-сматриваемой архитектурой являются MasPar MP-1, Connection Machine CM-2, GF-11,  DAP,  MPP,  STARAN,  PEPE,  ILLIAC IV.

Рис. 3. Модели  массивов  процессоров: а – «процессорный  элемент-процессорный  элемент»; б – «процессор-память»  

 

Второй вид архитектуры  – «процессор-память» показан на рис. 8.3, б. В такой конфигурации двунаправленная сеть соединений связывает N процессо-  ров c М модулями памяти. Процессоры управляются КМП через широковеща-тельную шину. Обмен данными между процессорами осуществляется как через сеть, так и через модули памяти. Пересылка данных между модулями памяти        и устройствами ввода/вывода обеспечивается шиной ввода/вывода. Для передачи данных из конкретного модуля памяти в КМП служит шина результата. Примерами ВС с рассмотренной архитектурой служат Burroughs Scientific Processor  (BSP)  и  Texas  Reconfigurable  Array Computer  TRAC.

Информация о работе Массивы процессорных элементов