Основные платформы ЭВМ и области их использования
^4 или
И^5, где N условно характеризует размер молекулы. Сейчас многие
молекулярные системы вынужденно исследуются в упрощенном модельном
представлении. Имея в резерве еще более крупные молекулярные образования
(биологические системы, кластеры и т.д.), квантовая химия дает пример
приложения, являющегося "потенциально бесконечным" пользователем
суперкомпьютерных ресурсов.
Есть еще одна проблема применения суперЭВМ, о которой необходимо
сказать - это визуализация данных, полученных в результате выполнения
расчетов. Часто, например, при решении дифференциальных уравнений методом
сеток, приходится сталкиваться с гигантскими объемами результатов, которые
в числовой форме человек просто не в состоянии обработать. Здесь во многих
случаях необходимо обратиться к графической форме представления информации.
В любом случае возникает задача транспортировки информации по компьютерной
сети. Решению этого комплекса проблем в последнее время уделяется все
большее внимание. В частности, знаменитый Национальный центр
суперкомпьютерных приложений США (NCSA) совместно с компанией Silicon
Graphics ведет работы по программе "суперкомпьютерного окружения будущего".
В этом проекте предполагается интегрировать возможности суперкомпьютеров
POWER CHALLENGE и средств визуализации компании SGI со средствами
информационной супермагистрали.
Архитектура современных суперЭВМ
Приведем классическую систематику Флинна.
В соответствии с ней, все компьютеры делятся на четыре класса в
зависимости от числа потоков команд и данных. К первому классу
(последовательные компьютеры фон Неймана) принадлежат обычные скалярные
однопроцессорные системы: одиночный поток команд - одиночный поток данных
(SISD). Персональный компьютер имеет архитектуру SISD, причем не важно,
используются ли в ПК конвейеры для ускорения выполнения операций.
Второй класс характеризуется наличием одиночного потока команд,
но множественного nomoka данных (SIMD). К этому архитектурному классу
принадлежат однопроцессорные векторные или, точнее говоря, векторно-
конвейерные суперкомпьютеры, например, Cray-1. В этом случае мы имеем дело
с одним потоком (векторных) команд, а потоков данных - много: каждый
элемент вектора входит в отдельный поток данных. К этому же классу
вычислительных систем относятся матричные процессоры, например, знаменитый
в свое время
ILLIAC-IV. Они также имеют векторные команды и реализуют векторную
обработку, но не посредством конвейеров, как в векторных суперкомпьютерах,
а с помощью матриц процессоров.
К третьему классу - MIMD - относятся системы, имеющие
множественный поток команд и множественный поток данных. К нему принадлежат
не только многопроцессорные векторные суперЭВМ, но и вообще все
многопроцессорные компьютеры. Подавляющее большинство современных суперЭВМ
имеют архитектуру MIMD.
Четвертый класс в систематике Флинна, MISD, не представляет
практического интереса,по крайней мере для анализируемых нами компьютеров.
В последнее время в литературе часто используется также термин SPMD (одна
программа - множественные данные). Он относится не к архитектуре
компьютеров, а к модели распараллеливания программ и не является
расширением систематики Флинна. SPMD обычно относится к MPP (т.е. MIMD) -
системам и означает, что несколько копий одной программы параллельно
выполняются в разных процессорных узлах с разными данными.
Векторные суперкомпьютеры [SIMD]
Среди современных суперЭВМ эту архитектуру имеют однопроцессорные
векторные суперкомпьютеры. Типичная схема однопроцессорного векторного
суперкомпьютера представлена на примере FACOM VP-200 японской фирмы Fujitsu
. Похожую архитектуру имеют и другие векторные суперкомпьютеры, например,
фирм Cray Research и Convex . Общим для всех векторных суперкомпьютеров
является наличие в системе команд векторных операций, например, сложение
векторов, допускающих работу с векторами определенной длины, допустим, 64
элемента по 8 байт. В таких компьютерах операции с векторами обычно
выполняются над векторными регистрами, что, однако, совсем не является
обязательным. Наличие регистров маски позволяет выполнять векторные команды
не над всеми элементами векторов, а только над теми, на которые указывает
маска.
Со времен Cray-1 многие векторные суперкомпьютеры, в том числе
ЭВМ серии VP от Fujitsu и серии S компании Hitachi, имеют важное средство
ускорения векторных вычислений,называемое зацепление команд.
Рассмотрим,например, следующую последовательность команд, работающих с
векторными V-регистрами в компьютерах Cray:
V2=V0*V1
V4=V2+V3
Ясно, что вторая команда не может начать выполняться сразу вслед
за первой - для этого первая команда должна сформировать регистр V2, что
требует определенного количества тактов. Средство зацепления позволяет, тем
не менее, второй команде начать выполнение, не дожидаясь полного завершения
первой: одновременно с появлением первого результата в регистре V2 его
копия направляется в функциональное устройство сложения, и запускается
вторая команда. Разумеется, детали возможностей зацепления разных векторных
команд отличаются у разных ЭВМ.
Что касается скалярной обработки, то соответствующая подсистема
команд в японских суперкомпьютерах Fujitsu и Hitachi совместима с IBM/370,
что имеет очевидные преимущества. При этом для буферизации скалярных данных
используется традиционная кэш-память. Напротив, компания Cray Research,
начиная с Сгау-1, отказалась от применения кэш-памяти. Вместо этого в ее
компьютерах используются специальные программно-адресуемые буферные В- и Т-
регистры. И лишь в последней серии, Cray T90, была введена промежуточная
кэш-память для скалярных операций. Отметим, что на тракте оперативная
память - векторные регистры промежуточная буферная память отсутствует, что
вызывает необходимость иметь высокую пропускную способность подсистемы
оперативной памяти: чтобы поддерживать высокую скорость вычислений,
необходимо быстро загружать данные в векторные регистры и записывать
результаты обратно в память. Но некоторые векторные суперЭВМ, например, IBM
ES/9000, работают с операндами-векторами, расположенными непосредственно в
оперативной памяти. Скорее всего, такой подход является менее перспективным
с точки зрения производительности, в частности, потому, что для поддержания
высокого темпа вычислений для каждой векторной команды требуется быстрая
выборка векторных операндов из памяти и запись результатов обратно.
Многопроцессорные векторные суперкомпьютеры (MIMD)
В архитектуре многопроцессорных векторных компьютеров можно
отметить две важнейшие характеристики: симметричность (равноправность) всех
процессоров системы и разделение всеми процессорами общего поля оперативной
памяти. Подобные компьютерные системы называются сильно связанными. Если в
однопроцессорных векторных ЭВМ для создания эффективной программы ее надо
векторизовать, то в многопроцессорных появляется задача распараллеливания
программы для ее выполнения одновременно на нескольких процессорах.
Задача распараллеливания является, пожалуй, более
сложной,поскольку в ней необходимо организовать синхронизацию параллельно
выполняющихся процессов. Практика показала возможности эффективного
распараллеливания большого числа алгоритмов для рассматриваемых сильно
связанных систем. Соответствующий подход к распараллеливанию на таких
компьютерах называется иногда моделью разделяемой общей памяти.
Производительность некоторых современных микропроцессоров RISC-
архитектуры стала сопоставимой с производительностью процессоров векторных
компьютеров. Как следствие этого, появились использующие эти достижения
суперЭВМ новой архитектуры, - сильно связанные компьютеры класса MIMD,
представляющие собой симметричные многопроцессорные серверы с общим полем
оперативной памяти. В модулях памяти обычно используется технология DRAM,
что позволяет достигнуть больших объемов памяти при относительно низкой
цене. Однако скорость обмена данными между процессорами и памятью в таких
серверах во много раз ниже, чем пропускная способность аналогичного тракта
в векторных суперЭВМ, где оперативная память строится на более дорогой
технологии ЯВАМ. В этом состоит одно из основных отличий в подходах к
суперкомпьютерным вычислениям, применяемым для многопроцессорных векторных
ЭВМ и SMP-серверов. В первых обычно имеется относительно небольшое число
векторных регистров, поэтому, как уже отмечалось, для поддержания высокой
производительности необходимо быстро загружать в них данные или, наоборот,
записывать из них информацию в оперативную память. Таким образом, требуется
высокая производительность тракта процессор-память.
Кластеры являются самым дешевым способом наращивания
производительности уже инсталлированных компьютеров. Фактически кластер
представляет собой набор из нескольких ЭВМ, соединенных через некоторую
коммуникационную инфраструктуру. В качестве такой структуры может выступать
обычная компьютерная сеть, однако из соображений повышения
производительности желательно иметь высокоскоростные соединения
(FDDI/ATM/HiPPI и т.п.). Кластеры могут быть образованы как из различных
компьютеров (гетперогенные кластеры),
| | скачать работу |
Основные платформы ЭВМ и области их использования |