Главная    Почта    Новости    Каталог    Одноклассники    Погода    Работа    Игры     Рефераты     Карты
  
по Казнету new!
по каталогу
в рефератах

Кластерные системы

ин из коммутаторов, но  нет
необходимости в соединении всех узлов  через  единый  коммутатор.  Благодаря
оптимизации программного обеспечения под архитектуру  AMD  и  топологии  FNN
удалось добиться рекордного соотношения цена/производительность – 650  долл.
за 1 GFLOPS.
Идея разбиения кластера на разделы получила интересное воплощение в  проекте
Chiba  City  [6],  реализованном  в  Аргоннской  Национальной   лаборатории.
Главный раздел содержит 256 вычислительных узлов, на каждом


из которых  установлено  два  процессора  Pentium  III/500  МГц,  512  Мбайт
оперативной памяти и локальный диск емкостью 9 Гбайт. Кроме  вычислительного
раздела в систему входят раздел  визуализации  (32  персональных  компьютера
IBM Intellistation с графическими платами Matrox Millenium G400,  512  Мбайт
оперативной памяти и дисками 300 Гбайт), раздел хранения данных (8  серверов
IBM Netfinity 7000 с процессорами Xeon/500 МГц и дисками  по  300  Гбайт)  и
управляющий раздел (12 компьютеров IBM Netfinity 500).  Все  они  объединены
сетью Myrinet, которая используется для поддержки  параллельных  приложений,
а также сетями Gigabit Ethernet и Fast Ethernet для управляющих и  служебных
целей. Все разделы делятся на «города» (town) по 32  компьютера.  Каждый  из
них имеет своего «мэра», который локально обслуживает свой  «город»,  снижая
нагрузку  на  служебную  сеть  и  обеспечивая  быстрый  доступ  к  локальным
ресурсам.


Кластерные проекты в России

В  России  всегда   была   высока   потребность   в   высокопроизводительных
вычислительных  ресурсах,  и  относительно   низкая   стоимость   кластерных
проектов послужила серьезным толчком  к  широкому  распространению  подобных
решений  в  нашей  стране.  Одним  из  первых  появился  кластер  «Паритет»,
собранный в ИВВиБД и состоящий из восьми процессоров Pentium  II,  связанных
сетью Myrinet. В 1999 году вариант кластерного решения на  основе  сети  SCI
был  апробирован  в  НИЦЭВТ,  который,  по  сути  дела,   и   был   пионером
использования технологии SCI для построения параллельных систем в России.
Высокопроизводительный  кластер   на   базе   коммуникационной   сети   SCI,
установлен  в  Научно-исследовательском  вычислительном  центре  Московского
государственного   университета    [7].    Кластер    НИВЦ    включает    12
двухпроцессорных серверов «Эксимер» на базе Intel  Pentium  III/500  МГц,  в
общей сложности 24 процессора с  суммарной  пиковой  производительностью  12
млрд. операций в секунду. Общая стоимость системы – около 40 тыс. долл.  или
примерно 3,33 тыс. за 1 GFLOPS.
Вычислительные узлы кластера соединены однонаправленными каналами  сети  SCI
в двумерный тор 3x4 и одновременно подключены к центральному  серверу  через
вспомогательную сеть Fast Ethernet и коммутатор 3Com Superstack. Сеть SCI  –
это  ядро  кластера,  делающее  данную  систему  уникальной   вычислительной
установкой  суперкомпьютерного  класса,  ориентированной  на  широкий  класс
задач. Максимальная скорость  обмена  данными  по  сети  SCI  в  приложениях
пользователя составляет более 80 Мбайт/с,  а  время  латентности  около  5,6
мкс.  При  построении  данного   вычислительного   кластера   использовалось
интегрированное   решение   Wulfkit,   разработанное   компаниями    Dolphin
Interconnect Solutions и Scali Computer (Норвегия).
Основным средством параллельного программирования на кластере  является  MPI
(Message Passing Interface)  версии  ScaMPI  1.9.1.  На  тесте  LINPACK  при
решении системы линейных уравнений с матрицей  размера  16000х16000  реально
полученная производительность составила более 5,7 GFLOPS. На  тестах  пакета
NPB  производительность  кластера   сравнима,   а   иногда   и   превосходит
производительность суперкомпьютеров  семейства  Cray  T3E  с  тем  же  самым
числом процессоров.
Основная  область  применения  вычислительного  кластера  НИВЦ  МГУ  –   это
поддержка фундаментальных научных исследований и учебного процесса.
Из других интересных проектов  следует  отметить  решение,  реализованное  в
Санкт-Петербургском университете  на  базе  технологии  Fast  Ethernet  [8]:
собранные  кластеры  могут  использоваться  и  как  полноценные  независимые
учебные классы, и  как  единая  вычислительная  установка,  решающая  единую
задачу. В Самарском научном центре


пошли по пути создания неоднородного  вычислительного  кластера,  в  составе
которого работают компьютеры на базе процессоров  Alpha  и  Pentium  III.  В
Санкт-Петербургском техническом университете собирается установка на  основе
процессоров Alpha и сети  Myrinet  без  использования  локальных  дисков  на
вычислительных узлах. В  Уфимском  государственном  авиационном  техническом
университете проектируется кластер на базе  двенадцати  Alpha-станций,  сети
Fast Ethernet и ОС Linux.
Пред.678
скачать работу

Кластерные системы

 

Отправка СМС бесплатно

На правах рекламы


ZERO.kz
 
Модератор сайта RESURS.KZ