ТЕЛЕ-ВИДЕО +7 (925) 500-67-94
Online консультант   
Просмотр корзины...

Ваша корзина:
Tоваров: 0
Cумма: 0

  Телефон: (925) 500-67-94 ПИШИТЕ НАМ: d@camcorder.ru
Риги и крепления для аксессуаров Cлужебная связь DJ CD-плееры IOS-интеграция Автогрипы Аксессуары для мониторов Акустические системы Архивные системы хранения Аудиоинтерфейсы Аудиомониторы Видеомикшеры Виниловые проигрыватели Дистанционное управление Здоровье Интернет-вещание Интерьер Камерные каналы Карты памяти Коммутационное оборудование Многоканальные блоки питания Мониторы Портативные дисковые рекордеры Портативные ЖК-мониторы Презентационное оборудование Преобразователи сигналов Рельсовые системы Синхронизация Системы беспроводной передачи сигнала Телефонные гибриды Тестовое оборудование Трансляция звука Усилители сигналов SDI Хранение медиа Хромакей Экипировка Видеокамеры Видеомагнитофоны Аккумуляторы Адаптеры Оптика Освещение Штативы Стабилизация Микрофоны Аудиомикшеры Сумки, кофры, чехлы Носители Операторские краны Цифровой монтаж Наушники Подводная съемка Телесуфлеры
Риги и крепления для аксессуаров
Cлужебная связь
DJ CD-плееры
IOS-интеграция
Автогрипы
Аксессуары для мониторов
Акустические системы
Архивные системы хранения
Аудиоинтерфейсы
Аудиомониторы
Видеомикшеры
Виниловые проигрыватели
Дистанционное управление
Здоровье
Интернет-вещание
Интерьер
Камерные каналы
Карты памяти
Коммутационное оборудование
Многоканальные блоки питания
Мониторы
Портативные дисковые рекордеры
Портативные ЖК-мониторы
Презентационное оборудование
Преобразователи сигналов
Рельсовые системы
Синхронизация
Системы беспроводной передачи сигнала
Телефонные гибриды
Тестовое оборудование
Трансляция звука
Усилители сигналов SDI
Хранение медиа
Хромакей
Экипировка
Видеокамеры
Видеомагнитофоны
Аккумуляторы
Адаптеры
Оптика
Освещение
Штативы
Стабилизация
Микрофоны
Аудиомикшеры
Сумки, кофры, чехлы
Носители
Операторские краны
Цифровой монтаж
Наушники
Подводная съемка
Телесуфлеры
   Proware EN-2800S6T-CM

Proware EN-2800S6T-CM

5506p Proware EN-2800S6T-CM Большое фото
В корзину

Proware EN-2800S6T-CM

Формат: Архивные системы хранения   Рэковые дисковые массивы  

Нет в продаже

All-in-One 8-ми дисковое (SAS/SATA) решение на базе ПО proNAS 3.0

Характеристики

Общее описание Proware EN-2800S6T-CM:
- RAID 0, 1, 5, 6, 10, 50
- Ram  4GB, up to 16GB
- 2 x GbE Ports (iSCSI Target support)
-  Монтажные рельсы в комплекте.

* Предлагаются для приобретения модели с большим количеством дисков:
 
- Proware EN-2123S6T-RQX -  All-in-One 12-ти дисковое (SAS/SATA)  решение  на базе ПО proNAS 3.0, Возможность работы как NAS, iSCSI или FC.  RAID levels 0, 1, 1E, 3, 5, 6, 10, 30, 50, 60, and JBOD, Ram  4GB, up to 144GB, 2 x GbE Ports (iSCSI Target / Fibre Target (Option),  поддержка расширения SAS Jbod.    Монтажные рельсы в комплекте.
 
- Proware EN-3163S6T-RQX -  All-in-One 16-ти дисковое (SAS/SATA)  решение  на базе ПО proNAS 3.0, Возможность работы как NAS, iSCSI или FC.  RAID levels 0, 1, 1E, 3, 5, 6, 10, 30, 50, 60, and JBOD, Ram  4GB, up to 144GB, 2 x GbE Ports (iSCSI Target / Fibre Target (Option),   поддержка расширения SAS Jbod.   Монтажные рельсы в комплекте.
 
- Proware EN-2126JS6T-SQX -  All-in-One 12-ти дисковое (SAS/SATA)  решение  на базе ПО proNAS 3.0, Возможность работы как NAS, iSCSI или FC.  RAID levels 0, 1, 5, 6, 10, 50, 60, Ram  4GB~32GB,           3 x GbE Ports (iSCSI Target / Fibre Target (Option),     Монтажные рельсы в комплекте.

 - Proware EN-3166JS6T-SQX -  All-in-One 16-ти дисковое (SAS/SATA)  решение  на базе ПО proNAS 3.0, Возможность работы как NAS, iSCSI или FC.  RAID levels 0, 1, 5, 6, 10, 50, 60, Ram  4GB~32GB,           3 x GbE Ports (iSCSI Target / Fibre Target (Option),     Монтажные рельсы в комплекте.

Определение

Кластер — это модульная многопроцессорная система, созданная на базе стандартных вычислительных узлов, соединенных.  Сейчас слова «кластер» и «суперкомпьютер» в значительной степени синонимы.

В отличие от большинства серверных систем с общей памятью кластерные решения легко масштабируются до систем большей производительности.


SMP и МРР

Примерно до середины 1990-х гг. основное направление развития суперкомпьютерных технологий было связано с построением специализированных многопроцессорных систем из массовых микросхем.

Один из сформировавшихся подходов — SMP (Symmetric Multi Processing), подразумевал объединение многих процессоров с использованием общей памяти, что сильно облегчало программирование, но предъявляло высокие требования к самой памяти.

Сохранить быстродействие таких систем при увеличении количества узлов до десятков было практически невозможно. Кроме того, этот подход оказался самым дорогим в аппаратной реализации.

На порядок более дешевым и практически бесконечно масштабируемым оказался способ МРР (Massively Parallel Processing), при котором независимые специализированные вычислительные модули объединялись специализированными каналами связи, причем и те и другие создавались под конкретный суперкомпьютер и ни в каких других целях не применялись.


Кластер рабочих станций

Идея создания так называемого кластера рабочих станций фактически явилась развитием метода МРР, ведь логически МРР-система не сильно отличалась от обычной локальной сети.

Локальная сеть стандартных персональных компьютеров, при соответствующем ПО использовавшаяся как многопроцессорный суперкомпьютер, и стала прародительницей современного кластера.

Эта идея получила более совершенное воплощение в середине 1990-х гг., когда благодаря повсеместному оснащению ПК высокоскоростной шиной PCI и появлению дешевой, но быстрой сети.

Fast Ethernet кластеры стали догонять специализированные МРР-системы по коммуникационным возможностям.

Это означало, что полноценную МРР-систему можно было создать из стандартных серийных компьютеров при помощи серийных коммуникационных технологий, причем такая система обходилась дешевле в среднем на два порядка.


Производительные процессоры

Новый мощный толчок развитию кластерных технологий, помимо появления более совершенных коммуникационных сетей, дал быстрый рост производительности вновь выпускаемых массовых процессоров, что сделало высокопроизводительные решения доступными как никогда.


Моделирование

Сфера применения кластерных систем сейчас нисколько не уже, чем суперкомпьютеров с другой архитектурой: они не менее успешно справляются с задачей моделирования самых разных процессов и явлений.

Суперкомпьютерное моделирование может во много раз удешевить и ускорить вывод на рынок новых продуктов, а также улучшить их качество. Например, вместо того чтобы строить дорогостоящие тестовые модели новых автомобилей, чтобы затем разбить их об стенку ради проведения инженерных расчетов, можно быстрее и точнее все посчитать на компьютерных моделях.


Высокопроизводительные вычисления

Именно развитие кластерных технологий сделало высокопроизводительные вычисления широко доступными и позволило самым разным предприятиям воспользоваться их преимуществами.


Области применения

Вот как распределяются области применения 500 самых мощных компьютеров мира: 44,3% — добывающая, электронная, автомобильная, авиационная и др. отрасли тяжелой промышленности и машиностроения, чуть более 20% — наука и образование, суперкомпьютерные центры. Более 18% приходится на погодные и климатические исследования, 7% — ядерные, космические, энергетические и военные государственные программы, 3,5% — финансовые компании и банки.

Кроме того, в списке есть компании и организации, занимающиеся медициной и разработкой новых лекарств, компьютерной графикой, перевозками, торговлей, производством продуктов питания, консалтингом и государственным управлением.

Сегодня можно говорить о том, что кластерные системы успешно применяются для всех задач суперкомпьютинга — от расчетов для науки и промышленности до управления базами данных.


Параллельные версии

Практически любые приложения, требующие высокопроизводительных вычислений, имеют сейчас параллельные версии, которые позволяют разбивать задачу на фрагменты и обсчитывать ее параллельно на многих узлах кластера.

Например, для инженерных расчетов (прочностные расчеты, аэромеханика, гидро- и газодинамика) традиционно применяются так называемые сеточные методы, когда область вычислений разбивается на ячейки, каждая из которых становится отдельной единицей вычислений.

Эти ячейки обсчитываются независимо на разных узлах кластера, а для получения общей картины на каждом шаге вычислений происходит обмен данными, распространенными в пограничных областях.


Обеспечение эффективной работы кластера с конкретным приложением

Для практических расчетов (3D-анимация, крэш-тесты, разведка нефтяных и газовых месторождений, прогнозирование погоды) обычно используются кластеры из 10-200 узлов. При этом основная задача — обеспечение эффективной работы кластера с конкретным приложением.


Прирост производительности при добавлении новых вычислительных модулей

Архитектура кластера должна обеспечивать масштабируемость ПО при увеличении количества узлов, т. е. прирост производительности при добавлении новых вычислительных модулей.

Для этого важно правильно выбрать конфигурацию кластера в зависимости от профиля обмена данными между экземплярами программы, запущенными на разных узлах. Здесь нужно учитывать общий объем пересылаемых данных, распределение длин сообщений, использование групповых операций и т. п.


Управление крупными базами данных

Сегодня даже те задачи, для решения которых традиционно применялись многопроцессорные системы с общей памятью, такие, как управление крупными базами данных, успешно решаются на кластерах.

Появление на рынке таких продуктов, как, например, Oracle RAC (Real Applications Cluster), дало возможность применять кластерные системы в области баз данных, а новая версия СУБД Oracle 10g, построенная на базе GRID-технологий, обеспечивает максимально эффективное использование кластерной архитектуры для решения этих задач.

Таким образом, благодаря доступности кластерных решений число предприятий, которые могут позволить себе кардинально упростить и ускорить работу с корпоративной базой данных, существенно увеличивается.


Наращивание вместо приобретения нового

Кластерные решения — наиболее экономически обоснованный выбор. В отличие от большинства серверных систем с общей памятью кластерные решения легко масштабируются до систем большей производительности.

Таким образом, при ужесточении требований заказчика к производительности необязательно покупать новую систему — можно добавить стандартные вычислительные узлы и легко нарастить старую.


Процессоры в сети

В настоящее время кластер состоит из вычислительных узлов на базе стандартных процессоров, соединенных высокоскоростной системной сетью (интер-коннектом), а также, как правило, вспомогательной и сервисной сетями.

Большинство кластерных систем списка Тор500 выполнены на процессорах Intel (Intel Xeon, Intel Xeon EM64T, Intel Itanium 2).

Часто используются процессоры Power и PowerPC компании IBM. В последнее время популярностью пользуются процессоры AMD (особенно AMD Opteron и его недавно вышедшая двухъядерная версия).


Вычислительные узлы

В качестве вычислительных узлов чаще всего используются двухпроцессорные SMP-серверы в корпусе от 1U до 4U, собранные в 19-дюйм стойки.

Компактные устройства позволяют создавать высокопроизводительные решения с максимальной удельной плотностью, более крупные — недорогие системы.

Каждый узел работает под управлением своей копии стандартной операционной системы, в большинстве случаев — Linux.

Состав и мощность узлов могут быть разными в рамках одного кластера, однако чаще строятся однородные кластеры.

Выбор конкретной коммуникационной среды (интерконнекта) определяется многими факторами: особенностями решаемых задач, доступным финансированием, требованиями к масштабируемости и т. п.

В кластерных решениях применяются такие технологии интерконнекта, как Gigabit Ethernet, SCI, Myrinet, QsNet, InfiniBand.


Архитектура кластера

Кластер — это сложный программно-аппаратный комплекс, и задача построения кластера не ограничивается объединением большого количества процессоров в один сегмент.

Для того чтобы кластер быстро и правильно считал задачу, все комплектующие должны быть тщательно подобраны друг к другу с учетом требований программного обеспечения, так как производительность кластерного ПО сильно зависит от архитектуры кластера, характеристик процессоров, системной шины, памяти и интерконнекта.


Архитектура под определенные задачи

Использование тех или иных компонентов сильно зависит от задачи, для которой строится кластер.

Для некоторых хорошо распараллеливаемых задач (таких, как рендеринг независимых сюжетов в видеофрагменте) основной фактор быстродействия — мощный процессор, и производительность интерконнекта не играет основной роли.

В то же время для задач гидро- и аэродинамики, расчета крэш-тестов важна производительность системной сети, иначе увеличение числа узлов в кластере будет мало влиять на скорость решения задачи.


Коммуникационная среда

Системная сеть, или высокоскоростная коммуникационная среда, выполняет задачу обеспечения эффективности вычислений.

Gigabit Ethernet — наиболее доступный тип коммуникационной среды, оптимальное решение для задач, не требующих интенсивных обменов данными (например, визуализация трехмерных сцен или обработка геофизических данных). Эта сеть обеспечивает пропускную способность на уровне MPI* (около 70 Мбайт/с) и задержку (время между отправкой и получением пакета с данными) примерно 50 мкс.

Myrinet — наиболее распространенный тип коммуникационной среды с пропускной способностью до 250 Мбайт/с и задержкой 7 мкс, а новое, недавно анонсированное ПО для этой сети позволяет сократить эту цифру в два раза.

Сеть SCI отличается небольшими задержками — менее 3 мкс на уровне MPI — и обеспечивает пропускную способность на уровне MPI от 200 до 325 Мбайт/с.

QsNet — очень производительное и дорогое оборудование, обеспечивающее задержку менее 2 мкс и пропускную способность до 900 Мбайт/с.

Наиболее перспективная на сегодня технология системной сети — InfiniBand. Ее текущая реализация имеет пропускную способность на уровне MPI до 1900 Мбайт/с и время задержки от 3 до 7 мкс.

Один из наиболее интересных продуктов, появившихся в последнее время, — высокоскоростной адаптер компании PathScale, который реализует стандартные коммутаторы и кабельную структуру InfiniBand, используя собственный транспортный протокол. Это позволило достичь рекордно низкого времени задержки — 1,3 мкс.

* MPI — наиболее распространенный и производительный протокол передачи сообщений в кластерных системах, а также интерфейс программирования для создания параллельных приложений.


Топология

Сейчас существуют два способа внутреннего устройства стандартных системных сетей. Например, сеть SCI имеет топологию двух- или трехмерного тора и не требует применения коммутаторов, что уменьшает стоимость системы. Однако эта технология имеет существенные ограничения по масштабируемости.

Остальные общедоступные высокоскоростные технологии системных сетей Myrinet, QsNet, InfiniBand используют коммутируемую топологию Fat Tree.

Вычислительные узлы кластера соединяются кабелями с коммутаторами нижнего уровня (leaf, или edge switches), которые в свою очередь объединяются через коммутаторы верхнего уровня (core, или spine switches).

При такой топологии имеется много путей передачи сообщений между узлами, что позволяет повысить эффективность передачи сообщений благодаря распределению загрузки при использовании различных маршрутов.

Кроме того, при помощи Fat Tree можно объединить практически неограниченное количество узлов, сохранив при этом хорошую масштабируемость приложений.


Вспомогательная сеть

Задача эффективного доступа узлов к данным (например, к внешнему хранилищу) чаще всего решается с помощью вспомогательной сети (как правило, Gigabit Ethernet).

Иногда для этого применяют каналы Fibre Channel (это значительно увеличивает стоимость системы) или системную сеть (например, InfiniBand в кластерах баз данных).

Вспомогательная (или сервисная) сеть также отвечает за распределение задач между узлами кластера и управление работой заданий.

Она используется для файлового обмена, сетевой загрузки ОС узлов и управления узлами на уровне ОС, в том числе мониторинга температурного режима и других параметров работы узлов.

Сервисная сеть применяется и для так называемого управления узлами out-of-band, т. е. без участия операционной системы.

К нему относятся «плавное», последовательное включение и выключение узлов во избежание большого скачка напряжения, аппаратный сброс узла и доступ к его консоли на всех этапах работы, что позволяет диагностировать поломки в недоступных узлах, изменять настройки ОС и др.


Вентиляция

В первых суперкомпьютерах использовалось жидкостное охлаждение, но такие охладительные системы нередко выходили из строя.

В современных суперкомпьютерах применяют воздушное охлаждение, и необходимый температурный режим обеспечивается двумя факторами.

Во-первых, продуманным тепловым дизайном вычислительного узла: стандартные шасси необходимо модернизировать для того, чтобы воздушный поток, создаваемый внутренними вентиляторами, максимально эффективно охлаждал процессоры.

Во-вторых, поддержанием рабочей температуры в помещении: горячий воздух должен быть либо отведен от узлов и кондиционирован, либо направлен за пределы помещения.


Оптимизация энергопотребления.

По мнению мировых экспертов, при современных темпах роста производительности систем и сохранении характеристик их энергопотребления уже к 2010 г. самые мощные суперкомпьютеры будут потреблять столько энергии, что обеспечить ее подачу и отвод тепла будет невозможно.

Однако проблема обеспечения бесперебойного питания существует и для систем со средней производительностью, и каждый изготовитель решает ее по-своему.


 Четыре типа кластерных систем:

Вычислительные кластеры, кластеры баз данных, отказоустойчивые кластеры и кластеры для распределения загрузки.

Самая многочисленная группа — вычислительные кластеры. Она может быть разбита на подгруппы; правда, классификации внутри этой группы подлежат уже не собственно вычислительные машины, а готовые программно-аппаратные кластерные решения.

Такие системы «под ключ» имеют предустановленное прикладное ПО, необходимое заказчику для решения его задач.

Решения, оптимизированные для разных приложений, различаются подбором компонентов, обеспечивающим наиболее производительную работу именно этих приложений при наилучшем соотношении цена/качество.


Кластеры баз данных

Эти системы работают с параллельными версиями баз данных и используются в крупных организациях для работы CRM-и ERP-систем, а также трапзакционных баз данных.


Отказоустойчивые кластеры

Строят для того, чтобы наилучшим образом обеспечить надежность работы критически важных приложений.

Работа приложения дублируется на разных узлах, и в случае ошибки на одном из них приложение продолжает работать или автоматически перезапускается на другом.

Такие кластеры не бывают большими, и пользователи часто строят их сами.
Кластерные технологии также используются для распределения большого потока запросов по многим серверам.

Такие решения часто применяются для поддержки Web-узлов с динамическим содержимым, постоянно обращающихся к базам данных, например, поисковых систем. В зависимости от размеров сервиса кластеры распределения загрузки могут иметь достаточно большое количество узлов.


ПО

Работа кластерных систем обеспечивается четырьмя видами специализированных приложений, как то: операционные системы (как правило, Linux), средства коммуникации (для вычислительных кластеров это обычно библиотека MPI), средства разработки параллельных приложений и ПО для администрирования кластеров.


Библиотеки программирования MPI

Для написания параллельных приложений, обеспечивающих взаимодействие между узлами кластера, используются библиотеки программирования MPI.

MPI стандартизует набор интерфейсов программирования, на которых можно писать приложения, легко переносимые на различные кластерные архитектуры.

Существует несколько популярных реализаций MPI, совместимых с различными типами интерконнектов, среди которых есть как свободно распространяемые, так и коммерческие (например, от компаний Scali, Intel, Verari Systems).

Некоторые кластерные приложения вместо интерфейса MPI используют стандартный TCP/IP, но, как правило, с меньшей эффективностью.


Компиляторы с различных языков программирования

Средства разработки параллельных приложений содержат компиляторы с различных языков программирования (например, компаний Absoft, Intel, PathScale, Portland Group), отладчики параллельных приложений (компаний Absoft, Allinea, Etnus), а также средства оптимизации параллельных приложений (например, компании PathScale).


ПО для администрирования кластеров

Позволяет контролировать запуск и планирование выполнения пакетных заданий, а также их распределение между вычислительными узлами кластера.

Эти программные средства управляют распределением нагрузки и увеличивают эффективность работы высокопроизводительных вычислительных систем.


ПО управления и мониторинга кластеров

Это ПО сильно зависит от используемых аппаратных средств и обычно поставляется изготовителем оборудования.

Можно также найти немало свободно распространяемых версий различной функциональности.


(Информация от специалистов Центра Кластерных Технологий компании «Т-Платформы»)




Технические характеристики

Форм-фактор: Rack

Внешний интерфейс: Nas-сервер proNas

Объём кэш-памяти: память 4GB DDR3 up to 16GB

Типы дисковых накопителей: с- по 2.5"/3.5” hot-swappable 6Gb/s SAS HDD

Поддерживаемые уровни RAID: RAID 0, 1, 5, 6, 10, 50

Блок питания: 2 х 400W hot-swappable power supplies with PFC

Порты:
2 х USB3.0
4 х USB2.0 
2 х Gigabit Ethernet

Процессор: Intel Celeron 2.5GHz CPU

Функциональные возможности: поддержка iSCSI target, Volume Management, Disk Roaming, RAID expansion, DHCP server, iTunes server, поддержка Backup/Restore, MAC Time Machine, Rsync, Printer server, BT download, PHP server, MySQL Server, DLNA (UPNP), P2P World Wide Web Server, Photo Al

Энергосбережение: AC 100V ~ 240V полный диапазон, 8A ~ 4A, 47~63Hz

Размеры: 88(H) x 482(W) x 500(D)mm

Полные характеристики здесь: http://www.proware.com.tw/product/datasheet_pdf/en-2800s6t-cm.pdf


   Подробнее о товаре

Консультация по телефону и ICQ
Технические характеристики
Отзывы пользователей о Proware EN-2800S6T-CM  
   Поиск модели

Искать

Как выбрать...
О компании
Помощь


Rambler's Top100 © ООО ТЕЛЕ-ВИДЕО Продукция, 2001-2022.
Наш адрес: Москва, Проспект Мира, д. 150.
Телефоны: +7 (925) 500-67-94

ПИШИТЕ НАМ