Начало
О нас
Доставка
Контакты
Новости
Карта сайта
Наш телефон: (495) 796-18-62

 Наш телефон: (495) 796-18-62

Всего товаров: 0
Товаров на сумму: 0 руб.
Видео оборудование
Жесткие диски HDD
Измерительные приборы
Компьютерные комплектующие
Ленточные системы резервного копирования
Модули памяти
Оборудование Cisco
Оборудование SUN
Оргтехника
Портативные компьютеры
Промышленные компьютеры
Процессоры
Серверы и комплектующие к ним
Сетевое и телекоммуникационное оборудование
Системы безопасности
Устройства хранения данных
Ключевое слово или p/n:
Способы оплаты
Yandex.Metrika
Яндекс.Метрика
Начало > Каталог товаров > Серверы и комплектующие к ним > Комплектующие для серверов > Mellanox Infiniband MHEA28-XT InfiniBridge Board, 10Gb PCI-E x8 (PCI-Express), OEM (интерфейсная плата)

Комплектующие для серверов

Mellanox Infiniband MHEA28-XT InfiniBridge Board, 10Gb PCI-E x8 (PCI-Express), OEM (интерфейсная плата)

Количество:
Mellanox Infiniband MHEA28-XT InfiniBridge Board, 10Gb PCI-E x8 (PCI-Express), OEM (интерфейсная плата)

Цена: 29915 руб.

Мера: шт.
Артикул: 12101
Товар на складе: есть

Полное описание и характеристики товара Mellanox Infiniband MHEA28-XT InfiniBridge Board, 10Gb PCI-E x8 (PCI-Express), OEM (интерфейсная плата):

 

Адаптер Mellanox Infiniband MHEA28-XT InfiniBridge Board, 10Gb PCI-E x8 (PCI-Express)

 

 

 

Описание и характеристики:

 

ПОВЫШЕНИЕ ПРОИЗВОДИТЕЛЬНОСТИ

Адаптеры Mellanox Infiniband обеспечивают более высокий уровень производительности, функциональности и эффективности ИТ-инфраструктуры центров обработки данных

Компания Melanox сохраняет свое лидерство в производстве адаптеров InfiniBand Host Channel (HCA) - самого производительного решения интерконнекта для корпоративных центров обработки данных (ЦОД), высокопроизводительных вычислений и встроенных решений.

ПРЕДЛОЖЕННЫЕ ЦЕННОСТИ

Высокопроизводительные вычисления (НРС) требуют большой полосы пропускания, небольшой задержки и разкрузки процессоров, чтобы получить самую высокую эффективность от сервера и производительности приложения. Melanox HCA обеспечивает такую производительность ввода/вывода, которая удовлетворяет этим требованиям.

ЦОД и облачные вычисления очень требовательны к производительности ввода/вывода, который обеспечивается полосой пропускания, консолидацией и унификацией, а также - к гибкости. Melanox HCA поддерживает консолидацию трафика LAN и SAN и обеспечивает ускорение оборудования для виртуализации серверов.

Гибкость Virtual Protocol Interconnect (VPI) обеспечивает интерконнект для Infiniband, Data Center Ethernet, FCoIB и FCoE.

Адаптеры Melanox InfiniBand Host Channel (HCA)
Предоставляют самое высокопроизводительное решение интерконнекта для корпоративных центров обработки данных, облачных вычислений, высокопроизводительных вычислений и встроенных устройств.Кластерные базы данных, распараллеливаемые приложения, транзакционные услуги и высокопроизводительные встроенные приложения ввода/вывода достигают значительного роста в производительности, что приводит к сокращению времени счета и снижает стоимость одной операции. Виртуализованные сервера становятся более производительными при сокращении потребляемой мощности и уменьшению количества кабелей.

Производительность мирового уровня
Адаптеры Melanox InfiniBand обеспечивают самую большую в отрасли полосу пропускания - 40 Гб/с - с очень небольшой задержкой для серверов, рещающих производительные задачи и для приложений с кластерными системами хранения. Непроизводительная работа процессора сводится к минимуму с помощью разгрузки транспорта на базе оборудования и таких средств ускорения перемещения данных, как RDMA и семантика Send/Receive, чтобы сделать производительность сервера максимальной. Адаптеры Melanox InfiniBand поддерживают от одного до 64 процессорных ядер с нулевым воздействием на величину мертвого времени и могут обслуживать до 10 тысяч узлов.

Виртуализация ввода/вывода
Адаптеры Melanox поддерживают виртуализацию ввода/вывода на уровне оборудования и обеспечивают специальные ресурсы адаптера и гарантированную изоляцию и защиту для виртуальных машин на сервере. Виртуализация ввода/вывода на InfiniBand позволяет менеджерам центров обработки данных повысить используемость серверов и унификацию LAN и SAN, снижая при этом издержки, потребляемую мощность и количество кабелей.

Ускорение систем хранения
Консолидация вычислительной системы с системой хранения приводит к значительной экономии средств по сравнению с "multifabric" сетями.Стандартные блоки и протоколы доступа к файлам улучшают результаты работы InfiniBand RDMA в высокопроизводительном доступе к системам хранения. Адаптеры Melanox поддерживают протоколы SCSI, iSCSI и NFS.

Все карты адаптеров Melanox InfiniBand совместимы с TCP/IP и протоколами и ПО RDMA от OpenFabric. Они также совместимы с управляющим ПО для кластеров и InfiniBand, доступным от Melanox и ОЕМ. У карт адаптеров есть драйверы для всех известных дистрибутивов основных операционных систем.

СonnectX-2 c протоколом виртуального интерконнекта (VPI - Virtual Protocol Interconnect)
Ведущие в отрасли адаптеры Melanex ConnectX-2 InfiniBand предоставляют пользователям самое высокопроизводительное и наиболее гибкое решение для интерконнекта. ConnectX-2 обеспечивают пропускную способность до 40 Гб/с по шине PCI Express 2.0, самую низкую задержку при транзакциях - до 1 микросекунды и могут передавать до 50 миллионов MPI-посланий в секунду, что делает их наиболее удобным и масштабируемым решением не только для нынешних, но и для будущих траннзакционных приложений. Вдобавок ко всем возможностям InfiniBand, отмеченным выше, ConnectX-2 поддерживают самые современные услуги QoS (качество обслуживания), разгрузку оборудования и управление перегрузкой, чтобы максимально повысить эффективность сети и сделать ее практически идеальной для использования в высокопроизводительных вычислениях или центрах обработки данных с широким кругом исполняемых приложений.

Гибкость VPI позволяет любому стандартному сетевому, кластерному протоколу или протоколу системы хранения незаметно функционировать с любой конвергентной сети, используя возможности всего консолидированного ПО. Каждый порт ConnectX-2 может работать на фабриках InfiniBand, Ethernet или DCB (Data Center Bridging), а также поддерживает FC0IB (Fibre Channel over InfiniBand) или FCoE (over Ethernet). ConnectX-2 c VPI упрощает дизайн системы ввода/вывода и облегчает ИТ-менеджерам процесс развертывания инфраструктуры, что очень важно в работе динамического центра обработки данных.

Завершенное end-to-end решение сети InfiniBand на 40 Гб/с
Адаптеры ConnectX-2 являются частью полного 40-гигпбитного портфеля решений Melanox для центров обработки данных и систем высокопроизводительных вычислений, включая коммутаторы и кабели. Семейство 40-гигабитных InfiniBand коммутаторов Melanox IS5000 содержит в себе специальные инструменты, которые упрощают управление сетью и установку, а также обеспечивают необходимые ресурсы для прекрасной масштабируемости и дальнейшего роста. Медные и волоконно-оптические 40-гигабитные кабели Melanox обеспечивают прекрасную работу интерконнекта. Благодаря "end-to-end" решению Melanox ИТ-менеджеры могут быть уверены в прекрасной работе самой эффективной сетевой фабрики.

Преимущества

  • Лидирующая в отрасли кластерная производительность
  • Высокопроизводительный доступ к сети и системе хранения
  • Эффективное использование вычислительных ресурсов
  • Гарантированная полоса пропускания и услуги с очень небольшой задержкой
  • Надежный транспорт
  • Унификация ввода-вывода
  • Ускорение виртуализация
  • Возможность работы с десятками тысяч узлов


Области применения

  • Высокопроизводительные параллельные вычисления
  • Виртуализация центров обработки данных с помощью VMware ESX Server
  • Приложения для кластерных баз данных, параллельные очереди RDBMS, хранение данных с большой полосой пропускания
  • Приложения, чувствительные к времени задержки, такие как финансовый анализ и торговля акциями
  • Центры обработки данных для облачных и grid-вычислений
  • Производительные приложения для систем хранения, таких как резервное копирование, восстановление, зеркалирование и т.д.


Полная спецификация

InfiniBand

    Совместимость со спецификацией IBTA 1.2.1
  • 10, 20 или 40 Гб на порт
  • RDMA, семантика приема-получения
  • Контроль перегрузки на уровне оборудования
  • Основные атомарные операции с целыми числами и указателями
  • 16 миллионов каналов ввода/вывода
  • 9 виртуальных дорожек - 8 для данных и одна для управления


Расширенный InfiniBand (ConnectX-2)

    Надежный транспорт на основе оборудования
  • Разгрузка коллективных действий
  • Надежная многоадресная рассылка на основе оборудования
  • Надежный расширяемый транспорт
  • Расширенные атомарные операции с целыми числами и указателями
  • "End-to-end" решения для контроля качества


Виртуализация ввода/вывода на базе оборудования (ConnectX-2)

    Single Root IOV
  • Адресная трансляция и защита
  • Многочисленные очереди к виртуальной машине
  • Поддержка VMware NetQueue


Дополнительная разгрузка процессоров (ConnectX-2)

    Разгрузка TCP/UDP/IP без уведомления
  • Интеллектуальное объединение прерываний
  • Совместимость с Microsoft RSS и NetDMA


Поддержка хранения (ConnectX-2)

    Fibre Channel поверх InfiniBand или Ethernet
  • Совместимость с форматом Т11

 

  MHES14-XTC MHES18-XTC MHGS18-XTC MHEA28-XTC

MHGA28-XTC
MHGH19B-XTR

MHJH19B-XTR
MHGH29B-XTR

MHJH29B-XTR
MHRH19B-XTR

MHQH19B-XTR
MHRH29B-XTR

MHQH29B-XTR
Порты 1 x 10Gb/s 1 x 10Gb/s

1 x 20Gb/s
2 x 10Gb/s

2 x 20Gb/s
1 x 20Gb/s

1 x 40Gb/s
2 x 20Gb/s

2 x 40Gb/s
1 x 20Gb/s

1 x 40Gb/s
2 x 20Gb/s

2 x 40Gb/s
ASIC InfiniHost III Lx InfiniHost III Lx InfiniHost III Lx ConnectX-2 ConnectX-2 ConnectX-2 ConnectX-2
Разъем подключения microGiGaCN microGiGaCN microGiGaCN microGiGaCN microGiGaCN QSFP QSFP
Хост контролер PCIe 1.1 PCIe 1.1 PCIe 1.1 PCIe 2.0 PCIe 2.0 PCIe 2.0 PCIe 2.0
Скорость 2.5GT/s 2.5GT/s 2.5GT/s 5.0GT/s 5.0GT/s 5.0GT/s 5.0GT/s
К-во линий x4 x8 x8 x8 x8 x8 x8
Особенности Аппаратная передача, RDMA, I / O виртуализации VPI, аппаратная передача, RDMA, I / O виртуализации, QoS и Congestion Control; IP Stateless Offload
Поддержка ОС RHEL, SLES, Windows, HPUX, ESX3.5 RHEL, SLES, Windows, HPUX, ESX3.5 RHEL, SLES, Windows, HPUX, ESX3.5 RHEL, SLES, Windows, ESX3.5 RHEL, SLES, Windows, ESX3.5 RHEL, SLES, Windows, ESX3.5 RHEL, SLES, Windows, ESX3.5
RoHS Есть Есть Есть Есть Есть Есть Есть
Количество:

У нас Вы можете купить со склада В Москве и под заказ жесткие диски, модули памяти, процессоры, блоки питания, видеокарты и другие комплектующие для серверов и компьютеров.

Аналоги
Intel CPU cooler/radiator A65061-001, Socket 478  (вентилятор для процессора)
Intel CPU cooler/radiator A65061-001, Socket 478 (вентилятор для процессора)
2385 руб.
Наличие товара: поставляется под заказ
посмотреть

Intel PIII slot-to-socket Adapter (SSA), p/n: A54852-001 (крепление для радиатора)
3480 руб.
Наличие товара: в наличии
посмотреть
в корзину
Intel SR2300 SCSI Hot-Swap Backplane, p/n: A79488-303, OEM (объединительная панель)
26300 руб.
Наличие товара: поставляется под заказ
посмотреть

Jetway J7F2WE2G Mainboard, Mini-ITX, 2000MHz, OEM (системная плата)
47885 руб.
Наличие товара: поставляется под заказ
посмотреть

С этим товаром покупают
IBM xSeries 335 Heat Sink Retention Module, p/n: 24P0835, FRU: 24P0835, OEM (крепление для радиатора)
IBM xSeries 335 Heat Sink Retention Module, p/n: 24P0835, FRU: 24P0835, OEM (крепление для радиатора)
11880 руб.
Наличие товара: в наличии
посмотреть
в корзину
IBM xSeries VRM module, p/n: 00N7753, FRU: 00N7754, OEM (модуль регулирования напряжения)
IBM xSeries VRM module, p/n: 00N7753, FRU: 00N7754, OEM (модуль регулирования напряжения)
5880 руб.
Наличие товара: в наличии
посмотреть
в корзину
IBM/ACBel API3FS25 xSeries x336 Power Supply (PS) 585W, p/n: 24R2639, FRU: 24R2640, OEM (блок/источник питания для сервера)
IBM/ACBel API3FS25 xSeries x336 Power Supply (PS) 585W, p/n: 24R2639, FRU: 24R2640, OEM (блок/источник питания для сервера)
14280 руб.
Наличие товара: в наличии
посмотреть
в корзину
Начало | О нас | Условия доставки | Контакты | Условия оплаты | Гарантии | Наши прайс-листы Copyright ©2024
Разработка интернет-магазина Shop-Rent.ru