NVIDIA ConnectX-6 인피니밴드 어댑터 MCX653106A-ECAT 200Gb/s 스마트 NIC

제품 상세 정보:

브랜드 이름: Mellanox
모델 번호: MCX653106A-ECAT
문서: connectx-6-infiniband.pdf

결제 및 배송 조건:

최소 주문 수량: 1개
가격: Negotiate
포장 세부 사항: 외부 상자
배달 시간: 목록을 기반으로
지불 조건: 티/티
공급 능력: 프로젝트/배치 별 공급
최고의 가격 접촉

상세 정보

제품상태: 재고 애플리케이션: 섬기는 사람
인터페이스 유형:: 인피니본 포트: 듀얼
최대 속도: 100gbe 유형: 열광한
상태: 신규 및 원본 보증 기간: 1년
모델: MCX653106A-ECAT 이름: Mellanox 네트워크 카드 기존 MCX653106A-ECAT X-6 100Gb/s 듀얼 포트 QSFP56 이더넷 어댑터 연결
예어: Mellanox 네트워크 카드
강조하다:

NVIDIA ConnectX-6 인피니밴드 어댑터

,

200Gb/s 스마트 NIC

,

보증이 있는 Mellanox 네트워크 카드

제품 설명

NVIDIA ConnectX-6 InfiniBand 어댑터 MCX653106A-ECAT

인네트워크 컴퓨팅 기능이 포함된 200Gb/s 듀얼 포트 스마트 어댑터

NVIDIA ConnectX-6 MCX653106A-ECAT은 최대 200Gb/s 대역폭, 마이크로초 미만의 지연 시간, HPC, AI 및 하이퍼컨버지드 스토리지용 하드웨어 오프로드를 제공합니다. RDMA, NVMe-oF 가속, 블록 수준 XTS-AES 암호화 및 PCIe 4.0을 특징으로 하는 이 듀얼 포트 QSFP56 InfiniBand 어댑터는 데이터 센터 효율성과 확장성을 극대화합니다. GPU 클러스터, ML 학습 및 미션 크리티컬 네트워크에 이상적입니다.

InfiniBand 및 이더넷 지원 RDMA / GPUDirect NVMe-oF 오프로드
제품 개요

MCX653106A-ECAT은 가장 까다로운 워크로드를 위해 설계된 NVIDIA ConnectX-6 InfiniBand 어댑터 제품군의 일부입니다. 200Gb/s InfiniBand 또는 200Gb/s 이더넷 연결이 가능한 두 개의 QSFP56 포트를 결합하여 하드웨어 기반의 안정적인 전송, 혼잡 제어 및 인네트워크 컴퓨팅 엔진을 제공합니다. 집계 연산, MPI 태그 일치 및 암호화를 호스트 CPU에서 오프로드함으로써 어댑터는 CPU 오버헤드를 줄이고 대규모 클러스터에서 애플리케이션 성능을 향상시킵니다. 기업, 연구소 및 하이퍼스케일 데이터 센터는 ConnectX-6를 사용하여 에너지 효율적이고 지연 시간이 짧은 패브릭을 구축합니다.

주요 기능
포트 속도
포트당 최대 200Gb/s (HDR InfiniBand / 200GbE)
메시지 속도
초당 최대 215백만 메시지
하드웨어 암호화
블록 수준 XTS-AES 256/512비트, FIPS 준수
인네트워크 컴퓨팅
집계 오프로드, NVMe-oF 대상/이니시에이터 오프로드
호스트 인터페이스
PCIe Gen 4.0/3.0 x16 (듀얼 포트 지원)
가상화
최대 1K VF의 SR-IOV, ASAP2, Open vSwitch 오프로드
RDMA 기능
RoCE, XRC, DCT, 온디맨드 페이징, 적응형 라우팅 지원
폼 팩터
스탠드업 PCIe (로우 프로파일), 듀얼 포트 QSFP56
첨단 기술

NVIDIA의 검증된 InfiniBand 아키텍처를 기반으로 구축된 ConnectX-6는 인네트워크 컴퓨팅을 통합하여 MPI 연산, 딥 러닝 프레임워크 및 스토리지 프로토콜을 가속화합니다. 이 어댑터는 제로 복사 데이터 전송을 위해 원격 직접 메모리 액세스(RDMA)를 지원하여 CPU와 커널을 우회합니다. 하드웨어 기반 혼잡 제어는 과부하 상태에서도 예측 가능한 성능을 보장합니다. 또한, NVIDIA GPUDirect RDMA는 GPU 메모리와 네트워크 어댑터 간의 직접 데이터 교환을 허용하여 AI 학습의 지연 시간을 단축합니다. NVMe over Fabrics (NVMe-oF) 오프로드를 지원하여 CPU 사용량을 줄이는 동시에 NVMe 플래시에 대한 고처리량, 저지연 액세스를 가능하게 합니다.

일반적인 배포
  • 고성능 컴퓨팅 (HPC):낮은 지연 시간과 높은 대역폭을 요구하는 대규모 시뮬레이션, 날씨 모델링 및 전산 유체 역학.
  • AI 및 머신 러닝 클러스터:최대 효율성을 위해 GPUDirect 및 RDMA를 활용하는 딥 신경망의 분산 학습.
  • NVMe-oF 스토리지 시스템:대상 또는 이니시에이터 오프로드는 낮은 CPU 오버헤드로 고성능 분산 스토리지를 가능하게 합니다.
  • 하이퍼스케일 데이터 센터:SR-IOV, 오버레이 네트워크 및 서비스 체이닝을 갖춘 가상화 환경.
  • 금융 서비스:결정론적 성능을 요구하는 초저지연 거래 인프라.
호환성

ConnectX-6 MCX653106A-ECAT은 광범위한 서버, 스위치 및 운영 체제와 호환됩니다. NVIDIA Quantum InfiniBand 스위치(HDR 200Gb/s) 및 200GbE 이더넷 스위치와 상호 운용됩니다. 이 어댑터는 표준 PCIe 슬롯(x16, x8, x4)을 지원하며 주요 OS 플랫폼에 대한 드라이버 지원을 포함합니다.

기술 사양
매개변수 사양
제품 모델 MCX653106A-ECAT
데이터 속도 200Gb/s, 100Gb/s, 50Gb/s, 40Gb/s, 25Gb/s, 10Gb/s, 1Gb/s (InfiniBand 및 이더넷)
포트 2x QSFP56 커넥터
호스트 인터페이스 PCIe Gen 4.0 / 3.0 x16 (x8, x4, x2, x1 구성 지원)
지연 시간 극히 낮은 마이크로초 미만 (일반적으로 <0.8µs)
메시지 속도 초당 최대 215백만 메시지
암호화 XTS-AES 256/512비트, FIPS 140-2 준수 준비
폼 팩터 PCIe 로우 프로파일 스탠드업 (하이 브래킷 장착, 로우 브래킷 포함)
치수 (브래킷 제외) 167.65mm x 68.90mm
전력 소비 일반 22W (트래픽에 따라 다름)
가상화 SR-IOV (1K VF), VMware NetQueue, NPAR, ASAP2 흐름 오프로드
관리 NC-SI, PCIe/SMBus를 통한 MCTP, 펌웨어 업데이트 및 모니터링을 위한 PLDM
원격 부팅 InfiniBand, iSCSI, PXE, UEFI
운영 체제 RHEL, SLES, Ubuntu, Windows Server, FreeBSD, VMware vSphere, OFED 스택
선택 가이드 – ConnectX-6 어댑터
주문 부품 번호 (OPN) 포트 최대 속도 호스트 인터페이스 주요 차별점
MCX653106A-ECAT 2x QSFP56 100Gb/s (이하도 가능) PCIe 3.0/4.0 x16 듀얼 포트 100GbE/IB, 고급 오프로드, 암호화 옵션? 이 변형에는 내장 암호화 기능이 없지만 소프트웨어를 통한 블록 암호화를 지원합니까? 실제로는 하드웨어 AES 엔진, 사양 참조; 가상화 및 스토리지에 이상적
MCX653105A-HDAT 1x QSFP56 200Gb/s PCIe 3.0/4.0 x16 단일 포트 200Gb/s, 암호화 지원
MCX653106A-HDAT 2x QSFP56 200Gb/s PCIe 3.0/4.0 x16 듀얼 포트 200Gb/s 전체 대역폭, 암호화 오프로드
MCX653105A-ECAT 1x QSFP56 100Gb/s PCIe x16 단일 포트 100Gb/s, 저가형 진입
MCX653436A-HDAT (OCP 3.0) 2x QSFP56 200Gb/s PCIe 3.0/4.0 x16 OCP 3.0 소형 폼 팩터, 듀얼 포트
참고: 모든 기능(예: 암호화 엔진)이 모든 OPN에서 제공되는 것은 아닙니다. MCX653106A-ECAT은 RDMA, 스토리지 오프로드 및 가상화를 포함한 전체 ConnectX-6 기능 세트로 듀얼 포트 100Gb/s 효율성에 중점을 둡니다. 200Gb/s 듀얼 포트의 경우 -HDAT 변형을 고려하십시오. 주문 전에 암호화 요구 사항을 확인하십시오.
ConnectX-6 MCX653106A-ECAT을 선택하는 이유
  • 최대 애플리케이션 성능:MPI, NVMe-oF 및 암호화에 대한 하드웨어 오프로드는 CPU 코어를 실제 워크로드에 할당합니다.
  • 미래 지향적 대역폭:PCIe 4.0 및 200Gb/s 준비 상태는 고속 패브릭에서 수명을 보장합니다.
  • 인네트워크 메모리 및 컴퓨팅:집계 오프로드 및 버스트 버퍼를 지원하여 데이터 이동 오버헤드를 줄입니다.
  • 신뢰할 수 있는 보안:FIPS 준수 블록 수준 AES-XTS 암호화는 성능 저하 없이 데이터 저장 및 전송 중 보호를 보장합니다.
  • 간소화된 관리:광범위한 OS 및 하이퍼바이저 지원, 통합 드라이버 스택(OFED, WinOF-2).
서비스 및 지원

홍콩 Starsurge Group은 모든 NVIDIA ConnectX 어댑터에 대한 완전한 기술 지원, 보증 범위 및 RMA 서비스를 제공합니다. 당사의 네트워킹 엔지니어 팀은 구성, 펌웨어 업데이트 및 성능 튜닝을 지원합니다. 글로벌 배송, 데이터 센터 프로젝트를 위한 대량 가격 책정 및 맞춤형 재고 예약을 제공합니다. 대량 주문의 경우 영업팀에 문의하여 맞춤형 견적 및 리드 타임 정보를 받으십시오.

자주 묻는 질문
Q: MCX653106A-ECAT은 InfiniBand와 이더넷 모두와 호환됩니까?
A: 예. ConnectX-6 시리즈는 InfiniBand(포트당 최대 200Gb/s) 및 이더넷(최대 200GbE)의 듀얼 프로토콜 작동을 지원합니다. 특정 OPN은 적절한 트랜시버 및 스위치와 함께 사용할 때 두 프로토콜 모두에 대해 최대 100Gb/s의 속도를 지원합니다.
Q: 이 어댑터는 GPU Direct RDMA를 지원합니까?
A: 물론입니다. NVIDIA GPUDirect RDMA가 지원되어 GPU 메모리와 네트워크 간의 직접 통신을 가능하게 하며, AI 프레임워크 및 MPI 워크로드에 이상적입니다.
Q: -ECAT과 -HDAT 접미사의 차이점은 무엇입니까?
A: -ECAT은 특정 기능 세트로 최대 속도 100Gb/s(IB 및 ETH 모두)를 나타내고, -HDAT는 하드웨어 암호화 및 향상된 엔진으로 200Gb/s 기능을 나타냅니다. 필요한 포트 대역폭에 따라 선택하십시오.
Q: 이 카드를 PCIe 3.0 슬롯에 사용할 수 있습니까?
A: 예, PCIe 3.0과 하위 호환됩니다. 그러나 PCIe 4.0에 비해 최대 대역폭이 제한될 수 있습니다.
Q: 어댑터에 NVMe-oF 하드웨어 오프로드가 포함되어 있습니까?
A: 예, ConnectX-6는 완전한 NVMe-oF 대상 및 이니시에이터 오프로드를 제공하여 스토리지 워크로드에 대한 CPU 오버헤드를 크게 줄입니다.
중요 주의 사항
• 고속 어댑터에 대해 서버 마더보드에 충분한 공기 흐름이 있는지 확인하십시오. 권장 온도 범위 내에서 패시브 또는 액티브 QSFP56 케이블을 사용하십시오.
• PCIe 슬롯이 적절한 전력(슬롯을 통해 최대 75W; 이 어댑터는 일반적으로 <25W).
• 액체 냉각 플랫폼의 경우 콜드 플레이트 변형이 필요한 경우 Intel Server System D50TNP와의 호환성을 확인하십시오(이 OPN은 표준 공랭식).
• OS 드라이버 호환성을 최신 OFED 또는 WinOF-2 스택과 확인하십시오.
홍콩 Starsurge Group 소개

2008년부터 홍콩 Starsurge Group Co., Limited는 전 세계에 엔터프라이즈급 네트워킹 하드웨어, 시스템 통합 및 IT 서비스를 제공합니다. NVIDIA 네트워킹 제품의 신뢰할 수 있는 파트너로서 Starsurge는 정부, 금융, 의료, 교육 및 하이퍼스케일 데이터 센터를 위한 인증된 솔루션을 제공합니다. 당사의 기술 팀은 사전 판매 아키텍처 설계부터 사후 판매 지원까지 원활한 배포를 보장합니다. 고객 우선 철학을 바탕으로 NIC, 스위치, 케이블 및 엔드 투 엔드 네트워크 솔루션을 포함한 맞춤형 확장 가능한 인프라 구성 요소를 제공합니다.

글로벌 배송 · 다국어 지원 · OEM 서비스 가능

주요 사실 요약
2x 100Gb/s 포트
215M 메시지/초
PCIe 4.0 x16
XTS-AES + FIPS
SR-IOV (1K VF)
NVMe-oF 오프로드
호환성 매트릭스 (빠른 참조)
구성 요소 / 생태계 지원됨 참고
NVIDIA Quantum HDR 스위치 ✓ 예 200Gb/s 전체 패브릭 통합
이더넷 200G/100G 스위치 ✓ 예 호환 가능한 트랜시버/FEC 모드 필요
GPU Direct RDMA ✓ 예 지원되는 NVIDIA GPU 시리즈
VMware vSphere / ESXi ✓ 인증됨 기본 드라이버, SR-IOV 지원
Windows Server 2019/2022 ✓ 예 WinOF-2 드라이버 패키지
Linux 커널 및 OFED ✓ 전체 지원 MLNX_OFED, 인박스 드라이버
구매자 체크리스트 – 주문 전
  • 필요한 링크 속도 확인: 2포트 100Gb/s가 클러스터 대역폭 계획에 맞습니까? 2포트 200Gb/s의 경우 -HDAT OPN을 고려하십시오.
  • 서버 PCIe 슬롯 확인: 물리적 x16, Gen 3 또는 Gen 4 권장.
  • 케이블 유형 확인: QSFP56 패시브 구리(최대 5m) 또는 더 긴 도달 거리를 위한 액티브 광 케이블.
  • 운영 체제 드라이버 가용성 확인(OFED, WinOF).
  • 암호화 요구 사항: 내장 블록 암호화가 필요한지 확인하십시오. MCX653106A-ECAT은 AES-XTS를 지원하지만 항상 NVIDIA 데이터시트에서 FIPS 수준을 확인하십시오.
  • 가상화 요구 사항 평가: SR-IOV, VXLAN 오프로드 등.

이 제품에 대한 자세한 내용을 알고 싶습니다
나는 관심이있다 NVIDIA ConnectX-6 인피니밴드 어댑터 MCX653106A-ECAT 200Gb/s 스마트 NIC 유형, 크기, 수량, 재료 등과 같은 자세한 내용을 보내 주시겠습니까?
감사!
답변 기다 리 겠 습 니 다.