NVIDIA ConnectX-6 MCX653105A-HDAT 200Gb/s 단일 포트 InfiniBand 스마트 어댑터 (하드웨어 암호화 및 PCIe 4.0 지원)
제품 상세 정보:
| 브랜드 이름: | Mellanox |
| 모델 번호: | MCX653105A-HDAT |
| 문서: | connectx-6-infiniband.pdf |
결제 및 배송 조건:
| 최소 주문 수량: | 1개 |
|---|---|
| 가격: | Negotiate |
| 포장 세부 사항: | 외부 상자 |
| 배달 시간: | 목록을 기반으로 |
| 지불 조건: | 티/티 |
| 공급 능력: | 프로젝트/배치 별 공급 |
|
상세 정보 |
|||
| 제품상태: | 재고 | 애플리케이션: | 섬기는 사람 |
|---|---|---|---|
| 상태: | 신규 및 원본 | 유형: | 열광한 |
| 최대 속도: | 최대 200GB/s | 이더넷 커넥터: | QSFP56 |
| 모델: | MCX653105A-HDAT | ||
| 강조하다: | NVIDIA ConnectX-6 인피니밴드 어댑터,200Gb/s PCIe 4.0 네트워크 카드,하드웨어 암호화 기능이 있는 InfiniBand 어댑터 |
||
제품 설명
200Gb/s 단일 포트 HDR 스마트 어댑터, 네트워크 컴퓨팅 및 하드웨어 암호화
NVIDIA ConnectX-6MCX653105A-HDAT단일 QSFP56 포트에서 전체 200Gb/s 처리량을 제공하며, 초저용 지연, 하드웨어 오프로드 및 블록 레벨 XTS-AES 암호화 등을 결합합니다. HPC, AI 클러스터 및 NVMe-oF 스토리지에 설계되었습니다.이 PCIe 4.0 x16 어댑터는 CPU에서 집단 작업, RDMA 및 암호화를 제거하여 까다로운 데이터 센터 환경에서 응용 프로그램 성능과 확장성을 극대화합니다.
의MCX653105A-HDATNVIDIA ConnectX-6 InfiniBand 어댑터 가족에 속하며, 현대 데이터 센터에서 극도의 성능을 위해 설계되었습니다. 이 단일 포트 QSFP56 카드는 최대200Gb/s(HDR InfiniBand 또는 200GbE) 는 RDMA, 신뢰할 수 있는 전송 및 In-Network Computing를 위한 완전한 하드웨어 가속도로그리고 NVMe를 통해 천재 가속, 어댑터는 CPU 오버헤드를 크게 줄이는 동시에 직물 효율성을 높인다. 그것의 내장된 AES-XTS 블록 레벨 암호화 성능 처벌 없이 데이터 보안을 보장,금융 서비스를 위한 최적의, 정부 연구, 그리고 초대 규모의 클라우드 배포.
최대 200Gb/s (HDR 인피니밴드 / 200GbE) 단일 QSFP56
최대 215만 메시지/초
블록 레벨 XTS-AES 256/512 비트, FIPS를 준수
집단 출하, NVMe-oF 목표/시작자 출하, 폭발 버퍼
PCIe Gen 4.0 / 3.0 x16 (후향 호환)
SR-IOV (1K VFs), ASAP2, 오픈 vSwitch 오프로드, 오버레이 터널
RoCE, XRC, DCT, 주문형 페이징, GPUDirect RDMA 지원
스탠드업 PCIe 저 프로필, 높은 브래킷 미리 설치 + 짧은 브래킷 포함
NVIDIA ConnectX-6 통합네트워크 내 컴퓨팅MCX653105A-HDAT는 하드웨어 기반의 신뢰할 수 있는 전송, 적응형 라우팅 및 혼잡 제어,대규모 직물에서 예측 가능한 성능을 보장합니다..리모트 다이렉트 메모리 액세스 (RDMA)OS 커널을 우회하여 데이터 전송을 가능케 합니다.NVIDIA GPUDirect RDMA, GPU 메모리는 네트워크 어댑터와 직접 통신하여 AI 훈련 및 HPC 시뮬레이션에 대한 대기 시간을 줄입니다.블록 레벨 XTS-AES 암호화(256/512비트 키) 는 CPU 오버헤드 없이 전송중의 데이터와 휴식중의 데이터의 보안을 보장하며, 어댑터는 FIPS 140-2 준수 요구 사항을 충족하도록 설계되었습니다.
- 고성능 컴퓨팅 (HPC):대용량 시뮬레이션, 날씨 예측 및 계산 유체 역학, 200Gb/s의 저연속 상호 연결이 필요합니다.
- 인공지능과 딥러닝 클러스터:GPUDirect RDMA로 분산 훈련, GPU 노드 간의 처리량을 극대화합니다.
- NVMe-oF 저장 시스템:고성능 분산 스토리지는 전체 타겟/이니셔터 오프로드로 CPU 사용량을 줄입니다.
- 하이퍼스케일 및 클라우드 데이터 센터:SR-IOV, 오버레이 네트워크, 하드웨어 가속 암호화와 가상화된 환경
- 금융거래 플랫폼:알고리즘 트레이딩을 위한 극저지 지연 시간 결정적 네트워크
커넥트X-6 MCX653105A-HDAT는 NVIDIA 퀀텀 인피니밴드 스위치 (HDR 200Gb/s), 표준 200GbE 스위치 및 광범위한 서버 플랫폼과 원활하게 상호 작용합니다.주요 운영 체제 및 가상화 스택을 지원합니다., 기존 인프라에 유연한 통합을 보장합니다.
| 매개 변수 | 사양 |
|---|---|
| 제품 모델 | MCX653105A-HDAT |
| 데이터 비율 | 200Gb/s, 100Gb/s, 50Gb/s, 40Gb/s, 25Gb/s, 10Gb/s, 1Gb/s (인피니밴드 및 이더넷) |
| 포트 및 커넥터 | 1x QSFP56 (시동 구리, 활성 광학 및 AOC 케이블을 지원합니다) |
| 호스트 인터페이스 | PCIe Gen 4.0 x16 (Gen 3과도 호환)0, 2.0; x8, x4, x2, x1 구성을 지원합니다.) |
| 지연시간 | 소미크로초 (일반적으로 <0.7μs) |
| 메시지 비율 | 초당 최대 2억 5천 5백만 건의 메시지 |
| 암호화 | XTS-AES 256/512 비트 하드웨어 출하 FIPS 140-2 준비 |
| 형태 요인 | PCIe 저 프로필 서식 (고대 브래킷 전 설치, 짧은 브래킷 액세서리 포함) |
| 크기 (아침 없이) | 167.65mm x 68.90mm |
| 전력 소비 | 전형적인 22W 24W (연결 사용량에 따라) |
| 가상화 | SR-IOV (최다 1K 가상 함수), VMware NetQueue, NPAR, ASAP2 플로우 오프로드 |
| 관리 및 모니터링 | NC-SI, MCTP PCIe/SMBus, PLDM (DSP0248, DSP0267), I2C, SPI 플래시 |
| 원격 부팅 | InfiniBand, iSCSI, PXE, UEFI |
| 운영체제 | RHEL, SLES, 우분투, 윈도 서버, 프리BSD, VMware vSphere, OpenFabrics 엔터프라이즈 배포판 (OFED), WinOF-2 |
| 주문부품 번호 (OPN) | 항구 | 최대 속도 | 호스트 인터페이스 | 주요 특징 |
|---|---|---|---|---|
| MCX653105A-HDAT | 1x QSFP56 | 200Gb/s | PCIe 3.0/4.0 x16 | 단일 포트, 하드웨어 암호화, 전체 ConnectX-6 오프로드, 고밀도 서버에 이상적입니다 |
| MCX653106A-HDAT | 2x QSFP56 | 200Gb/s (두 포트) | PCIe 3.0/4.0 x16 | 암호와 함께 두 개의 포트 200Gb/s, 최대 대역폭 밀도 |
| MCX653105A-ECAT | 1x QSFP56 | 100Gb/s | PCIe 3.0/4.0 x16 | 단일 포트 100Gb/s, 낮은 속도 요구 사항에 대한 비용 최적화 |
| MCX653106A-ECAT | 2x QSFP56 | 100Gb/s (두 포트) | PCIe 3.0/4.0 x16 | 듀얼 포트 100Gb/s, 가상화 및 스토리지 오프로드 |
| MCX653436A-HDAT (OCP 3.0) | 2x QSFP56 | 200Gb/s | PCIe 3.0/4.0 x16 | OCP 3.0 작은 형식 요소, 듀얼 포트 200Gb/s |
- 전체 200Gb/s 대역폭:단일 포트 설계는 포트당 높은 밀도가 우선시되는 컴퓨팅 노드에서 최대 처리량을 제공합니다.
- 하드웨어 보안 내장:CPU 오버헤드 없이 XTS-AES 블록 암호화, 규제 산업에 대한 FIPS 준수
- 가속 저장 & AI:NVMe-oF 오프로드와 GPUDirect RDMA는 인공지능 훈련 및 소프트웨어 정의 저장에 대한 성능을 크게 향상시킵니다.
- 미래 준비 PCIe 4.0:호스트에 두 배의 대역폭을 상호 연결하여 200Gb/s 네트워크에 대한 병목을 제거합니다.
- 단순화된 관리:통일 드라이버 스택 (OFED, WinOF-2) 과 광범위한 OS 호환성은 배포의 복잡성을 줄입니다.
홍콩 스타서지 그룹은 모든 NVIDIA ConnectX 어댑터에 대한 전문 기술 지원, 보증 보장 및 글로벌 RMA 서비스를 제공합니다.성능 조정우리는 유연한 가격, 데이터 센터 프로젝트의 대용량 요금, 그리고 빠른 전세계 배송을 제공합니다.납품 시간 및 부피 할인 논의하기 위해 우리의 판매 팀과 연락.
• PCIe 슬롯이 충분한 전력을 공급하는지 확인합니다 (슬롯에서 75W; 어댑터는 전형적으로 ~ 22-24W를 소비합니다).
• 액체 냉각 플랫폼의 경우, 이 표준 공기 냉각 카드는 냉각 판 변종과 호환되지 않습니다. 액체 냉각 SKU 필요에 대해 Starsurge에 문의하십시오.
200Gb/s 성능을 달성하기 위해 항상 QSFP56 등급 케이블이나 모듈을 사용하십시오.
• 배포하기 전에 OS와 커널과 드라이버 버전 호환성을 확인합니다.
2008년부터 홍콩 스타서지 그룹 컴퍼니 (Hong Kong Starsurge Group Co., Limited) 는 엔터프라이즈 네트워크 하드웨어, 시스템 통합 및 IT 서비스의 신뢰할 수 있는 공급업체입니다.NVIDIA 네트워크 솔루션의 승인 파트너로서, 스타서지는 전세계 정부, 금융, 의료, 교육 및 하이퍼스케일 고객에게 정품 ConnectX 어댑터, 스위치 및 케이블을 제공합니다.우리의 경험이 많은 판매 및 기술 팀은 판매 전 아키텍처에서 판매 후 지원까지 원활한 배포를 보장합니다., 신뢰성 높은 품질과 반응적인 서비스에 대한 헌신과 함께
글로벌 배송 · 다국어 지원 · OEM 및 통합 서비스
| 구성 요소 / 생태계 | 지원 상태 | 언급 |
|---|---|---|
| NVIDIA 양자 HDR 인피니밴드 스위치 | ✓ 완전 지원 | 200Gb/s 직물, 적응형 라우팅 |
| 200GbE 스위치 (IEEE 802.3) | ✓ 호환 | 스위치 사양에 따라 FEC 모드를 요구합니다. |
| GPU 다이렉트 RDMA | ✓ 예 | NVIDIA GPU 시리즈 (볼타, 앰페어, 홉퍼 등) |
| VMware vSphere 7.0/80 | ✓ 인증 | 네이티브 드라이버, SR-IOV 지원 |
| 리눅스 (RHEL, Ubuntu, SLES) | ✓ 완전한 지원 | MLNX_OFED, 수신기 드라이버 사용 가능 |
| 윈도우 서버 2019/2022 | ✓ 지원 | WinOF-2 드라이버 패키지 |
- [ ] 필요한 링크 속도를 확인합니다: 200Gb/s 단일 포트는 노드 대역폭 요구 사항과 일치합니다.
- [ ] 서버 PCIe 슬롯: x16 물리 슬롯, Gen 4 완전 200Gb / s 성능에 권장됩니다.
- [ ] 적절한 QSFP56 케이블 또는 트랜시버를 선택하십시오 (비동기 구리 최대 5m, AOC 또는 광학).
- [ ] OS 드라이버 지원 (OFED 버전 또는 인박스) 을 확인합니다.
- [ ] 암호화 준수 요구 사항 (XTS-AES, FIPS) 이 충족되도록 보장합니다.
- [ ] 환경 냉각을 평가하십시오: 고속 어댑터에는 방향 된 공기 흐름이 필요할 수 있습니다.







