NVIDIA ConnectX-7 MCX75310AAS-NEAT NDR 400Gb/s InfiniBand 어댑터
제품 상세 정보:
| 브랜드 이름: | Mellanox |
| 모델 번호: | MCX75310AAS-NEAT (900-9X766-003N-SQ0) |
| 문서: | Connectx-7 infiniband.pdf |
결제 및 배송 조건:
| 최소 주문 수량: | 1개 |
|---|---|
| 가격: | Negotiate |
| 포장 세부 사항: | 외부 상자 |
| 배달 시간: | 목록을 기반으로 |
| 지불 조건: | 티/티 |
| 공급 능력: | 프로젝트/배치 별 공급 |
|
상세 정보 |
|||
| 모델 번호.: | MCX75310AAS-NEAT (900-9X766-003N-SQ0) | 포트: | 단일 포트 |
|---|---|---|---|
| 기술: | 인피니본 | 인터페이스 유형: | OSFP56 |
| 사양: | 16.7cm x 6.9cm | 기원: | 인도 / 이스라엘 / 중국 |
| 전송 속도: | 400gbe | 호스트 인터페이스: | gen3 x16 |
| 강조하다: | NVIDIA ConnectX-7 InfiniBand 어댑터,Mellanox 400Gb/s 네트워크 카드,보증 포함 NDR InfiniBand 어댑터 |
||
제품 설명
NVIDIA ConnectX-7 MCX75310AAS-NEAT는 인피니밴드 및 RoCE 모두를 위한 PCIe Gen5 x16 인터페이스를 갖춘 플래그십 NDR 400Gb/s 인피니밴드 스마트 어댑터이다. AI 공장, HPC 클러스터,그리고 하이퍼스케일 클라우드 데이터 센터, 이 초저연속성 어댑터는 네트워크 컴퓨팅, 하드웨어 보안현대 과학 컴퓨팅과 소프트웨어 정의 인프라를 가속화하기 위한 고급 가상화.
NVIDIA ConnectX-7 제품군은 포트당 최대 400Gb/s 대역폭으로 획기적인 성능을 제공하며 InfiniBand (NDR/HDR/EDR) 및 이더넷 (최고 400GbE) 을 지원합니다.MCX75310AAS-NEATPCIe Gen5 호스트 인터페이스 ( 최대 x32 레인), 멀티 호스트 기능, GPUDirect RDMA, NVMe-oF 가속 및 인라인 암호화를 위한 고급 엔진을 갖추고 있습니다. 요구되는 AI 훈련을 위해 구축되었습니다.시뮬레이션, 그리고 실시간 분석, 이 어댑터는 데이터 처리량과 보안을 극대화하면서 CPU 오버헤드를 줄입니다.
랜투즈 로드 로드, SHARP 집단 가속, 그리고 ASAP2 SDN 로드 로드커넥트X-7는 표준 서버를 거의 제로 지터와 나노초 정밀 타이밍 (IEEE 1588v2 클래스 C) 으로 고성능 네트워크 노드로 변환합니다..
- NDR 인피니밴드 및 400GbE 준비- 최대 400Gb/s 전체 대역폭, NDR, HDR, EDR 인피니밴드 및 400/200/100/50/25/10GbE를 지원합니다
- PCIe Gen5 x16 (최다 x32 레인)- TLP 처리 힌트, ATS, PASID 및 SR-IOV와 함께 높은 처리량 호스트 인터페이스
- 네트워크 내 컴퓨팅- 집단 작전 (SHARP) 의 하드웨어 출하, 만남 프로토콜, 폭발 버퍼 출하
- GPUDirect RDMA 및 GPUDirect 저장- 직접적인 GPU에서 NIC 데이터 경로, 심층 학습 및 데이터 분석을 가속화
- 하드웨어 보안 엔진- 인라인 IPsec/TLS/MACsec 암호화/복호화 (AES-GCM 128/256-비트) + 하드웨어 루트 오브 트러스트로 보안 부팅
- 고급 저장 가속화- NVMe-oF (Fabrics/TCP를 통해), NVMe/TCP 오프로드, T10-DIF 서명 전달, iSER, RDMA를 통해 NFS
- ASAP2 SDN & VirtIO 가속- OVS 오프로드, VXLAN/GENEVE/NVGRE 캡슐화, 연결 추적 및 프로그래밍 가능한 분석기
- 정확 한 타이밍- PTP (IEEE 1588v2) 12ns 정확성, SyncE, 시간 트리거 스케줄링, 패킷 페이징
7nm 프로세스에 기반을 둔 커넥트X-7는 여러 하드웨어 가속 엔진을 통합하여 CPU를 릴로드하고 결정적인 성능을 제공합니다. 주요 기술 기둥에는 다음이 포함됩니다.
- 컨버거드 이더넷 (RoCE) 상에서의 RDMA- 낮은 지연 시간 이더넷 섬유에 대한 제로 터치 RoCE
- 동적으로 연결된 운송 (DCT) & XRC- 효율적인 MPI 및 HPC 통신
- 주문형 페이지링 (ODP) 및 사용자 메모리 등록 (UMR)- 대용량 애플리케이션에 대한 메모리 관리를 단순화
- 확장 가능한 계층적 집계 및 감소 프로토콜 (SHARP)- MPI 집단에 대한 네트워크 데이터 감소
- 멀티 호스트 기술- 최대 4개의 독립된 호스트가 하나의 어댑터를 공유할 수 있게 해 서버 사용량을 최적화합니다
- PLDM 및 SPDM 관리 가능성- 기업 보안을 위한 펌웨어 업데이트, 모니터링 및 장치 인증
- 인공지능 및 기계 학습 클러스터- NCCL, UCX, GPUDirect RDMA와 함께 대규모 교육
- HPC 시뮬레이션 및 연구- 날씨 모델링, 유전체학, 낮은 지연 MPI를 요구하는 분자 역학
- 하이퍼스케일 클라우드 및 SDDC- 오버레이 네트워킹, NFV 가속, 안전한 멀티 테넌시 (SR-IOV)
- 기업용 저장 시스템- NVMe-oF 표적 오프로드 및 분산 파일 시스템 (Lustre, GPUDirect Storage)
- 5G 엣지 및 통신- C급 PTP 및 MACsec 보안을 갖춘 시간 민감 인프라
운영 체제 및 가상화:리눅스 (RHEL, 우분투, 로키 리눅스), 윈도우 서버, VMware ESXi (SR-IOV), 쿠버네티스 (CNI 플러그인) 를 위한 인박스 드라이버.그리고 UCC.
하드웨어 호환성:표준 PCIe Gen5 슬롯 (x16 기계, x16 / x32 전기). 델, HPE, 슈퍼마이크로, 레노보 및 NVIDIA DGX 시스템에서 주요 서버 플랫폼으로 인증되었습니다.
상호 운용성:인피니밴드 무역 협회 스펙 1에 완전히 적합합니다.5이더넷에 대한 IEEE 802.3 및 PCI-SIG Gen5 사양
| 매개 변수 | 세부 사항 |
|---|---|
| 제품 모델 | MCX75310AAS-NEAT |
| 형태 요인 | PCIe HHHL (Half Height Half Length), FHHL 브래킷 포함 |
| 호스트 인터페이스 | PCIe Gen5.0 x16 (32개 노선까지, 양분 및 멀티 호스트를 지원) |
| 네트워크 프로토콜 | 인피니밴드 (NDR/HDR/EDR) 및 이더넷 (400GbE, 200GbE, 100GbE, 50GbE, 25GbE, 10GbE) |
| 포트 구성 | 단일 포트 QSFP-DD (1x 400G NDR 또는 2x 200G 스플릿을 지원합니다. SKU 당 포트 밀도를 확인하십시오.) |
| 인피니밴드 속도 | NDR 400Gb/s, HDR 200Gb/s, EDR 100Gb/s, FDR (상용) |
| 이더넷 속도 | 400/200/100/50/25/10GbE NRZ/PAM4 |
| 탑재 메모리 | 랜데즈 오프로드와 래스트 버퍼를 위한 통합 네트워크 메모리 |
| 안전 출하 | 인라인 IPsec, TLS, MACsec (AES-GCM 128/256-bit), 보안 부팅, 플래시 암호화 |
| 저장물 출하 | NVMe-oF (TCP/Fabrics), NVMe/TCP, T10-DIF, SRP, iSER, RDMA를 통한 NFS, SMB Direct |
| 타이밍 & 동기화 | IEEE 1588v2 PTP (12ns 정확성), SyncE, 프로그래밍 가능한 PPS, 시간 트리거 스케줄링 |
| 가상화 | SR-IOV, VirtIO 가속, VXLAN/NVGRE/GENEVE 오프로드, 연결 추적 (L4 방화벽) |
| 관리 가능성 | NC-SI, SMBus/PCIe를 통한 MCTP, PLDM (모니터/ 펌웨어/ FRU/ 레드피시), SPDM, SPI 플래시, JTAG |
| 원격 부팅 | InfiniBand 부트, iSCSI, UEFI, PXE |
| 전력 소비 | 공개되지 않은 - 전형적인 고성능 어댑터에는 적절한 공기 흐름이 필요합니다. 주문하기 전에 확인하시기 바랍니다. |
| 작동 온도 | 0°C ~ 55°C (적절한 차체 냉각) |
| 모델 (부분적) | 포트/속도 | 호스트 인터페이스 | 형태 요인 | 사용 사례 |
|---|---|---|---|---|
| MCX75310AAS-NEAT | 1x NDR 400Gb/s 인피니밴드/이더넷 | PCIe Gen5 x16 | HHHL | 인공지능, HPC, 클라우드 - 멀티 호스트 및 안전한 부팅으로 플래그십 |
| MCX75310AAS-NCAT | 1x NDR 400Gb/s | PCIe Gen5 x16 | HHHL | 암호화 기능이 활성화 된 것과 비슷한 기능 세트 |
| MCX75510AAS-NEAT | 2x NDR 200Gb/s 또는 1x 400Gb/s | PCIe Gen5 x16 | FHHL | 부재용으로 두 개의 포트 |
| OCP 3.0 변종 | 최대 2x 200Gb/s | PCIe Gen5 x16 | OCP 3.0 SFF | 하이퍼스케일 OCP 플랫폼 |
정확한 주문 코드 및 사용자 지정 구성에 대해서는 공식 ConnectX-7 PCIe 어댑터 매뉴얼 (docs.nvidia.com) 을 참조하거나 홍콩 스타서지 그룹에 문의하십시오.
최저 총 소유비용- 네트워크, 스토리지, 보안 작업에서 CPU를 오프로드합니다. Gb/s당 전력 및 냉각 비용을 줄여줍니다.
미래 준비 된 대역폭- PCIe Gen5 및 NDR 400G 지원은 차세대 GPU 서버와 AI 클러스터에 대한 병목을 제거합니다.
기업 보안- 하드웨어 인라인 암호화 (IPsec/TLS/MACsec) 및 안전한 신뢰 체인 준수 (FIPS, DoD)
원활 한 통합- 주요 배포판, 하이퍼바이저, 컨테이너 오케스트레이션 플랫폼과 완전한 호환성
홍콩 스타서지 그룹은 판매 전 아키텍처 지침, 호환성 검증, 보증 관리 및 RMA 서비스를 제공하며 끝에서 끝까지 라이프 사이클 지원을 제공합니다.우리의 기술 팀은 드라이버 조정에 도움을줍니다., 펌웨어 업그레이드 및 클러스터 통합. 표준 보증: 선택적으로 확장 된 커버리지와 함께 3 년 제한 하드웨어 지원. 글로벌 배송 및 다국어 기술 지원이 제공됩니다.
- 서버 메인보드에서 PCIe Gen5 슬롯을 적절하게 냉각하도록 보장합니다 (400G 운영에 권장되는 활성 공기 흐름)
- 멀티 호스트 구성의 경우 플랫폼 지원 및 케이블 요구 사항을 확인합니다 (스플리터 케이블이 필요할 수 있습니다)
- 광적 모듈 / DAC 케이블은 별도로 판매됩니다. 적합성을 위해 NVIDIA 자격의 트랜시버를 사용합니다.
- 최대 전력 소비 NVIDIA에 의해 공개되지 않습니다. 일반적인 열 설계는 무거운 부하 하에서 25W-30W 범위를 가정합니다. 차시 열 가이드와 확인하시기 바랍니다.
- 암호 기능 (IPsec/TLS 오프로드) 에 대해서는 추가 라이선스가 필요할 수 있습니다. 판매자에게 확인하시기 바랍니다.
2008년에 설립된 스타서지는 기술 중심의 네트워크 하드웨어, IT 서비스 및 시스템 통합 공급자입니다. 우리는 엔터프라이즈 수준의 NIC, 스위치, 무선 솔루션,그리고 맞춤형 소프트웨어 개발경험 많은 영업 및 기술 팀의 지원을 받으며 스타서지는 정부, 의료, 금융, 제조, 교육 및 기업 부문을 지원합니다.우리의 고객 우선 접근 방식은 신뢰할 수있는 품질을 보장합니다., 반응형 물류, 그리고 전 세계 맞춤형 인프라 솔루션.
주요 네트워크 브랜드의 승인 파트너로서 Starsurge는 전문적인 사전 판매 컨설팅, 글로벌 배달 및 다국어 지원을 제공하여 확장 가능하고 효율적인 네트워크를 구축할 수 있습니다.
- 최대 출력:포트당 400Gb/s
- PCIe Gen5:최대 32 GT/s
- RDMA 지원:인피니밴드 & RoCE
- 보안:인라인 IPsec/TLS/MACsec
- NVIDIA SHARP:네트워크 내 집계
- GPUDirect:RDMA + 저장
| 구성 요소 / 생태계 | 지원 | 참고문서 |
|---|---|---|
| NVIDIA DGX H100 / GH200 | 네 | 인증 |
| VMware vSphere / ESXi | 네 (SR-IOV) | 운전자 지원 포함 |
| 리눅스 커널 5.x+ | 네 (내장) | 권장되는 MLNX_OFED |
| 윈도우 서버 2022 | 네 | 네이티브 RDMA / RoCE |
| 쿠버네티스 / CNI | 네 | Multus, SR-IOV CNI |
| OpenMPI / MVAPICH | 네 | 인피니밴드 동사용으로 최적화 |
- 호스트 플랫폼 확인: PCIe Gen5 슬롯 (또는 후향 호환성, 그러나 대역폭 제한)
- 케이블 타입 확인: 400G NDR (OSFP/QSFP-DD) 또는 2x200G용 스플리터
- 냉각 확인: 고 전력 어댑터 최소 300 LFM 공기 흐름을 요구
- 보안 기능: 보안 부팅 및 암호 오프로드가 필요한지 확인 (모델 NEAT에는 하드웨어 루트 오브 트러스트가 포함됩니다)
- 소프트웨어 스택: MLNX_OFED 또는 인박스 드라이버 버전 호환성 커널/OS
- NVIDIA 퀀텀-2 NDR 인피니밴드 스위치 (Q9700) - 64-포트 400G
- NVIDIA BlueField-3 DPU - 프로그래밍 가능한 데이터 센터 인프라
- 비용 효율적인 배치를 위한 ConnectX-6 Dx - 200G 듀얼 포트 어댑터
- 링크X 시리즈 케이블 - 400G DAC/AOC는 커넥트X-7에 인증
- NVIDIA ConnectX-7 PCIe 어댑터 사용자 설명서 (docs.nvidia.com)
- 컨버거드 이더넷 (RoCE) 구축 가이드
- GPUDirect 저장 최선 실천
- NVIDIA SHARP 기술 백서







