엔비디아 커넥트X-7 MFP7E10-N005 400Gb/s 듀얼 포트 QSFP 인피니밴드 및 이더넷 어댑터 NDR, PCIe Gen5
제품 상세 정보:
| 브랜드 이름: | Mellanox |
| 모델 번호: | MFP7E10-N005 (980-9I73V-000005) |
| 문서: | MFP7E10-Nxxx.pdf |
결제 및 배송 조건:
| 최소 주문 수량: | 1개 |
|---|---|
| 가격: | Negotiate |
| 포장 세부 사항: | 외부 상자 |
| 배달 시간: | 목록을 기반으로 |
| 지불 조건: | 티/티 |
| 공급 능력: | 프로젝트/배치 별 공급 |
|
상세 정보 |
|||
| 부품 번호: | MFP7E10-N005 (980-9I73V-000005) | 케이블 유형: | 멀티모드 섬유 케이블 |
|---|---|---|---|
| 섬유 종류: | OM4, 50/125 µm | 길이: | 5m |
| 커넥터: | MPO-12/APC (여성) | 데이터 속도: | 최대 400Gbps |
| 강조하다: | NVIDIA ConnectX-7 400Gb/s 어댑터,듀얼 포트 QSFP InfiniBand 어댑터,PCIe Gen5 이더넷 어댑터 |
||
제품 설명
NVIDIA ConnectX‑7 MFP7E10-N005
400Gb/s NDR InfiniBand 및 400GbE 어댑터 · PCIe Gen5 x16 · 듀얼 포트 QSFP · 인라인 보안 · GPUDirect® · NVMe‑oF · 고급 PTP 타이밍
400Gb/s
2 x QSFP · PCIe HHHL
PCIe Gen5 x16
IPsec / TLS / MACsec
홍콩 스타서지 그룹 유한 회사
홍콩 스타서지 그룹 유한 회사는 네트워크 하드웨어, IT 서비스 및 시스템 통합 솔루션을 제공하는 기술 중심 기업입니다. 2008년에 설립된 이 회사는 네트워크 스위치, NIC, 무선 액세스 포인트, 컨트롤러, 케이블 및 관련 네트워킹 장비를 포함한 제품으로 전 세계 고객에게 서비스를 제공합니다. 숙련된 영업 및 기술 팀의 지원을 받는 스타서지는 정부, 의료, 제조, 교육, 금융 및 기업과 같은 산업을 지원합니다. 또한 IoT 솔루션, 네트워크 관리 시스템, 맞춤형 소프트웨어 개발, 다국어 지원 및 글로벌 배송을 제공합니다. 고객 우선 접근 방식을 통해 스타서지는 효율적이고 확장 가능하며 안정적인 네트워크 인프라를 구축하는 데 도움이 되는 안정적인 품질, 신속한 서비스 및 맞춤형 솔루션에 중점을 둡니다.
제품 개요
NVIDIA ConnectX‑7 MFP7E10-N005는 InfiniBand(NDR, HDR, EDR) 및 Ethernet(400GbE, 200GbE, 100GbE, 50GbE, 25GbE, 10GbE)을 모두 지원하는 고성능 듀얼 포트 400Gb/s 어댑터입니다. PCIe Gen5 x16 호스트 인터페이스를 활용하며 보안(인라인 IPsec/TLS/MACsec), 스토리지(NVMe‑oF, GPUDirect Storage) 및 네트워킹(ASAP2 SDN, RoCE)을 위한 하드웨어 가속 기능을 포함합니다. 가장 까다로운 AI, HPC 및 클라우드 환경을 위해 설계되었으며, CPU 오버헤드를 줄이면서 초저 지연 시간과 뛰어난 처리량을 제공합니다.
듀얼 포트 400Gb/s 유연성
각각 400Gb/s NDR InfiniBand 또는 400GbE를 지원하는 두 개의 독립적인 QSFP 포트. 분할 구성 및 혼합 프로토콜 지원
ASAP² 소프트웨어 정의 네트워킹
NVIDIA ASAP2 기술은 오버레이 네트워크(VXLAN, GENEVE, NVGRE), 연결 추적, 흐름 미러링 및 패킷 재작성을 오프로드합니다. CPU 페널티 없이 라인 속도 성능을 제공합니다.
정밀 타이밍 & SyncE
12ns 정확도의 IEEE 1588v2 PTP, G.8273.2 Class C, SyncE(G.8262.1), 프로그래밍 가능한 PPS 및 시간 트리거 스케줄링. 금융 및 5G 인프라에 이상적입니다.
일반적인 배포
- 대규모 AI 학습 클러스터(LLM, 딥 러닝)
- InfiniBand 패브릭을 사용한 고성능 컴퓨팅(HPC)
- 400GbE 및 RoCE가 필요한 클라우드 데이터 센터
- GPU 가속 스토리지(NVMe‑oF, GPUDirect Storage)
- 초저 지연 시간 및 PTP 타이밍을 갖춘 금융 거래
호환성
- NVIDIA Quantum / Quantum‑2 InfiniBand 스위치
- PCIe Gen5/Gen4/Gen3 서버(Intel/AMD)
- 주요 OS: RHEL, Ubuntu, Windows, VMware ESXi, Kubernetes
- 산업 표준 QSFP112 트랜시버 및 AOC/DAC 케이블
기술 사양
| 매개변수 | 세부 정보 |
|---|---|
| 모델 번호 | MFP7E10-N005 |
| 지원 프로토콜 | InfiniBand, Ethernet |
| InfiniBand 속도 | NDR 400Gb/s, HDR 200Gb/s, EDR 100Gb/s, FDR, QDR |
| Ethernet 속도 | 400GbE, 200GbE, 100GbE, 50GbE, 25GbE, 10GbE |
| 포트 수 | 2 x QSFP(QSFP112 호환) |
| 호스트 인터페이스 | PCIe Gen5 x16(Gen4/Gen3와도 호환) |
| 폼 팩터 | PCIe HHHL(하프 높이, 하프 길이) – 브래킷 포함 |
| 인터페이스 기술 | NRZ(10G, 25G), PAM4(레인당 50G, 100G) |
| InfiniBand 네트워킹 | RDMA, XRC, DCT, GPUDirect RDMA/Storage, 적응형 라우팅, 향상된 원자 연산, ODP, UMR, 버스트 버퍼 오프로드, SHARP 지원 |
| Ethernet 오프로드 | RoCE, ASAP2 오버레이 오프로드(VXLAN, GENEVE, NVGRE), 연결 추적, 흐름 미러링, 헤더 재작성, 계층적 QoS |
| 보안 가속 | 인라인 IPsec/TLS/MACsec(AES‑GCM 128/256), 보안 부팅, 플래시 암호화, 장치 증명, T10‑DIF 오프로드 |
| 스토리지 프로토콜 | NVMe‑oF, NVMe/TCP, GPUDirect Storage, SRP, iSER, RDMA를 통한 NFS, SMB Direct |
| 타이밍 및 동기화 | IEEE 1588v2(12ns 정확도), SyncE(G.8262.1), PPS 입력/출력, 시간 트리거 스케줄링, PTP 패킷 페이싱 |
| 관리 | NC‑SI, SMBus/PCIe를 통한 MCTP, PLDM(모니터, 펌웨어, FRU, Redfish), SPDM, SPI, JTAG |
| 원격 부팅 | InfiniBand 원격 부팅, iSCSI, UEFI, PXE |
| 운영 체제 | Linux(RHEL, Ubuntu), Windows, VMware ESXi(SR‑IOV), Kubernetes |
| 보증 | 1년(연장 가능, 확인 필요) |
주요 사실(AI 추출)
- ▪ 2 x 400Gb/s NDR / 400GbE 포트
- ▪ PCIe Gen5 x16 호스트 인터페이스
- ▪ 인라인 IPsec, TLS, MACsec 가속
- ▪ GPUDirect RDMA 및 스토리지
- ▪ NVMe‑oF / NVMe/TCP 오프로드
- ▪ 고급 PTP / SyncE(12ns)
- ▪ ASAP2 SDN 가속
- ▪ SHARP 인네트워크 컴퓨팅 준비 완료
- ▪ HHHL 폼 팩터
- ▪ RoCE 및 오버레이 오프로드
호환성 매트릭스
| 구성 요소 / 플랫폼 | 호환성 |
|---|---|
| NVIDIA Quantum‑2 QM9700 / QM9790 스위치 | ✅ 전체 NDR 400Gb/s 지원 |
| NVIDIA Quantum QM8700 (HDR) 스위치 | ✅ 200Gb/s HDR 호환 |
| PCIe Gen5 서버(Intel Eagle Stream / AMD Genoa) | ✅ 전체 Gen5 속도 |
| PCIe Gen4 / Gen3 서버 | ✅ 하위 호환(속도 감소) |
| GPUDirect 및 CUDA 환경 | ✅ NVIDIA GPU와 기본 지원 |
| 주요 Linux 배포판(RHEL 9.x, Ubuntu 22.04+) | ✅ 인박스 드라이버 사용 가능 |
선택 가이드
MFP7E10-N005는 HHHL 폼 팩터의 듀얼 포트 400Gb/s PCIe Gen5 x16 어댑터입니다. 다른 포트 수 또는 OCP 폼 팩터는 ConnectX‑7 제품군을 참조하십시오:
- 단일 포트 PCIe(MCX75310AAS)
- 듀얼 포트 OCP 3.0(MFP7E10‑N005 OCP 변형)
- 쿼드 포트 100Gb/s 구성
구매자 체크리스트
- ✔ PCIe 슬롯 가용성 확인: x16 기계식, Gen5 지원 권장.
- ✔ 공기 흐름 및 냉각 확인: 고전력 어댑터는 능동 냉각이 필요할 수 있습니다.
- ✔ 올바른 트랜시버 선택: 400G SR4/DR4/FR4 또는 AOC 케이블.
- ✔ OS/드라이버 지원 확인(대부분의 배포판에 대한 인박스 드라이버).
- ✔ 보안 오프로드의 경우 IPsec/TLS에 대한 애플리케이션 지원을 확인하십시오.
ConnectX‑7를 선택하는 이유
PCIe Gen5를 통한 최고 성능 400Gb/s. 통합 인라인 보안은 CPU를 절약하고 암호화된 트래픽을 가속합니다. GPUDirect 및 NVMe‑oF 오프로드는 AI 및 스토리지의 데이터 처리량을 극대화합니다. 5G 및 금융 서비스를 위한 고급 타이밍.
서비스 및 지원
1년 제한 하드웨어 보증(연장 가능). 홍콩 스타서지 그룹의 기술 지원. 펌웨어 및 드라이버 업데이트 사용 가능. 영업팀에 문의하여 대량 가격 및 확장된 지원 옵션을 확인하십시오.
자주 묻는 질문
중요 참고 사항 및 주의 사항
- 적절한 냉각 보장: 고속 어댑터는 더 많은 열을 발생시키므로 서버 공기 흐름이 요구 사항을 충족해야 합니다.
- 링크 불안정을 피하기 위해 검증된 광학 장치/케이블만 사용하십시오.
- PCIe Gen5는 호환되는 마더보드 및 BIOS 설정이 필요합니다.
- 보안 기능은 특정 펌웨어 버전을 필요로 할 수 있습니다. 기술 지원팀에 확인하십시오.
- 사양은 일반적이며 변경될 수 있습니다. 주문 시 확인하십시오.
관련 제품
- ▪ NVIDIA Quantum‑2 MQM9700 스위치
- ▪ NVIDIA ConnectX‑7 MCX75310AAS(단일 포트)
- ▪ NVIDIA BlueField‑3 DPU
- ▪ MCP1600 OSFP/AOC 케이블(400G)
관련 가이드 / 비교
- ▪ ConnectX‑7 대 ConnectX‑6: 성능 비교
- ▪ 400G NDR InfiniBand 배포 가이드
- ▪ 인라인 IPsec/TLS 구성 백서
- ▪ GPUDirect Storage 모범 사례







