BQN 문서
닫기 아이콘

일반 요구 사항

BQN은 네트워크 용량 및 연결 요구 사항에 따라 구성된 전용 상용 기성 서버 또는 가상 머신을 사용합니다.

지원되는 CPU

  • 인텔 제온 및 코어 CPU(네할렘 이상)
  • AMD Epyc CPU

듀얼 CPU 서버가 지원됩니다. 자세한 내용은 하드웨어 치수 섹션을 참조하세요.

현재 지원되는 서버의 최대 CPU 코어 수는 256개입니다. 이를 위해서는 bqn R4.18 이상, bqnkernel-R3.0.13 이상이 필요합니다. 최대 128개 코어의 경우 이전 bqnkernel 및 bqn 릴리스를 사용할 수 있습니다.

지원되는 하드 디스크

[성능과 안정성을 위해 SSD(솔리드 스테이트 드라이브)를 사용하는 것이 좋습니다. [.p-highlight-blue].

지원되는 디스크 유형은 다음과 같습니다:

  • SATA
  • SAS
  • NMVe

지원되는 네트워크 인터페이스

[.p-highlight-blue]BQN 서버에는 관리용 포트 1개와 패킷 처리용 포트 2개 등 최소 3개의 네트워크 포트가 필요합니다. [.p-highlight-blue] [.p-highlight-blue]

패킷 처리를 위한 포트는 다음 컨트롤러 중 하나이어야 합니다:

Controller Port Speeds Observations
Intel I210 1 Gbps
Intel I350 1 Gbps
Intel i226-V 2.5 Gbps Requires bqnkernel-R3.0.13 or later. DPDK not supported (may be limited in throughput).
Intel X520 10 Gbps
Intel X540 10 Gbps
Intel X550 10 Gbps
Intel X553 10 Gbps
Intel X710 10 Gbps
Intel XL710 10 / 40 Gbps With PPPoE traffic, the XL710 negotiates 40 Gbps link, but the capacity is limited to 10 Gbps because the card only distributes traffic to one core Load balancing of PPPoE traffic requires a card firmware update and requires bqnkernel-R3.0.19 or later (see here for details)
Intel XXV710 10 / 25 Gbps With PPPoE traffic, the XXVL710 negotiates 25 Gbps link, but the capacity is limited to 10 Gbps because the card only distributes traffic to one core.
Intel E810-XXV 10 / 25 Gbps Requires bqnkernel-R3.0.14 or later.
Intel E810-C 10/25/50/100 Gbps Requires bqnkernel-R3.0.14 or later.
They are limited in general to 100 Gbps total throughput (uplink and downlink combined). Model examples: E810-CQDA2, E810-CQDA2T, E810-2CQDA2.
In the case of E810-2CQDA2, theoretically it can reach 100 Gbps full duplex if the server has PCIe bifurcation (most servers do not have this). This set up of E810-2CQDA2 with PCIe bifurcation in the server has not been tested and it is not officially supported.
Mellanox ConnectX-5 100 Gbps Requires bqnkernel-R3.0.16 or later. With PPPoE traffic, the card can negotiate speeds over 10 Gbps, but the capacity is limited to 10 Gbps because the card only distributes traffic to one core.
Mellanox ConnectX-6 10/25/40/50/100 Gbps Requires bqnkernel-R3.0.16 or later. With PPPoE traffic, the card can negotiate speeds over 10 Gbps, but the capacity is limited to 10 Gbps because the card only distributes traffic to one core.

다른 네트워크 인터페이스 모델도 지원 가능하지만 처리량 용량이 훨씬 낮습니다(최대 1Gbps).
↪CF_200D↩

지원되는 네트워크 인터페이스 트랜시버

광 인터페이스의 경우 트랜시버는 다음 유형 중 하나에 해당하는 인텔 호환 제품이어야 합니다:

Transceiver Type Subtype
1G SFP1000BASE-SX
1G SFP1000BASE-LX
10G SFP+10GBASE-SR/1000BASE-SX
10G SFP+10GBASE-LR/1000BASE-LX
25G SFP28-
40G QSFP+40GBASE-SR4
40G QSFP+40GBASE-LR4
100G QSFP28-

하드웨어 치수 측정

최소 구성은 1Gbps이며 최대 400Gbps까지 가능합니다. 다음 표에는 네트워크 용량에 따라 필요한 CPU, RAM 및 디스크가 요약되어 있습니다. 표시된 프로세서는 검증된 시스템의 예입니다. 비슷한 성능 특성을 가진 프로세서도 작동합니다. 구형 프로세서(Nehalem 아키텍처보다 오래될 수 없음) 또는 이보다 낮은 주파수를 가진 프로세서는 동일한 처리량을 달성하기 위해 더 많은 코어가 필요할 수 있습니다.

Peak
Throughput
CPU
Vendor
Cores Threads Verified CPUs RAM DIMMs Disk Network Interfaces
1Gbps Intel
AMD
4 4 Intel N100
Intel i5 (4 cores)
Intel i7
Intel Xeon E3-1220
Intel Xeon E-2314
1 or 2 x 8GB 60GB Intel I210
Intel I350
5Gbps Intel
AMD
4 8 Intel Xeon E3-1240
Intel Xeon E-2334
2 x 16GB or
1 x 32GB
2 x 120GB Intel X520
Intel X540
Intel X550
Intel X710
Intel XL710
10Gbps Intel
AMD
4 8 Intel Xeon E3-1240
Intel Xeon E-2334
2 x 16GB 2 x 120GB Intel X520
Intel X540
Intel X550
Intel X710
Intel XL710
20Gbps Intel
AMD
12 24 Intel Xeon Silver 4214
Intel Xeon Silver 4310
4 x 16GB

Also OK:
6 x 16GB
8 x 8GB (Xeon 4310)
2 x 240GB Intel XL710
Intel XXV710
Intel E810
40Gbps Intel
AMD
24 48 2 x Intel Xeon Silver 4214
2 x Intel Xeon Silver 4310
8 x 16GB

Also OK:
12 x 16GB
16 x 8GB (Xeon 4310)
2 x 240GB Intel XL710
Intel XXV710
Intel E810
100Gbps AMD 64 128 2 x AMD Epyc 7523
2 x AMD Epyc 7543
16 x 16GB 2 x 480GB Intel XXV710
Intel E810
200Gbps AMD 128 256 2 x AMD Epyc 7763
2 x AMD Epyc 9554
16 x 32GB (Epyc 7763)
24 x 32GB (Epyc 9554)
2 x 1TB Intel E810
Mellanox Connect X
400Gbps AMD 256 512 2 x AMD Epyc 9754 24 x 32GB

Also OK:
24 x 64GB
2 x 2TB Intel E810
Mellanox Connect X

댓글:

  • 최대 처리량은 양방향(다운링크 및 업링크)을 합산하여 계산됩니다.
  • 서버 관리를 위해 서버 온보드 1 GE 네트워크 인터페이스를 사용하세요.
  • 하드 디스크는 SATA, SAS 또는 NVMe입니다. SSD가 선호됩니다.
  • 모두 같은 크기의 RAM DIMM을 사용합니다.
  • 서버에 CPU가 두 개 있는 경우 RAM DIMM을 두 개에 균등하게 분배합니다.
  • CPU 메모리 채널당 하나 이상의 DIMM을 사용하고 채널당 동일한 수의 DIMM을 사용합니다. 100Gbps 이상의 구성에서는 필수입니다. 예를 들어, AMD 7532 CPU에는 8개의 메모리 채널이 있으므로 100Gbps 시스템에서는 필요한 총 256GB의 RAM에 도달하기 위해 CPU당 8개(총 16개 DIMM), 각 DIMM은 16GB를 사용하게 됩니다.

가상 플랫폼

BQN 지원:

  • VMware
  • KVM(호스트 머신의 Linux 커널 버전 4.11 이상 및 QEMU 버전 2.9 이상 사용).

모든 리소스는 가상 머신에 완전히 전용(고정)됩니다(초과 구독 없음). 트래픽 부하에 따라 필요한 리소스는 Bequant 에서 확인하세요. 일반적인 지침으로 다음 리소스를 사용하세요:

vCPU* RAM Disk
1 Gbps 2 8 GB 60 GB
5 Gbps 8 16 GB 90 GB
10 Gbps 14 32 GB 120 GB
20 Gbps 28 64 GB 240 GB

* 각 vCPU는 하이퍼스레딩이 활성화된 인텔 제온E5-2630 v4 @ 2.20GHz CPU의 코어 1개에 해당합니다.

데이터 플레인 인터페이스의 경우, 지원되는 구성은 성능 및 안정성상의 이유로 PCI 패스스루가 있는 인텔 네트워크 카드를 사용하는 것입니다.

문서 스타일링 태그
[.p-highlight] 로렘 입섬... [.p-highlight]

로렘 입섬 도르 시트 아멧, 콘섹테투르 아디피싱 엘리트. 에로스 엘리멘툼 트리스티크에 서스펜디스 바리우스 에님. 듀이스 커서스, 마이 퀴스 비베라 오르나레, 에로스 도르 인터둠 널라, 우트 코모도 디암 리베로 비타 에랏. 아이네안 포시 부스 니브 et 저주 커서스 아이디 루트룸 로렘 임페디트. Nunc ut sem vitae risus tristique posuere.

[.p-highlight-blue] Lorem ipsum... [.p-highlight-blue]]

로렘 입섬 도르 시트 아멧, 콘섹테투르 아디피싱 엘리트. 에로스 엘리멘툼 트리스티크에 서스펜디스 바리우스 에님. 듀이스 커서스, 마이 퀴스 비베라 오르나레, 에로스 도르 인터둠 널라, 우트 코모도 디암 리베로 비타 에랏. 아이네안 포시 부스 니브 et 저주 커서스 아이디 루트룸 로렘 임페디트. Nunc ut sem vitae risus tristique posuere.

[.p-highlight-red] Lorem ipsum... [.p-highlight-red]

Lorem ipsum dolor sit amet, consectetur adipiscing elit. Suspendisse varius enim in eros elementum tristique. Duis cursus, mi quis viverra ornare, eros dolor interdum nulla, ut commodo diam libero vitae erat. Aenean faucibus nibh et justo cursus id rutrum lorem imperdiet. Nunc ut sem vitae risus tristique posuere.

단일 [.c-highlight]단어 한 칸 띄어쓰기 [.c-highlight] 스타일링에 대한 미리보기입니다.
싱글 미리보기 word mono-spaced 스타일링.
이전
다음