深度 | 让数据中心设计超越标准 构建新型数据中心

2018-03-16 12:01 来源: DTDATA
浏览量: 收藏:0 分享

虚拟和云计算的广泛普及提出了新的数据中心交换架构需求,这种新型架构可实现更低的延迟、更高吞吐量。这些新型架构基于矩阵架构网络交换机,与传统的三层交换拓扑结构不同。

这些矩阵架构交换机可能有多种形式,从机架顶部部署中的矩阵架构扩展器,到 HDA 或 IDA 的集中式矩阵架构,到全网状架构。因此,必须考虑如何设计和实施物理层基础设施,以确保交换机矩阵架构可以轻松而高效地支持扩展。

此白皮书将概述矩阵架构技术及各种设计考虑因素,同时还将从实践的角度讨论如何确保实现的光纤连接,可以随着网络的增长适应架构变化和更高线路速率的需要。

同时还将列示基于 SYSTIMAX® InstaPATCH® 360 预端接光纤解决方案的矩阵架构网络设计实例,以突出使设计的基础设施支持更高速率和网络增长需求的重要性。

新型数据中心架构

数据中心设计和架构经过发展,已经能适应云存储和计算服务的增长需求。传统的私有企业数据中心已经开始改造现有架构,以便为新型敏捷式云设计做好准备。这些新型企业架构类似于“仓库规模”的设施,但其设计目的是支持多种不同的企业应用。

blob.png

为满足云架构需要,业界用“分支-主干 (Leaf-Spine)”架构实现了优化的服务器对服务器直接通信路径(见图 1)。该设计允许任意计算或存储设备上的应用,以可预测、可扩展的方式协同运行,而不受其在数据中心所处物理位置的限制。

作为“云网络”基础的架构由分支和主干交换机之间的网状连接构成。网络链路构成的网状架构

通常称为“网络矩阵架构”。矩阵架构卓越的性能非常适合组建通用型“云服务”:可实现任意互连、可预测容量和较低的延迟。矩阵架构具有内在的冗余性,因为有多个交换资源分布于整个数据中心,有助于提高应用的可用性。相比超大型传统集中式交换平台,这些分布式网络设计的部署和扩展成本要低得多。

矩阵拓扑结构设计—容量

传统的网络设计方式是通过聚合法对流量加总(比如,如果一个网络需要支持 10 个数据流,每个数据流为 1 Gb,则需要 10 Gb 网络链路)。但分支-主干网络的工作原理与此不同。要扩展矩阵架构网络,设计师需要考虑下列因素:

• 矩阵架构链路的速率(或带宽)

• 计算/存储设备端口数量(也称为边缘端口)

• 服务所有数据中心应用需要的矩阵架构总带宽

矩阵架构的速率不是矩阵架构中每对分支之间的总承载容量;而是每个分支与所有主干交换机之间的总带宽。

在上例中,共有四台主干交换机。如果每台分支交换机有一条 40 Gb 链路连接每台主干交换机,则结果形成 160 Gb 的矩阵架构。注意,每个分支对每台主干交换机的链路速率必须相同。另需注意的是,没有设备直接连接主干交换机。

矩阵架构的速率大小必须能支持任意单台分支交换机可能发送的最大流量。例如,如果有 48 个 10Gb 端口连接到高速服务器,则矩阵架构需要支持 48 X 10 Gb(合 480 Gb)的带宽。

边缘端口的总数是下一个重要考虑因素。该值为矩阵架构中分支交换机数量的函数。例如,如果一台分支交换机提供 24 个 10 Gb 端口,则每添加一台分支交换机就会为整个矩阵架构增加 24 个端口。只有在每台主干交换机都有一个可供新分支交换机使用的额外端口时,才能添加新的分支交换机。

当分支-主干交换机间链路的容量(如 40 Gb)超过边缘端口链路的容量(如 10G)时,这种设计称为胖树结构。如果链路保持相同速率(如 10G 边缘:4 X 10G 分支-主干),这种设计称为瘦树结构。胖树设计在扩展数据中心矩阵网络方面具有明显的优势。每台分支-主干交换机都必须拥有足够的端口,才能实现任意网状互连。端口数和每个端口的容量预先决定了矩阵架构可以扩展的最大规模和带宽。

典型的胖树结构可能采用 40 条 Gb 矩阵架构链路。在上例中,他们有四台主干交换机,其中每一台都支持 6 个 40 Gb 端口——总带宽达 240 Gb。假设每台分支交换机有 48 个 10G 端口,结果可得到共 288 个 10 Gb 边缘端口。然而,多数设备都采用双附接模式,每台边缘设备需要两个 10 Gb端口。这种配置可支持 144 台全冗余边缘设备。

blob.png

矩阵拓扑结构设计—超额配置

矩阵架构网络总带宽的计算方法为:用边缘端口数乘以边缘端口速率——或者用主干端口数乘以主干端口速率。如果不存在超额配置,则两个数字应相同。网络矩阵架构旨在避免阻塞问题,边缘设备产生的所有流量都可在矩阵网络通畅地流动,不会产生延迟或“阻塞”。超额配置意味着,部分流量可能因资源完全被其他流量利用而受阻或延迟。阻塞可能对数据中心应用产生严重影响——尤其是 FCoE 等依赖无阻塞环境的应用。许多矩阵网络架构都维持着独立的存储网络——有些采用光纤通道,有些采用基于 IP 的存储系统,还有些采用分布式软件定义存储系统。

设计师要考虑应用的通信方式,并计算总容量需求,该值等于网络的矩阵规模。有些网络设计会进行一些折衷,以适应与待交付服务相符的预算和服务质量;这意味着,在整体网络架构的设计中已经考虑了处于可接受程度的阻塞或网络资源竞争因素。超额配置比描述的是边缘设备存在的资源竞争水平。在图 2 所示例子中,超额配置比为 12:1。

如果超额配置比太高,会影响应用性能。如果超额配置比超低,则会减少服务器数量,因而也会减少矩阵网络中可以支持的应用数量。资本成本与应用容量之间的这种平衡是一个至关重要的设计考虑因素。随着应用需求的增长,这也是一个很可能会快速生变的因素。服务器硬件容量倾向于不断增加,这意味着矩阵链路容量会遭遇压力。

从以上讨论可以看出,较高的分支-主干链路容量可以提高服务水平,因为这种情况可以降低超额配置比,增加网络矩阵架构能支持的服务器数量。理想情况下,这些链路的容量应尽可能高。

随着矩阵网络的扩展,必须连接每台其他对等设备。随着分支交换机的增加,连接数量会快速增长。物理层连接必须适应这些变化,支持密度更高、网络链路速率更高和多光纤模块化系统的这些网络矩阵架构——结果又有助于加快部署速度、提高网络可用性。下面图示为 MPO 设备跳线,可用于为 QSFP (4 X 10G)—40G 以太网网络链路提供物理连接。

blob.png

为了优化矩阵网络容量,光纤组件必须具备高带宽、低损耗的性能——走向下一代网络速率。从一开始,就应将 40G、100G、甚至 400G 作为设计要求的一部分,以免重新设计布线基础设施。

支持这些链路的光纤网络技术发展十分迅速。速率快速提升——在有些情况下,本领域的解决方案远远领先于行业标准。这些多种多样的选项的成本优势是满足数据中心总体容量需求的关键,也是资本支出与可用性风险之间取得平衡的一个关键因素。

网络矩阵架构—物理网络

blob.png

矩阵架构网络的实施方式与过去部署的传统三层网络有几点相似之处——都必须可扩展、可管理、可靠。在实施矩阵网络拓扑结构时,结构化布线设计仍然有效、有价值。布线路径和空间保持不变。在数据中心中,矩阵架构可能跨越多个机房。矩阵网络构件同样要求带外管理网络的支持。这些物理设计要求会融入楼层布局之中。下图所示为一种典型布局。

blob.png

图 6 所示为一种典型的数据中心拓扑结构1,其中,中间配线区 (IDA) 有一个交叉连接:主干交换机位于主分配区 (MDA),分支交换机位于水平分配区 (HDA)。

blob.png

用交叉连接设计矩阵网络可以极大地提高灵活性和敏捷性,简化本来可能非常复杂的通道。欧洲的CENELEC EN 50600-X 标准已经强制要求在数据中心中使用交叉连接。根据提供任意端口互连的能力,建议采用交叉连接架构。

1.有关网络拓扑结构的更多信息,请参阅《BICSI 数据中心标准》。

支持矩阵网络架构的数据中心路径和空间

物理网络链路的设计在很大程度上取决于网络的总体拓扑结构及网络设备供应商。有些交换机供应商提供专有的光纤组件,在单模和多模介质方面存在一定的偏好。而其他供应商则偏爱基于机箱的大型交换机和基于分区的水平区布线方案。下一代网络的未来状况也会发生变化。在许多情况下,布线设计团队总是最后才知道从一开始需要支持哪些特定的网络硬件。理想的工具套件将支持可能出现的各种选项,并且有利于评估未来的网络选项——支持新的方案,避免供应商的钳制。

图 6 所示 InstaPATCH 360 预端接光纤布线系统完全能提供一种高性能工厂预制的结构化布线平台,能轻松满足支持矩阵网络所需要的众多光纤应用。InstaPATCH 360 干线光缆、配线模块和跳线经过专门的配置,从一开始即可满足各种干线光缆、交换机和计算设备的需求,同时还能提供一种迁移路径、满足后期需求。

在矩阵网络示例中,该企业讨论了分支-主干连接解决方案在哪些方面可能类似于下图所示方案,下图所示为一种并行多模光纤干线。这种设计采用低成本多模光纤组件,可向下兼容以前的网络技术,并且将来能在链路设计有效的条件下,升级到 100G 的容量。

blob.png

矩阵拓扑结构设计—交换机端口密度

blob.png

可以将多个 10G 端口集合起来以支持更高容量的链路。IEEE 标准规定,可将一组四个 10G 端口组合起来,合并到单一 12 芯 MPO 连接器上,形成一条 40G 的链路。该 QSFP 标准用于构建容量更高的链路 (40G),但也通常用于将分支交换机上的单个端口连接到四台服务器上——提高干线密度和分支交换机的配线架容量。相比采用面向 SFP+ 接口的独立串行端口,把四个 LC 端口合并到一个 QSFP中,可使分支交换机的配线架密度提高约 4:1。

blob.png

设备提供商运用 MPO 连接器来提高光纤密度。例如,有些供应商在一个 24 芯 MPO 连接器上提供了 12 个 10 Gb 端口。这些端口可分成三组(每组 40G),或者分成 12 个 10G 的端口,用于连接设备。将光纤组合成更高密度的连接系统可以节省网络设备上的配线架空间,并能通过并行干线光纤方案增加管理的便利性。

矩阵拓扑结构设计——范围

就物理空间以及其中的计算和存储设备数量来说,数据中心可谓巨大。有多个数据中心标准详细规定了网络布线和空间设计的最佳实践模式。比如 ANSI/TIA-942-B、ISO/IEC 11801-5、CENELECEN50173-5 和 CENELEC EN50600-X。

结构化布线设计能实现可扩展性,并改善平均修复时间 (MTTR)、提高整体可用性。因此,有必要在矩阵网络拓扑结构条件下维持这种布线结构。分支-主干链路也必须在指定的通信空间中采用合适的通信通道——与以前的网络拓扑结构一样。

以合理的价格提供高容量链路是矩阵网络设计中的一个关键要素。多模光纤设备一般比等效的单模光纤设备便宜——网络速率越高,亦是如此。目前,网络设计师有广泛的选择:既有基于标准的解决方案,也有专有解决方案,这种解决方案提供不同的容量、成本和运营风险/优势组合。不断涌现的新型数据链路接口将为链路设计提供更多选择。采用的布线技术必须满足近期网络容量需求,并为规模更大、容量更高的矩阵架构设计让路。

因此,网络链路设计是矩阵网络设计中的一个重要考虑因素。配线区可用于每个分配区,如下面的示例配置所示。虽然对网络应用的支持各不相同,但一般而言,速率越高,结构化布线链路支持的距离就越短。增加配线区的数量也会减少链路上的信号,从而缩短可用链路距离。网络硬件制造商通常会提供应用规格,规定支持的最大点对点距离。在研究实际的结构化布线设计时,有必要了解这些规格的关系。

假设,您正在针对图 10 所示拓扑结构规划新的数据中心服务实施方案。从一开始就必须支持的应用包括 10 Gb 以太网和 8G 光纤通道 (FC)。数据中心被组织成了数据中心中多个可以管理的数据机房。

在支持您的设计所要求的链路长度方面会有问题吗?

blob.png

部分设计目的要求,为了满足将来的容量升级需要,网络基础设施必须支持至少下一个最高的数据链路速率。供应商提供了多种选择:有些为单模方案,有些为多模方案,有些为基于标准的方案,有些则是新的专有解决方案。展望未来,在未来的潜在网络应用中,您当前的设计将支持哪些应用?

鉴别最佳解决方案的过程始于对考虑范围内的设计选项的了解。建议的拓扑结构会可靠地与考虑的网络设备协同工作吗?如果有不同的选项,哪种策略能提供最低的商业成本和最高的可靠性?为了回答这些问题,首先来看看详细规定了以太网数据链路选择的行业标准。该表包括已经定稿的标准和尚在制定中的标准。还有些应用,包括 50G 和 200G,IEEE 802.3 工作组当前还在完善。

blob.png

你们可以运用行业标准提供的设计规则,来确定该企业的数据中心拓扑结构能够可靠地支持应用设计需求。回顾数据中心设计要求,可以对每种链路拓扑结构进行评估,以确定最大链路长度和最大信号损耗。链路中所有连接的总损耗是多少?长度和损耗组合与应用标准规定的限值相比如何?将每种情况与标准进行比较,就可以决定是否继续设计。

确定系统链路的损耗需要了解部署的组件。这些特点因供应商而异,甚至任何给定生产批次内部也会有差异。显然,其关注的是最差条件下的插入损耗值,以便确保不会超过网络设备允许的容差。高带宽光纤介质可以支持长得多的链路,而劣质光纤则需要缩短距离才能可靠地工作。基于标准和供应商提供的组件性能数据进行设计,需要由您自己,布线系统设计师去计算所有这些链路数据。

未来的设计需求将要求初始设计拓扑结构,至少还要支持下一个最高网络速率。有多种组合可以考虑。

康普关注的是任意布线元素将对其正在设计的链路贡献的最大(而非平均或典型)损耗。必须考虑光纤介质的带宽——比如,OM3 的带宽低于 OM4。他们可以考虑未来采用并行多光纤链路的可能性。最后,该企业可以考虑数据中心规模的影响——需要的链路长度会怎样限制对我们在下一代网络速率方面的选择?

以标准组件对上述两种情景进行分析,需要使用信道中所有组件在最差条件下的插入损耗值。在此例中,LC/MPO 模块的插入损耗为 0.50 dB,光纤干线电缆的额定插入损耗为 3.5 dB/km。假定双工光纤跳线只有几米长;为此,它们不会大幅增加总插入损耗。

基于这些值,总插入损耗为 3.34 dB,超过了 8G 光纤通道的最大值,即 2.19 dB。如果采用这种设计,该链路很可能会发生故障,或者出现过大的比特误差。

blob.png

对第二种情景进行了类似分析,其中,基于 130 米 OM4 光纤组建了一条 10G 的以太网服务器到网络链路。在此情景下,总损耗预算为 2.39 dB,低于此应用在 OM4 光纤条件下的损耗限值。基于分析结果,链路应该能正常工作。

在数据中心运营过程中,经常会随着网络的增长和新数据机房的上线而插入额外的连接。在此例中,在 IDA 添加了一条额外的连接,使通道总长度增加到 150 米,同时还添加了两个 LC/MPO 模块。如下图所示,新的总插入损耗现在为 3.53 dB,超过了最大允许值。在这种设计下,该链路要么会发生故障,要么会出现过大的比特误差。

blob.png

blob.png

如果康普考虑通过 40GBASE-SR4 光纤组件将该链路从 10 GbE 升级到 40 GbE 的可能性,则插入损耗的计算方法如下图所示。注意:在通过并行光纤组件从 10 GbE 升级到 40 GbE 时,总插入损耗降低了,因为用简单的 MPO 适配器配线架替代了 LC/MPO 模块。然而,尽管插入损耗较低,但链路超过了 40GBASE-SR4 针对基于 OM4 光纤的应用的总损耗预算,即 1.5 dB。为此,在升级到 40 GbE 时,该链路很可能发生故障或出错。

前面的讨论展示了如何根据连接器损耗、布线损耗和规格限值进行基本计算。康普的实际数据中心设计包括多种跳线要求,因此,必须考虑他们需要支持的各种链路组合的全部连接的总值以及电缆长度之和。

为了回答这些问题,我们可以采取一种简化方法。将总损耗加总,比较结果和标准要求,由此决定是否继续。对每种链路拓扑结构和应用类型重复该过程,可使我们对整个数据中心获得总体认识。该过程比较费时间。比如,如果改变供应商,则各组件的最大损耗可能会变。况且,其他供应商根本就不提供最大值——而是提供对这里的分析无用的典型损耗值。

blob.png

还有其他因供应商而异的专有技术,这些技术提供的具体链路限值并未在行业标准中定义。比如,思科 BiDi 方案 QSFP-40G-SR-BD(如上图所示)就是一种新型链路设计,其在两条光纤上都采用了两个波长,总容量为 40 Gb/s。此例中,没有标准化的限值可用来与链路设计进行比较。链路设计取决于供应商的标称,并且受制于他们针对各种布线拓扑结构提供的设计信息。

鉴于网络设计的多变性以及可选介质类型的多样性,有许多选项可供选择。基于链路标准设计矩阵架构并非易事。虽然矩阵网络天生具有容错能力,物理链路也不得引入风险点。如果选择购买基于标准的组件,最终用户就需要评估整体链路设计,并在此基础上确定是否符合其目的。供应商不会保证最终用户的设计会按预期工作。这些供应商只会认证组件性能——不会认证整个链路的功能。

矩阵拓扑结构设计—应用支持

前面讨论过的容量、布线拓扑结构、密度、范围和网络硬件要求等要素都对特定链路设计或网络应用的支持至关重要。对各种选项持开放的态度意味着,要考虑对您的数据中心有意义的各种变换和组合。专有解决方案的钳制会限制您未来的选择吗?

康普开发的 InstaPATCH 360 解决方案旨在提供一种模块化的即插即用式解决方案,为支撑矩阵网络的所有光纤类型、信道数量和拓扑策略组合提供支持。为提供进一步的支持,康普还提供设计支持。您可以决定如何为任意网络应用——无论是否为基于标准的应用——提供支持并将其与数据中心所要求的模块化拓扑结构相匹配。快速、轻松地混合、匹配并比较网络硬件成本和性能。基于康普应用担保指南,减少设计错误,预先制定未来的容量计划。康普基于光纤类型、连接器数量和应用,为链路提供支持距离。

下表展示了一些常见矩阵架构链路选项的担保预制链路支持情况,包括前面在情景 1、2 和 2a 中列出的应用。根据下表,情景 1(基于 95 米 LazrSPEED® 550 [OM4] 光纤的 8G 光纤通道,带六个MPO 和六个 LC 连接器)可得到全面的支持。如表中所示,该拓扑结构的最大支持距离为 150 米。

8G 光纤通道、850 纳米串行“受限的收发器”(FC-PI-4800-MX-SN)

支持距离,英尺(米)

blob.png

40GBASE-SR4 采用 MPO 连接器。基于标准的收发器及在给定布线拓扑结构下相应的最大范围可直接从表中读取。带六个 MPO 连接的链路可以配置为最多 140 米 LazrSPEED 550 OM4 干线电缆。将其与 100GBASE-SR4 表中的数据相比,得知最大链路长度为 115 米。将初始最大范围设计为 115 米,可以运用相同的布线基础设施,升级到 100G。

40 GB 以太网,850 纳米并行 (40GBASE-SR4)

支持距离,英尺(米)

blob.png

100G 以太网,850 纳米 4 通道并行 (100GBASE-SR4)

支持距离,英尺(米)

康普应用担保同时覆盖因供应商而异的非标准网络选项。下面的表格展示了预制链路对思科 BiDi 40G技术的支持情况。下面还展示了扩展范围的 CSR4 选项。通过比较两种选项,设计师可以得到这些替代选择在 LazrSPEED 550 OM4 光纤条件下的最大范围(思科 BiDi 为 150 米,40GBASE-SR4 为420 米)。

40G 以太网,思科“BiDi” (QSFP-40G-SR-BD)

支持距离,英尺(米)

blob.png

通过考察全部四种情景,可以比较应用支持和担保、基于组件的标准方法(采用人工分析法)以及康普担保应用性能的情况。在基于组件的设计方法中,在四种情景中只有一种符合设计需求和损耗预算。采用康普 InstaPATCH 360 系统,四种设计情景需求均可得到满足。

blob.png

矩阵架构链路—以太网选项

单模、多模、并行或双工布线选项——适合您的数据中心的选项取决于其规模、所支持服务的增长步伐、硬件预算、供应商的技术等。网络布线设计必须与网络架构、拓扑结构和路线图相整合。

考虑 40G 以太网链路的两种替代方案(上):

• 40GBASE-SR4,四条 10G 通道,采用 8 芯光纤

• BiDi 专有双工光纤设计,将两条 20G 通道复用到单对光纤上

这些解决方案的范围非常不同,通过比较各种情况的应用解决方案表即可发现这一点。采用 LazrSPEED550 OM4 光纤时,CSR4 的范围最高可达 420 米——采用 BiDi 时,仅为 150 米。应用表中展示的这些距离和拓扑结构均以康普 InstaPATCH 360 预端接光纤解决方案为基础。此例允许设计师用两个非标准收发器比较和设计链路,同时将其范围和拓扑结构与基于标准的收发器进行比较。

采用 40GSR4 标准收发器时,InstaPATCH 360 系统可支持 140 米光纤、六个连接,而标准要求为125 米——对矩阵架构设计来说,其范围和拓扑结构灵活性都要大得多。展望 100GSR4,支持 108米、六个连接。

矩阵架构链路—后续步骤

康普在前面讨论了高容量矩阵架构链路(40G 及以上)的优势,这种链路允许更多服务器和存储设备分享更高的网络总容量。虽然目前来看,对许多矩阵架构设计来说,40G 矩阵架构链路都具有极高的性价比和效率优势,但是,服务器接入端口的速率迟早都会攀升至 25G、甚至 50G,这只个时间问题。在未来几年中,矩阵架构链路速率当然需要提升至 100G,甚至 400G。

展望未来,更高速率的链路有多种选择。有些供应商提倡采用单模光纤解决方案。其他人则提倡采用多模光纤解决方案。对于两种介质选择,都有潜在的双工和并行通道选项。这些选择的相对成本持续快速变化。有些基本关系仍然成立——相比单模光纤系统,多模光纤系统的资本成本仍然较低,而且可能更易于维护和操作。

矩阵架构链路—新介质选项

OM3 和 OM4 多模光纤支持 40G 链路,其范围和拓扑结构的灵活性几乎能满足超大型“仓库规模”数据中心的需求。展望 100G 及以上速率,一种更具潜力的网络扩容方法需要为每对双工多模光纤添加更多通信通道。虽然面向单模光纤的波分复用 (WDM) 技术的成本一直居高不下,但新型短波 WDM (SWDM) 收发器将在一对光纤上合并四个通道,获得四倍于多模光纤的容量。这种低成本替代方案将多模光纤的安装和运营便利性与可扩展的带宽有机地结合了起来,能支持矩阵网络将来所需要的增长需求。

blob.png

为了支持 SWDM,康普携手 SWDM 联盟的其他成员,开发了一种新型“宽带”多模光纤介质WBMMF。这种光纤旨在扩展多模介质的可用容量,以提高单位光纤的通信通道数量,扩大有效范围。WBMMF 将用于实现 100 GB/s 和 400 Gb/s 的更高数据速率,同时减少支持这些未来的高容量矩阵网络所需要的光纤数量。

blob.png

WBMMF 向下兼容 OM3 和 OM4 光纤。在美国通信工业协会 (TIA) TR-42 委员会的组织下,WBMMF标准化进展十分迅速,标准有望在 2016 年发布。康普发布了 LazrSPEED 550 宽带布线解决方案,支持 InstaPATCH 平台的所有组件——通向下一代低成本高容量网络的途径现已开启。

结论

为了满足对低成本和高容量的需求,数据中心已经开始采用基于矩阵网络的新型系统来支持基于云的计算和存储系统。数据中心布线拓扑结构的密度不断提高,以支持分布式云应用一般所要求的低延迟任意互连通信。

鉴于网络链路的数量必须增加并且网络速率也在提升,高容量链路的设计变得更加复杂。增加数据中心容量意味着要把现有介质和通信通道技术的性能推向极致。光纤设备的设计和 WBMMF 也在发展,以实现完全适合矩阵网络架构的下一代容量和物理密度。单模光纤可支持更长的信道长度。

来自康普的应用设计和预制链路解决方案可确保实现可靠的高速网络,以满足当前和未来苛刻的网络容量需求。InstaPATCH 360 系统可提高高容量链路的有效范围,带来拓扑结构设计自由,可轻松扩展以支持超大的复杂环境,同时还能为基于标准的系统和不断涌现的专有系统提供应用性能担保。

预制解决方案使得复杂的矩阵网络设计、实施和管理起来十分方便。预端接高性能系统支持下一代网络介质和双工及多光纤模块化应用,同时还能缩短部署时间、降低部署费用。

标签:

责任编辑:zhangxiuqin
在线客服