突破传输容量瓶颈:多芯光纤与空芯光纤
伴随着容量的提升及输入功率的增加,由于非线性香农极限的影响,单模光纤的传输容量即将到达上限。传统单模光纤(SMF)传输系统的最大容量被认为在100 Tbit/s左右。这个极限是由信噪比和带宽决定的,虽然通过先进的编码技术可以挖掘出更多的潜力,但物理上的限制不可避免。实芯光纤也逐渐暴露出难以满足低时延业务、非线性严重,最大传输容量很难持续提升的问题。在光纤传输其他维度已无法突破的情况下,如何提高光纤容量呢?多芯光纤和空芯光纤的引入, 为解决当前传统光纤的局限提供了一个解决方案,旨在突破单模光纤的容量限制。什么是多芯光纤(Multi-core Fiber, MCF)?多芯光纤就是在同一根光纤内,有多根纤芯,多个信号可通过各自的纤芯进行独立传输,从而实现系统传输容量实现数量级的提升。这使得同一根光缆能够在不显著增加物理体积的情况下,提供数倍于传统光纤的传输带宽。 与传统光纤相比, MCF在同一光纤中传输多个信道,可以大幅度提高带宽,从而满足数据中心、骨干网等对传输容量日益增长的需求;同时减少了光纤铺设的数量,节省了光纤资源和安装空间。根据光纤芯之间的耦合程度,多芯光纤通常分为以下两类:无耦合多芯光纤(Uncoupled Core MCF,UC-MCF)和耦合多芯光纤(Coupled Core MCF, CC-MCF)。两者的纤芯间距不同,非耦合多芯光纤的芯间距大于30um,耦合多芯光纤的芯间距小于30um。纤芯间距是指相邻两个纤芯之间的距离。 耦合MCF中的每个纤芯比较紧凑,纤芯之间的信号传输容易产生相互干扰,因此需要在传输系统中采用多输入输出MIMO数字信号处理DSP来处理模式耦合效应。信号之间发生模式耦合导致信号在接收端混合在一起,无法区分,因此采用MIMO-DSP技术通过在接收端对接收到的信号进行解码和恢复,即分离和恢复每个纤芯上的原始信号,确保每个信号都能被准确的接收和解码。类似地,非耦合MCF中每个纤芯是独立传播信号,不需要MIMO DSP进行处理。从成本上来说,当然希望是可以选择不需要MIMO来处理的非耦合MCF,但非耦合MCF用于长距离传输时,又容易产生芯间串扰(XT)。芯间串扰是MCF需要关注的一个重要参数,可定义为单芯信号的磁场或电场对相邻芯信号的干扰。由于同一包层区域有多个芯,因此串扰是系统的重要因素。为了减少芯间的串扰,芯间距应适当。多芯光纤商用情况2024年3月,日本电信运营商NTT携手NEC成功完成 “首次跨洋7280千米传输实验”,实验采用了12芯多芯光纤技术,将光网络带宽提高12倍。2024年3月,谷歌透露与日本电气合作,采用多芯光纤技术建设连接台湾、菲律宾和美国的海底光缆系统TPU,预计2025年底完工。该系统是全球首个采用MCF技术的商用海底光缆系统。2023年,烽火通信基于自研19芯单模光纤,实现了净传输容量3.61Pbit/s的系统传输,相当于1秒下载约135300部最高画质的电影,刷新了单模多芯光纤传输容量的世界纪录。多芯光纤走向应用需要解决FIFO, 熔接,放大等问题,也就是需要解决多芯光纤与多芯光纤的连接、多芯光纤与单芯光纤的连接、多芯光纤在光放大传输系统的应用,需要开发相关的连接器、熔接机、扇入扇出FIFO器件、光配线架等相关产品,并考虑与现有技术的兼容性和通用性。目前,国际上对多芯光纤的设计未有统一标准,各厂商的多芯光纤在纤芯数量、纤芯排列、大小、芯间距等都有些差异,不同类型多芯光纤熔接增加了难度。多芯光纤与单芯光纤的连接 - FIFO多芯光纤(MCF)的应用需要解决多芯光纤与普通单芯光纤之间如何连接的问题。空间多路复用器/解复用器被称为扇入/扇出(FIFO)器件,用于有效地将光从单个单模光纤耦合到多核光纤,或者将多核光纤的光耦合到单个单模光纤中,这样就实现了多芯光纤与普通单模光纤之间的连接。难点在于连接时如何保证纤芯间的低串扰、连接的低损耗以及精密的耦合对准。到目前为止,已经报道了各种各样的FIFO器件实现技术,但最常用的技术有: 1)熔融拉锥技术,2)3D波导技术;和3)自由空间光学技术。以上每种方法都有各自的优点,但对于具有小芯距的高密度MCF来说,实现低串扰(XT)仍然具有挑战性。例如,在熔融拉锥光纤逐渐变细的方法中,FIFO器件可以通过逐渐变细单模光纤束来实现,但在变细过程中,每个芯的模场直径(MFD)会增大,这可能会影响器件的性能导致相邻纤芯之间会产生明显的串扰(XT)。在3D波导方法下,直接飞秒激光刻写比较难实现低XT FIFO器件,但该方法的优点是能实现更多芯数的耦合。基于自由空间光学的FIFO器件具有低插入损耗和XT,需要精密控制各组件的精度及成熟的光学设计技能。亿源通(HYC)基于自身强大的空间光学设计能力及成熟的精密耦合能力,提出了一种紧凑和低串扰XT的四芯 FIFO组件。通过精密的空间光学设计,利用透镜、棱镜等光学元件调节并优化MCF与多个单芯光纤的耦合,实现耦合效率最优,器件结构紧凑,指标均衡。 间距在43um的FIFO器件具有低平均耦合损耗(<0.5dB),低串扰(>45dB),回波损耗(>55dB)。多芯光纤与多芯光纤之间的连接目前多芯光纤多采用熔接的方式来进行连接,但由于每个多芯光纤都可能有不同的芯间距,这样熔接意味着有施工难度高、后期维护难等难题。用于 MCF 的第一个实用光连接器是 2012 年在日本开发的 MU 型 MCF 连接器。通过应用奥尔德姆的耦合机构,保持定位精度,包括旋转角度。它具有即使对线缆施加拉伸载荷,连接损耗也不会波动的特性。 2019年开发出SC型MCF连接器,以简化结构实现相同原理。亿源通研发的专用于多芯光纤连接的光纤连接器,在传统的LC/FC接口类型连接器基础上进行了修改设计,优化了定位保持功能,改善了研磨耦合工艺,保证多次耦合后插入损耗变化小,能够直接取代昂贵的熔接工艺,保证使用的便捷性。此外,亿源通也设计了具有专利的MC连接器,比传统接口类型连接器拥有更小的尺寸,可应用于更加密集的空间。多芯光纤MCF Hybrid组件(应用于EDFA光放大器系统)空分复用技术传输系统要实现大容量、高速率和长距离传输,必然离不开光放大器去补偿其传输损耗,SDM光纤放大器是SDM技术走向实用化的关键,多芯掺铒光纤放大器(MC-EDFA)是SDM传输系统的关键器件。MC-EDFA目前市场有提出两种方式,一种是共包层泵浦,一种是独立式芯区泵浦。共包层泵浦是泵浦光与信号光共享同一个包层区域,泵浦光沿着光纤的外围传播,非直接穿过纤芯。独立式芯区泵浦将泵浦光直接引导至特定的纤芯内部。通过这两种方式实现了对多芯光纤中信号的有效放大。亿源通科技可配合客户未来用于多芯光纤(MCF)的EDFA掺铒光纤放大器系统解决方案,提供用于MC-EDFA的无源器件做Design-in开发设计,延伸开发MCF Hybrid混合器件,例如:(1)多芯光纤光隔离器和分光器(MCF Isolator +TAP)(2)多芯光纤MCF 980/1550 WDM(3)多芯光纤增益平坦滤波器(MCF GFF)等。多芯光纤市场规模根据Businessresearchinsights的2023年《MULTI-CORE FIBERS (MCF) MARKET REPORT》报告: 2022 年全球多芯光纤 (MCF) 市场规模为 18.36 亿美元,预计 2031 年市场规模将达到 216.3265 亿美元,预测期内复合年增长率为 32.3%。市场主要厂商有日本的古河Furukawa Electric,中国的长飞Yangtze Optical Fibre and Cable,中国的烽火通信Fiberhome,法国的iXblue,美国的Humanetics,日本藤仓Fujikura,日本住友Sumitomo Electric等。排名前三的头部公司所占市场份额超过70%。就市场规模而言,亚太地区是最大的市场,占有率超过65%,其次是北美和欧洲,占有率分别约为20%和10%。就产品类型而言,四芯光纤是最大的细分市场,占据了约60%的份额。在产品应用方面,通信的市场份额超过55%。什么是空芯光纤(Hollow-Core Fibers,HCF)?空芯光纤不同于传统的实心玻璃或塑料芯光纤,其内部是空的,可以填充空气、惰性气体或真空。这种独特的结构设计方法显著改变了光纤的光传播特性,使其比传统的实心玻璃芯光纤具有多种性能优势。由于光在空气中的传播速度比在玻璃中的传播速度快,与传统光纤相比,空芯光纤具有较低时延和较低损耗。微软Lumenisity宣称其空芯光纤光速度比标准石英玻璃快47%。此外,空芯光纤不挑光,可以轻松支持O,S,E,C,L,U等多种波段的光。空芯光纤和传统的玻璃芯光纤一样,由纤芯、包层和涂覆层三部分组成,不同之处主要在于纤芯和包层。空芯光纤的纤芯是空气,包层是基于微结构的设计,通常是由一系列微小的空气孔构成,排列结构类似一个蜂窝状。当光入射到纤芯和包层界面上时,会受到包层中周期排列的空气孔的强烈散射。这种多重散射产生相干,使得满足特定波长和入射角的光波能够回到芯层中继续传播。微结构的作用就是将光信号束缚在纤芯中传播,空芯光纤的性能也主要是微结构决定的。 空芯光纤由于光在空气中传播,减少了介质对光的折射,从而大大降低了传输时延。空芯光纤的信号损耗显著低于传统光纤,这使得它适用于超长距离的传输,减少了信号放大器的需求。空芯光纤在高功率光传输时,非线性效应(如光纤内的自相位调制等)显著减少,这使得它在高功率激光传输和量子通信中具有广泛的应用前景。空芯光纤根据其微结构设计和工作原理可以简单分为以下两种类别:光子带隙空芯光纤(Photonic Bandgap HCF, PBG-HCF),反谐振空芯光纤(Anti-Resonant HCF, AR-HCF)。空芯光纤的发展也主要经历了从光子带隙光纤到反谐振光纤的演进过程。 光子带隙空芯光纤依靠光纤包层中的光子晶体结构, 形成光子带隙来限制光束在空心纤芯中传播。光子晶体的折射率差异使光束只能在纤芯中传播,而无法泄露到包层中。但这种结构容易产生损耗,根据预测大约每公里损耗4dB,限制了在长途网络中的使用。反谐振空芯光纤通过光在光纤内的管状玻璃薄膜间来回相干反射,将光限制在空气芯附近并沿轴线传输。 反谐振的原理比较复杂,有人类比说与薄膜干涉相似。这种光纤利用反谐振反射原理,通过特殊的结构设计,如设计多层特定排列的毛细管形成复杂的微结构,这种结构使得光在传输时不会发生全反射现象,同时毛细管的嵌套结构则可以明显降低空芯光纤的衰减。空芯光纤市场情况根据Businessresearchinsights的2023年《HOLLOW CORE FIBER MARKET REPORT》数据:2022 年全球空心光纤市场规模为 1300 万美元,预计 2029 年市场规模将达到 1900 万美元,预测期内复合年增长率为 6.6%。主要厂商有丹麦的NKTPhotonics,英国的Lumenisity等。 多芯光纤与空芯光纤代表了光纤通信技术的未来方向。MCF通过提升单根光缆的传输能力,突破了传统光纤的物理限制,而HCF则通过创新的中空结构,为高速、低延迟传输提供了全新选择。尽管这两项技术在市场化进程和应用场景上有所不同,但它们都指向了一个共同的目标——更高效、更快速的光通信网络。未来,MCF和HCF有望在全球范围内得到广泛应用,推动光通信行业迈向新的高峰。
液冷技术:迎接AIGC时代数据中心的散热挑战
随着人工智能生成内容(AIGC)的跨越式发展,算力需求呈爆炸式增长,带动了数据中心的功耗和热管理需求的飞速上升。AI模型训练和推理过程中的高计算资源需求,导致服务器发热量大幅增加,对散热技术提出了更高的要求。根据Colocation America发布的数据,2020年全球数据中心单机柜平均功率已经达到16.5kW,比2008年增加了175%。液冷技术因此成为数据中心散热技术的新热点。在今年的GTC大会上,英伟达不仅展示了B200和GB200芯片,还重点介绍了与其配套的液冷技术。同时,在2024年SIEPR经济峰会上,英伟达CEO黄仁勋透露,下一代DGX GPU服务器将全面采用液冷散热。英伟达的选择也成为行业内的一个风向标,为液冷技术的发展注入了新的动力。随着AI技术的不断进步,液冷技术的重要性也愈加凸显。液冷技术不仅能够有效降低数据中心的能耗,还能够提高服务器的运行效率,延长设备的使用寿命。因此,液冷技术正逐步成为数据中心散热解决方案的首选。数据中心冷却方式的比较目前数据中心基础设施的制冷方式主要有风冷和液冷两种方式。液冷技术是指利用液体取代空气作为冷却介质,与服务器发热元器件进行热交换,将服务器元器件产生的热量带走,以保证服务器工作在安全温度范围内的一种冷却方法。风冷技术依赖于风扇和空调系统,通过空气流动带走热量。液冷技术通过液体直接冷却发热器件,液体的导热能力是空气的25倍,液体的体积比热容是空气的1000~3500倍,液体的对流换热系数是空气的10~40倍,同等情况下,液冷的冷却能力远高于空气。 相比风冷技术,液冷技术具有更高的冷却效率和更低的能耗。在高密度计算环境中,风冷系统往往无法满足散热需求,而液冷技术则能够有效解决这一问题。此外,液冷技术还具有噪音低、占地面积小等优点,非常适合现代数据中心的高密度布局和绿色节能需求。AI时代下,液冷发展有哪些推动力?①算力芯片热功率不断攀升,风冷单点散热已达极限随着AI技术的快速发展,算力需求不断攀升,芯片发热量和热流密度也在不断增加。当芯片长时间处于高温运行状态,会影响其性能及使用寿命,增加故障率。研究表明,当芯片的工作温度接近70-80℃时,温度每升高10℃,芯片性能会降低约50%。当前,Intel多款CPU的TDP已达350W,英伟达的H100达到700W,未来B100或将达到1000W,这已逼近风冷单点散热极限800W。未来计算芯片功耗或将持续增长,而CPU和GPU的整体功耗在AI服务器总功耗中占比达到80%左右,继续采用风冷散热,将导致行间空调需求数量陡增,高密度散热场景下液冷方案成本和性能优势显著。除了芯片侧,在机柜侧,数据中心单机柜功率密度也在持续上升。传统风冷技术通常可以解决12KW~15KW以内的机柜制冷极限需求,根据 UptimeInstitute 发布的《2022 年全球数据中心调查报告》,英伟达DGX A100服务器的单体最大功率为6.5KW,一个标准的 42U 高度的机柜大约可以放置 5个 5U 高度的 AI 服务器,单机柜总功率超过 20KW。传统的风冷远远无法满足AI服务器机柜的散热需求。②数据中心节能需求驱动,PUE更高要求PUE(Power Usage Effectiveness)是评价数据中心能源效率的核心指标,计算公式为 PUE = 数据中心总能耗/IT设备能耗,数值越接近1,数据中心能效越高,PUE的值越高,数据中心的整体效率越低。数据中心的电能消耗主要由IT设备(45%)、制冷设备(43%)、供配电系统(10%)、照明等(2%)构成。空调系统在数据中心能耗占比仅次于IT设备,在无法升级IT系统时,降低空调系统能耗是重要环节。国内在“双碳” “东数西算” 政策的导向下,可以从近期国家有关部门发布的《绿色数据中心政府采购需求标准(试行)》的通知要求看出对于PUE的要求越来越高,其通知要求采购人采购数据中心相关设备、运维服务时,从2023年6月起数据中心PUE不高于1.4,2025年起数据中心PUE不高于1.3。 根据CDCC与浪潮信息,风冷方案数据中心PUE一般在1.4-1.5左右,而液冷数据中心PUE可降低至1.2以下,采用更加节能、效率较高的液冷散热技术是大势所趋。数据中心的能源消耗一直是行业关注的焦点,尤其是在全球能源资源紧张和环保意识增强的背景下,提升数据中心的能效显得尤为重要。液冷技术通过更高效的散热方式,减少了空调系统的能耗,从而显著降低了数据中心的PUE值。这不仅有助于降低运营成本,还能够减少碳排放,符合可持续发展的要求。 液冷技术的分类液冷系统根据液体与硬件直接的接触方式分为直接液冷和间接液冷,直接液冷就是液体与需要冷却的硬件组件直接接触达到冷却的目的,又可分为浸没式和喷淋式;间接液冷是指液体不与硬件直接接触,通过一个中介组件(散热器或冷却板)将热量带走达到冷却,一般常见的为冷板式液冷,根据冷却介质是否发生相变又可分为单相冷板式和两相冷板式。 ①从冷板到浸没式冷板式液冷是通过冷板把发热器件的热量传递到冷却液体,通过冷却液体本身的制冷特性将产生的热量带走。工作液体不与电子器件直接接触,该技术对计算机系统改动不大,仅需将原风冷散热片替换为液冷散热套件并将冷媒管路引出机箱即可。适用于中高热流密度散热。冷板式液冷系统主要由冷却塔、冷量分配单元(CDU)、一次侧&二次侧液冷管路、冷却介质、液冷机柜组成。一次侧是指将二次侧的热量排至室外环境或其他热回收单元的环路;二次侧是指从服务器带走热量并在一次侧进行散热的环路,两个部分中间通过CDU即冷量分配单元来进行换热。冷板式液冷系统的工作原理相对简单,但在实际应用中,需要考虑冷板的设计、冷却液的选择以及系统的维护等问题。此外,冷板式液冷系统在高热流密度环境中表现出色,非常适合现代数据中心的高密度布局需求。 浸没式液冷系统通过直接将发热器件浸入不导电的冷却液中实现高效散热。按照冷却液在循环散热过程中是否发生相变,可以分为单相浸没式液冷和双相浸没式液冷。单相浸没式液冷技术在交换过程中冷却液温度发生变化而不存在相态转变,过程中完全依靠物质的显热变化传递热量,即利用液体受热后体积膨胀密度减小,较热的冷却液会自然上浮,通过外部冷却回路的热交换器冷却,冷却后的液体在重力作用下自然下沉,以此来完成循环散热。这是其中一个方式,冷却液在循环散热过程中始终保持液态。 双相浸没式液冷的散热过程中冷却液会发生从液态到气态再从气态到液态的相变过程。浸没式液冷系统包括室内侧与室外侧,室外侧包含冷却塔、一次侧管网、一次侧冷却液;室内侧包含冷量分配单元(CDU)、浸没腔体(Tank机柜)、IT设备、二次侧管网和二次侧冷却液。使用过程中IT设备完全浸没在冷却液中,因此冷却的选择需要考虑不导电液体,例如硅油、氟化液等。 此外,还有喷淋式液冷,现阶段落地应用较少,不适合高密度服务器和大规模数据中心。短期内,冷板式液冷因技术成熟、与现有系统兼容性好、维护方便和改造成本较低,非常适合AI时代对散热的需求和数据中心从风冷向液冷的过渡阶段。长期看,浸没式液冷凭借其良好的导热性能、高效的余热回收能力和支持更高机柜功率的优势,会更适合未来数据中心冷却需求的演变,尤其是在机柜单元功率不断增加的情况下,浸没式液冷可以提供更高效的冷却解决方案,并且助力降低数据中心的总体能源使用效率(PUE)。②智算中心首选 – 液冷随着功率密度的提升,采用液冷方案成为更多新建 GPU 算力中心的选择。根据 IDC 发布的《中国半年度液冷服务器市场(2023 上半年)跟踪》报告数据显示, 2023 中国液冷服务器市场规模达到 15.1 亿美元。 IDC 预计,2022-2027 年,中国液冷服务器市场年复合增长率将达到 54.7%,2027 年市场 规模将达到 89 亿美元。液冷技术在智算中心的应用,不仅提升了计算性能,还显著降低了能耗和运营成本。液冷技术的推广,将推动数据中心向更加高效、绿色和智能的方向发展,为AI时代的数据处理需求提供坚实的基础。 液冷产业链液冷产业链包括上游的产品零部件提供商、中游的液冷服务器提供商、下游的算力使用者。目前下游的用户,国内用户阿里巴巴以单相浸没式液冷为主要发展方向,其他如百度、腾讯、京东等互联网企业更多的以冷板式液冷应用居多。海外用户浸没式发展优于冷板式,以美国公司为首,如英特尔、Google、Meta等互联网大公司在AI加持下更多的推动浸没式液冷的快速发展。 浸没式液冷技术可能面临的问题冷却液选择冷却液是液冷技术的关键原材料之一,具备较高技术壁垒。在浸没式液冷技术中,冷却液需要与电子产品直接接触,因此对冷却液的性能具有较高的要求,需要具备优异的导热性、良好的绝缘性、材料相容性等,此外对于气味、毒性、降解难易等环境方面特性也是有一定要求,应尽可能的易于操作及环境又好型。目前应用最为广泛的浸没式冷却液主要有碳氢及有机硅类(俗称“油类”,如矿物油等)和碳氟化合物类(如氟化液等)。氟化液综合性能较好,是比较理想的液冷材料。但氟化液目前的痛点在于成本较高。随着愈发严格的环境保护要求,硅油拥有更高的导热系数与更低的密度,同时对于环境更友好。冷却介质选择的差异主要由于冷却过程的不同。光路密封性问题冷却液如氟化液或硅油等具有良好的绝缘性,能够有效防止电路短路。在低频信号条件下,冷却液对信号的影响几乎可以忽略不计。然而,在高频信号的情况下,冷却液对信号传输的影响则需要谨慎评估和控制。但整体而言,对电路的影响是可控的。而对于光路来说,数据中心的光模块多数采用“非气密”封装设计,这意味着如果不进行相应的改进,冷却液可能会进入光学腔体,影响光学性能。即便是采用气密封装的光模块,仍有部分无源光路处于气密腔之外,例如透镜等光学元件。光路的设计通常基于空气的折射率(约为1.0),当光学元件浸没在冷却液中时,冷却液的折射率不同于空气,会导致光的焦点和耦合效率发生变化。例如,氟油的折射率通常在1.3左右,这种折射率的变化会引起光路设计参数的调整。为应对浸没式液冷对光路和电路的潜在影响,业界正在采取多种措施。例如,开发适应冷却液环境的新型光模块封装技术,优化高频信号的电路设计,以及研究更适合浸没冷却的光学材料和结构。一体化交付还是解耦式交付目前冷板式液冷服务器有三种交付模式,①IT设备侧仅交付液冷服务器;②IT侧交付“液冷服务器+液冷机柜”;③IT侧交付“液冷服务器+液冷机柜+CDU+二次侧管路”。当下应用较为广泛的为第三种交付模式,即一体化交付,整体机柜由同一厂商一体化交付,由厂商自定义标准进行集成化设计开发。解耦交付是液冷机柜与液冷服务器之间遵循用户统一制定的接口设计规范,机柜与服务器解耦,由不同厂家交付,基础设施和服务器厂家需协调合作。解耦式交付易于规模化推广与灵活部署。 目前国内液冷技术规划化程度较低,各家服务器设备、冷却液、制冷管路、供配电等产品形态各异,尚无统一接口标准,面临着难以标准化、规模化推广应用的问题。国内三大运营商发表液冷技术白皮书中提出液冷三年愿景,逐步开展液冷技术的验证、实验,将于2025年开展液冷技术的大规模应用,预计应用于50%以上数据项目,推动形成标准统一化、规模化,助推液冷解耦式交付。HYC可提供定制化液冷光互联方案基于二十多年的光互联关键技术积累,HYC具有高精度机械设计、模具、注塑设计与精密制造能力,以及光学设计、模拟仿真等技术平台,能够配合客户做一系列的应用于液冷数据中心的布线系统ODM/JDM服务。