在AI算力爆发与后摩尔时代叠加的背景下,半导体系统的复杂度正被不断推高,更高带宽的光互连、更高频率的信号链路,以及多芯片异构集成的系统级协同设计,持续抬升着测试与测量的门槛。与之形成反差的是,传统以单一功能仪器为核心的实验室架构却日益显露疲态,效率受限、扩展困难,也愈发难以支撑复杂系统级验证的需求。

这种技术需求与测试工具的错位,在2026年3月的上海慕尼黑光博会上体现得尤为直观。展会现场,围绕光通信、硅光技术、先进封装等产业链关键方向,各企业纷纷亮出下一代技术路径与创新成果;而这些更复杂、更精密的系统,也在反向倒逼测试测量工具突破能力边界,寻求更高效、更灵活的解决方案。

在本届光博会上,精密软件定义仪器公司Liquid Instruments为行业带来了最新一代硬件平台Moku:Delta,其将示波器、锁相放大器、频谱分析仪等多种常用仪器整合进单一平台,并依托FPGA与软件定义架构,实现按需生成仪器的核心能力,从底层重构了测试系统的使用方式。

展会现场,半导体行业观察与Liquid Instruments CEO Daniel Shaddock展开了深度交流,围绕测试测量设备的演进路径,以及其如何更好适配半导体产业前沿需求进行了深入探讨。

从太空实验室到测试测量行业

和不少知名企业一样,Liquid Instruments 的诞生,也源于对一项技术的深耕。Daniel Shaddock表示:“这家公司脱胎于我在NASA与澳大利亚国立大学带领的科研团队,我们当时主攻全球顶尖的高精密探测技术——引力波探测。”

引力波是爱因斯坦在上世纪初预言的时空涟漪,由黑洞合并等极端天体事件引发。探测它意味着测量极其微小的距离变化——强引力波经过地球时,对地日距离造成的形变甚至不及一个氢原子直径。

Shaddock在NASA喷气推进实验室任职期间,参与了LISA(激光干涉仪空间天线)任务的干涉仪研发,以及GRACE Follow-On卫星项目,将这些太空任务与商业仪器连接起来的,是一块FPGA芯片。为满足LISA探测器的性能指标,团队选择了基于FPGA的相位计架构——这是当时唯一可行的技术路径。但在实际使用中他们发现,同一块芯片通过重新配置,可以在示波器、频谱分析仪等不同仪器功能之间自由切换。

“我们意识到,手里的这项技术,其实比实验室里任何一台单独的仪器都要强大得多,”Shaddock说道,“在科研中,我们已经验证这类能力是可以实现的,但为什么在工程领域却几乎没有人尝试这样去做呢?”

这个问题,最终催生了Liquid Instruments。Shaddock将这套源自引力波探测的精密测量技术体系带出了太空实验室,转向一个同样亟需变革的领域:覆盖电子与半导体产业的测试测量领域。

和许多工程师想象的不一样,测试实验台上往往堆满了来自不同厂商的专用仪器,示波器、锁相放大器、PID控制器、频谱分析仪各自为政,通过繁琐的线缆连接,彼此之间存在时序误差与信号干扰。一旦测试需求改变,就意味着重新采购、重新布线、重新配置,时间与金钱空耗在这种碎片化环境中。

这种困境在英特尔实验室硅光研究中也有体现:为硅基光电异质集成芯片上的多个相位调制器寻找最优偏置条件,需要多维扫描与复杂测试流程。研究人员Guan-lin Su博士描述过这种无奈:传统方案依赖多台台式仪器堆叠,布线复杂、占用空间巨大,“通常需要数百个步骤来进行收敛”——而整个过程缺少直观的可视化界面,协作效率极低。

事实上,测试测量这个行业最早可以追溯到1930年代惠普开始生产振荡器,但其在过去数十年里几乎没有发生真正意义上的创新,一个在1970年代使用过示波器的工程师,走进今天的实验室,会发现这些设备依然如此熟悉。这与其他高科技行业的飞速演进形成了鲜明反差。

用软件定义一切

Liquid Instruments给出的解法,来自于引力波探测中磨砺出的技术直觉。

“所有传统仪器归根结底都依赖电压输入与电压输出这一底层共性,既然如此,为什么不用一块高性能FPGA取代那一张张布满分立器件的专用电路板?”Shaddock在交流中一针见血地指出。

这正是Moku平台“可重构硬件 + 软件定义仪器”架构的本质。FPGA的实时数字信号处理能力,使同一套硬件能够在数毫秒内切换运行模式;而软件层则将复杂的仪器配置抽象为可视化操作,大幅降低使用门槛。

最新一代旗舰Moku:Delta将这一理念推向新高度:搭载Xilinx UltraScale+ RFSoC FPGA,提供2GHz瞬时带宽与5GSa/s采样速率,配备8通道模拟输入输出与32路数字DIO通道,本底噪声低于10 nV/√Hz。单台设备支持15种以上仪器功能同时运行多达8种,仪器组合可能性超过20亿种——而这一切被压缩在一个不到2U高度的机箱中。

平台内部,一条高达160 Gb/s的数字总线让信号在不同仪器槽位间无缝流转,彻底消除了外部物理线缆引入的相位偏移与寄生效应。这不只是参数层面的提升,而是一种测试架构思路的根本转变——从“多设备拼接”走向“单平台内生”。

这种架构优势,已经逐步被复杂的半导体制造与检测环节中采用。在英特尔实验室的硅光研究中,借助Moku的多仪器并行模式,研究团队在同一硬件上同时运行两个锁相放大器与两个PID控制器,配合内部无损数字互连,“在几次迭代中就能完成传统方案需要数百步才能收敛的工作”。

而在AMD晶圆缺陷检测的实践中,可重构性的意义更为深刻。面对如何在复杂背景噪声下提取极微弱故障信号这一挑战,AMD团队充分利用了Moku平台既作测试仪器、又作可编程信号处理架构的双重身份:在频域映射条件下使用锁相放大器进行快速扫描,而遇到复杂信号背景时则切换至双Boxcar平均器提取时域分量。团队在FPGA内部署的实时移动平均滤波器在312.5 MHz时钟下运行,延迟仅224纳秒,将信噪比提升了约16倍。

更进一步,他们还将预训练的四层自编码器神经网络直接部署到FPGA信号链路中,实现了对目标信号的实时特征恢复与深度降噪——这已不是传统意义上的测试仪器,而是一个具备在线AI推理能力的智能测量节点。

一款按需生成的仪器

如果说可重构硬件解决了灵活性问题,那么Liquid Instruments在本届光博会上发布的“生成式仪器”(Generative Instrumentation),则直指测试领域一个更根本的痛点——定制化仪器的开发周期。

在传统路径下,工程师需要编写硬件描述语言(HDL)代码才能在FPGA上实现自定义算法,这一门槛将绝大多数终端用户拒之门外。一个专用测试仪器的开发,往往以月为单位。即便是基于现成平台的二次开发,从需求描述到验证部署,也需要数周时间。

生成式仪器的做法是:用自然语言代替HDL。用户只需描述测量需求,AI系统便能自动完成架构设计、HDL代码生成、功能验证,直至将定制化仪器部署到硬件中。以卡尔曼滤波器开发为例,这一流程在分钟级内即可完成,涵盖完整的架构设计与20项功能测试。

值得关注的是,传统仪器的软件仅停留在表层,不过是依附于固有硬件架构的简易操作界面,无法触及核心底层。而Moku平台从设计之初就打通了全链路:软件能够深度嵌入设备核心,从根源实现硬件架构的重构与配置。这正是Liquid Instruments能够实现生成式仪器的关键前提——当软件与硬件之间没有不可逾越的壁垒,AI才能真正改变仪器本身,而不只是改变一个对话框。

这与当前市面上大多数仪器AI助手有着本质区别。后者更像是一个知识库问答系统,帮助用户查询操作手册;而生成式仪器直接输出可运行的硬件配置,将工程师从代码编写中解放出来,让他们的精力集中在真正需要人类判断的问题上。

谈到AI与精密测量的结合,Shaddock表现得颇为克制:“我们让AI参与仪器的设计与实现过程,由它生成和验证代码,降低编程门槛,承担大量复杂且重复的工作,而工程师则专注于测试目标的定义,两者协同配合,在保证测量可信度的同时,也显著提升了整体测试效率。”这种分工逻辑,与他在引力波研究中对测量可信度的执念一脉相承。

参数之外,体验本身就是竞争力

在测试测量行业,讨论仪器往往从规格表开始:带宽、采样率、动态范围……这些数字固然重要,但Liquid Instruments越来越清晰地认识到,性能参数只是起点,最终落地的价值是工程师的效率。

Shaddock在交流中说得非常直接:“我们真正的用户不是公司,是工程师。他们每天在解决真实的技术难题,我们的工作是不让仪器本身成为额外的障碍。”

这种视角决定了Moku平台的产品逻辑:保存/加载配置功能让团队间共享测试方案成为一键操作;多仪器并行模式消除了设备间的时序误差;可编程信号处理架构让复杂算法的迭代从重新采购硬件变为更新软件。

从宏观上看,这场变革的意义不止于某一家公司。测试测量是一个运行超过50年的成熟硬件市场,但软件定义与可重构架构正在重塑它的底层逻辑,就像传统汽车企业在向电动化转型时所遭遇的挑战一样,那些深度绑定于固有硬件架构的巨头,将很难以同样的敏捷度完成这种范式迁移。

而对于工程师个体而言,这场迁移带来的是更直接的解放。生成式仪器将定制测量系统的开发周期从数月压缩至数分钟量级,让即便没有HDL背景的工程师也能按需构建专属仪器。这不是一个可选项,而是面对CPO、先进封装、量子计算等新兴前沿领域日益碎片化测试需求时的必然应答。