logo
  • 首页
  • 产品中心
  • 解决方案
  • 技术专栏
  • 关于我们
  • 首页
  • 产品中心
  • 解决方案
  • 技术专栏
  • 关于我们
  • 【高清视频】手把手教你如何测试HDD/SSD功耗并监控sideband信号

    不少工程师对于如何长时间监控、记录、回溯、分析硬盘HDD或者各类SSD的的电压、电流、功耗以及sideband信号跳变非常感兴趣,尤其是在HDD/SSD碰到功耗方面或者可能怀疑和某些边带信号有关的问题的时候。我们今天通过在实验室从头搭建了一个演示环境,手把手地解释如何实现这些操作,从测试环境搭建、解释、以及管理软件GUI的详细的分析,使得从来没有从事过这方面的工程师有一个详尽的了解。想直接观看视频的朋友可以直接到本文底部观看,建议使用电脑。 我们花了4个小时拍摄了本期视频并且处理添加了字幕供大家参考,参见下面的视频,记得如果想看高清视频一定要在电脑上打开本文底部的视频链接进行观看!如果你觉得这篇文章对你有帮助,也希望帮助到更多人,欢迎分享到朋友圈或者与朋友讨论! Quarch PAM 功耗分析模块测试环境设置总结报告 一、背景介绍 Quarch PAM(Power Analysis Module)功耗分析模块是一款用于分析存储设备功耗与信号的先进工具。该模块支持多种接口与设备,包括但不限于: SATA接口:6G SATA HDD/SSD SAS接口:6G/12G SAS HDD/SSD PCIe接口:Gen3、Gen4、Gen5 NVMe SSD盘 本次测试主要以希捷6G SATA企业级SSD为案例,展示在工作站环境下,利用PAM模块如何完成功耗与信号分析(PCIe U.2/U.3 SSD操作一样)。 二、测试环境与硬件配置 测试环境: 模拟服务器环境,采用PC工作站代替实际服务器。 使用一张6G SATA HBA卡,通过内部HD MINI SAS 8643接口连接到存储设备。 硬件与连接: 硬盘:希捷6G SATA企业级SSD。 数据连接:HD MINI SAS接口分为4路,其中一根线连接目标硬盘。 电力供应:通过主板的SATA电源接口直接供电。 三、PAM模块功能与操作 模块概述: 小型设备,支持12V电源输入,管理口可通过USB或以太网连接。 除功耗分析外,还可监控PCIe设备的多种Sideband编带信号。 提供直观的前面板接口(USB Type-C)。 治具(Fixture)功能: 兼容多种存储接口,包括U.2、PCIe、SAS、SATA等。 治具通过模块串联在硬盘与HBA卡之间,实时监控电压、电流、功耗及信号。 连接与安装注意事项: 确保所有连接线缆牢固安装,避免因接触不良导致的信号损失。 在连接背板设备时,小心柔性电路板损坏,拔插需按住接口确保平稳。 四、软件使用指南 安装与驱动: 软件名称:Quarch Power Studio (QPS)。 必须安装USB管理驱动后方可正常使用。 模块配置: 将PAM模块通过USB连接至电脑,运行QPS软件。 软件界面支持电压、电流、功耗等实时数据显示,采样率建议设置在64us以上以减少存储压力。 数据分析: 可通过软件记录启动、运行等过程中的功耗数据。 支持采集多个通道数据,包括5V/12V电压与电流,PCIe编带信号等。 五、案例演示 启动过程记录: 演示如何利用PAM模块记录设备的开机启动功耗曲线。 展示信号界面,包括电压、电流、功耗与信号分析的可视化操作。 FIO与PAM联动: PAM模块可与FIO性能测试工具联动,通过脚本同步分析功耗、IOPS及带宽等数据。 提供功耗与存储性能之间的可视化对比,便于深入优化。 六、使用注意事项 连接与拔插安全: 柔性电路板容易受损,拔插时需特别注意保护接口。 背板连接时建议移除相邻设备减少干扰。 软件设置优化: 默认软件关闭后记录文件会自动删除,需提前保存重要数据。 确保存储空间充足,避免因磁盘空间不足而中断记录。 七、总结 通过本次演示可以看出,Quarch PAM模块是一款功能强大、适用范围广泛的功耗分析工具,尤其在复杂存储设备功耗监控领域表现优异。结合QPS软件与脚本支持,其应用场景从设备测试到性能优化都有极高价值。 如果需要进一步深入了解模块使用或定制脚本,请参考官方提供的白皮书与技术文档。 如果想了解Quarch PAM的具体功能,请参考《PCIe5&6.0, CXL, NVMeNVMoF, SSD, NAND, DDR5, 800GE测试技术和工具白皮书_ver11.11》的chatper 4.3章节。同时请关注我们公众号,我们将在2025年春节后增加更多PCIe Gen6的全球业内最新的发展情况,推出《PCIe5&6.0, CXL, NVMeNVMoF, SSD, NAND, DDR5, 800GE测试技术和工具白皮书_ver12.0》。 如果你有其他任何关于PCIe5&6.0, CXL, NVMe, NAND, DDR5/LPDDR5以及UFS测试方面的问题想咨询,请添加 saniffer公众号留言,或致电021-50807071 / 13127856862,sales@saniffer.com。  
    2025-02-05 15:16:45
  • 【每日一物】PCIe Gen5 E3、U.2、M.2接口转接卡介绍

    在测试不同接口(E3、U.2、M.2)的SSD时,需要购买带有相应插槽的服务器。除去购买多种服务器,也可以通过相应转接卡,将不同接口的SSD转接为AIC插卡类型,直接利用主板/工作站的PCIe插槽进行测试,提高测试效率,降低测试成本。 此次分享Serial Cables公司生产的三种常用的PCIe 5.0 SSD转接卡,图文部分展示转接卡外观,简要介绍功能。视频部分演示了使用方法与使用结果。可根据需求选择观看。 1.Serial Cables PCI5-AD-x439-01V-U2(PCIe 5.0 x4 U.2转AIC) 介绍:这种转接卡可以将支持U.2接口的SSD转接为AIC插卡类型。许多企业级SSD,如三星的企业级SSD和凯侠的SSD,都可以通过这种转接卡插入主机的PCIe槽进行测试。 安装方法:将U.2接口的SSD插入转接卡,然后将转接卡插入PC或工作站的PCIe插槽。 2.Serial Cables PCI5-X8EDSFF-E3V-01(PCIe 5.0 x8 EDSFF转AIC) 介绍:这种转接卡将EDSFF(E3)接口的SSD转接为AIC插卡类型,允许在支持PCIe 5.0的主机上进行测试。 安装方法:将E3接口的SSD插入转接卡,再将转接卡插入PC或工作站的PCIe x8插槽进行测试。 说明:图例转接卡的bracket(也就是黑色部分)大小为E3.S,可以更换成E1.S、E1.L、E3.L来测试其他大小的EDSFF盘。 3.Serial Cables PCI5-AD-x4M2-04(PCIe Gen5 x4 M.2转AIC) 介绍:M.2转接卡可以将M.2接口的SSD转接为金手指插卡类型,插入PC或工作站的PCIe x16插槽进行测试。部分主机无M.2 Gen5插槽或仅有一个,可通过这种转接卡,使用PCIe Gen5插槽进行测试。 安装方法:将M.2 SSD插入转接卡,再将卡插入主机的PCIe Gen5插槽。 以下为视频部分: 今年最后一更,很幸运与诸位相遇,祝各位新朋友老朋友新年快乐,工作顺利,生活美满!我们会继续努力,为大家提供有价值的内容!大家明年见! 如果想了解更多Serial Cables PCIe转接卡,请参考《PCIe5&6.0, CXL, NVMeNVMoF, SSD, NAND, DDR5, 800GE测试技术和工具白皮书_ver11.11》的chatper 5.4章节。同时请关注我们公众号,我们将在2025年春节后增加更多PCIe Gen6的全球业内最新的发展情况,推出《PCIe5&6.0, CXL, NVMeNVMoF, SSD, NAND, DDR5, 800GE测试技术和工具白皮书_ver12.0》。 如果你有其他任何关于PCIe5&6.0, CXL, NVMe, NAND, DDR5/LPDDR5以及UFS测试方面的问题想咨询,请添加点击左下角“阅读原文”留言,或者saniffer公众号留言,致电021-50807071 / 13127856862,sales@saniffer.com。  
    2025-01-24 14:15:45
  • 【每日一物】如何实现PCIe插卡的热插拔

    插卡类待测设备在测试过程中若直连host端,热插拔可能会损坏主板、CPU等,只能通过频繁开关机更换待测硬件插卡,为了提高测试效率,有客户提出了是否可以对待测的插卡进行热插拔自动化测试的需求,故拍摄本视频,介绍我们的热插拔方案。本视频内容包括:1、如何使用PCIe Switch卡搭建热插拔环境,实现插卡类设备热插拔;2、PCIe Switch卡结构与各部分功能的讲解;3、热插拔环境搭建成本。 本方案可同时对1~8个Gen5 X4 device(根据实际情况而定)进行测试,研发测试和产线批量测试中均可使用,测试Gen5 X16或其他device可以通过更换线缆实现。以下是详细阐述: 在硬件测试过程中,尤其是大规模生产线的测试,频繁更换硬件设备,如无线网卡、显卡、GPU卡、RAID卡、FC HBA卡等,通常需要多次开机和关机。这不仅浪费时间,还可能导致设备磨损,特别是在使用台式机或服务器时,开关机的时间周期较长,影响测试效率。为了提高效率并减少设备损耗,热插拔技术应运而生。 例如,生产线上的测试人员如果需要测试多张不同的插卡设备,传统方法要求先插卡、开机、运行测试、关机,再更换卡片,整个过程繁琐且低效。使用热插拔技术后,测试人员可以带电插拔设备,避免频繁开关机,大大提高了生产测试的效率。 一、热插拔技术的实现原理 热插拔技术并非每个硬件设备都能直接支持,特别是插卡设备。未经设计的插卡如果带电插拔,可能会导致主板、CPU以及插卡本身的损坏。因此,热插拔技术需要通过硬件支持来实现,常见的实现方式为PCIe Switch卡。 PCIe Switch卡的作用 PCIe Switch卡是一种特殊的硬件设备,它能将多个设备连接到一个PCIe插槽,并支持在系统运行的情况下进行设备的热插拔。Switch卡通过对信号的隔离和转换,使得热插拔操作变得安全、可靠。 在实现热插拔时,Switch卡起到了信号转换和隔离的作用,确保即使设备被拔出或插入,主机依然可以正常工作。 延长线的使用 为了避免频繁插拔插槽带来的磨损,通常使用延长线来连接Switch卡和插卡设备。延长线的质量直接影响热插拔的稳定性,必须选择合适的延长线进行配合,确保信号传输的可靠性。 插卡操作流程 使用热插拔技术时,首先通过命令(如lspci)确认当前插入的设备。当更换设备时,插卡操作非常简单:拔出原设备,插入新设备,系统会立即识别新设备并进行相应的操作。   二、热插拔技术的应用场景 热插拔技术特别适用于以下几个场景: 生产线测试: 在生产线上,特别是对于需要高频测试的硬件设备(如网卡、显卡、GPU卡等),热插拔可以极大提升测试效率。测试人员可以在不关闭电源的情况下,通过热插拔快速更换设备,避免了长时间的开关机操作。 数据中心和服务器环境: 在数据中心中,许多服务器和存储设备的硬件配置需要频繁变动。通过使用热插拔技术,可以在不中断系统的情况下更换存储卡、网络卡等设备,保证系统的高可用性和业务的连续性。 硬件开发与验证: 在硬件研发和验证阶段,热插拔技术帮助开发人员更方便地测试不同版本的硬件设备,验证设备兼容性和性能,减少测试周期,提升研发效率。   三、热插拔技术的实现步骤 选择支持热插拔的主板和BIOS 并非所有的主板都支持热插拔功能。即便使用了PCIe Switch卡,如果主板的BIOS不支持热插拔,插卡操作依然可能失败。因此,选择支持热插拔的主板是实现这一技术的首要条件。 服务器主板一般支持热插拔,而工作站级的主板可能需要特别挑选,某些BIOS版本支持热插拔,某些则不支持。 安装PCIe Switch卡 将PCIe Switch卡安装在支持的PCIe插槽中,并将设备通过延长线连接到Switch卡上。这样,Switch卡就可以在带电的状态下进行设备更换,而不会影响到主机的正常运行。 配置延长线和供电 为了确保热插拔的顺利进行,必须使用合适的延长线。如果设备功耗较高,可能还需要额外的供电支持。例如,对于GPU卡,可能需要额外的四芯供电线。 操作和测试 通过lspci等命令工具确认当前插入的设备,进行设备更换。更换后,系统会自动识别新设备并开始测试,测试人员无需关机即可快速进行硬件测试。   四、热插拔技术的注意事项 硬件寿命和磨损 热插拔操作虽然方便,但频繁插拔设备可能会导致插槽的磨损,尤其是PCIe插槽的金手指部分。为了解决这一问题,建议使用延长线来避免直接插拔插槽,减少插槽的磨损。 信号质量 延长线的质量直接影响热插拔操作的稳定性。对于高频率的设备,必须选择信号传输质量较高的延长线,以确保设备的正常识别和稳定工作。 主板和BIOS的兼容性 如果主板的BIOS不支持热插拔,系统可能无法正确识别插拔后的设备。因此,选择支持热插拔的主板和BIOS至关重要。 设备功耗 高功耗设备(如GPU卡)需要额外的电源支持。在进行热插拔操作时,确保提供足够的电力支持,避免因供电不足导致设备无法正常工作。   如果想了解PCIe Switch卡的具体功能,请参考《PCIe5&6.0, CXL, NVMeNVMoF, SSD, NAND, DDR5, 800GE测试技术和工具白皮书_ver11.11》的chatper 5.1.1章节。同时请关注我们公众号,我们将在2025年春节后增加更多PCIe Gen6的全球业内最新的发展情况,推出《PCIe5&6.0, CXL, NVMeNVMoF, SSD, NAND, DDR5, 800GE测试技术和工具白皮书_ver12.0》。 如果你有其他任何关于PCIe5&6.0, CXL, NVMe, NAND, DDR5/LPDDR5以及UFS测试方面的问题想咨询,请添加点击左下角“阅读原文”留言,或者saniffer公众号留言,致电021-50807071 / 13127856862,sales@saniffer.com。      
    2025-01-22 09:46:05
  • 【每日一题】如何分析诊断笔记本M.2 SSD功耗以及进/出低功耗碰到的问题

    由于当前笔记本电池技术仍没有获得突破性技术进展,所以如何省电还是笔记本电脑当前的一个比较大的问题。PCIe M.2 NVMe SSD在笔记本上工作时会频繁进/出低功耗模式,也就是大家经常说的PCIe链路会进入L1.2 low power mode,当然对应的就是M.2 SSD本身会进入PS4模式。 M.2 SSD在进/出低功耗时候有时候会出现一些很难解决的问题,或者进入L1.2低功耗后的功耗水平达不到设计目标。我们今天的视频使用 Quarch公司Power Analysis Module(PAM)工具详细演示了进/出低功耗与CLKREQ#(Qlock Request)信号拉高/拉低的对应关系,通过Quarch Power Studio软件以图形化界面的方式为不熟悉这方面的朋友提供了一个非常直观的展示。 通过本视频以及演示讲解,你可以了解如下内容: 什么是PCIe链路的L1.2低功耗 M.2 SSD进/出低功耗究竟多频繁 出低功耗的时候在PCIe底层进行LTSSM初始化训练和协商的基本过程 进/出低功耗和CLKREQ#信号的具体对应关系 如何记录和回溯分析进/出低功耗的时间 M.2 SSD还有哪些sideband信号值得记录和分析   我们今天下午花了3个小时拍摄了本期视频并且处理添加了字幕供大家参考,参见下面的视频,记得如果想看高清视频一定要在电脑上打开本文底部的视频链接进行观看啊!如果你觉得这篇文章对你有帮助,也希望帮助到更多人,欢迎分享到朋友圈或者与朋友讨论! 本次演示展示了笔记本电脑中 M.2 SSD的低功耗状态(L1.2)进/出的详细过程,测试以业内常用的笔记本 ThinkPad X1 Carbon + M.2 SSD,通过Quarch PAM硬件工具和其管理软件相结合的方式,展示了如何进行功耗分析和进/出低功耗的问题诊断。以下为本次测试的步骤简介,具体可以直接参考本文底部视频。 一、测试目标 核心目标:    分析笔记本电脑中 M.2 SSD 的低功耗状态(L1.2)的行为与性能。 评估 SSD 的低功耗管理能力,为优化存储设备的功耗表现提供数据支持。 附加目标:    演示如何结合 PAM 模块与相关软件实现实时功耗数据捕获以及回溯分析。 二、测试设备与环境 测试设备: Quarch Power Analysis Module(PAM):      管理模块:核心测试工具,负责数据采集与传输。 治具:用于将 M.2 SSD 与测试设备连接。 测试笔记本:      设备:ThinkPad X1 Carbon(5-6年前老型号)。 特性:支持 PCIe Gen3 x4 接口的 M.2 SSD。 控制电脑:      安装了 Quarch Power Studio 软件,用于实时功耗数据监测与记录。 测试环境: 笔记本后盖已打开,便于连接测试治具和管理模块。 PAM 模块通过 USB 接口连接到控制电脑,形成完整的数据采集链路。 三、测试流程 设备准备: 打开测试笔记本的后盖,确认 M.2 SSD 正常安装并连接到测试治具。 将 PAM 模块与控制电脑通过 USB 接口连接,启动 Quarch Power Studio 软件。 软件配置: 启动 Power Studio 软件并选择对应的测试模板。 设置监控参数,包括电流、电压、功耗曲线和sideband的采样频率。 功耗测试: Windows启动后 M.2 SSD 即会自动进/出低功耗模式(L1.2)。 通过 PAM 管理模块实时采集功耗数据,监控 L1.2 的功耗变化。 记录设备在不同负载条件下的功耗表现,捕获异常行为。 数据分析: 利用 Power Studio 软件提供的曲线和日志功能,分析低功耗模式的功耗曲线。 比较实际数据与预期功耗指标,识别潜在问题。   四、测试结果与分析 功耗表现: L1.2 模式下,M.2 SSD 的功耗显著降低,达到预期的低功耗水平。 数据传输过程中,功耗有短暂波动,表明 SSD 的电源管理机制正常工作。 异常检测: 在某些负载条件下,发现功耗曲线有异常峰值,可能与硬件兼容性或驱动程序有关。 兼容性验证: 测试表明,尽管测试笔记本为旧型号,但 M.2 SSD 能与 PCIe Gen3 x4 接口良好兼容,支持 L1.2 低功耗模式。 五、技术总结与建议 PAM 模块的优势: 提供了高精度的实时功耗监控能力。 操作简单、适配性强,适合各种存储设备测试。 改进建议: 针对检测到的功耗峰值异常,可进一步优化 SSD 的固件或驱动。 测试更多样化的负载场景,以评估 L1.2 模式的稳定性。 对存储设备开发的意义: 通过功耗测试,可以显著提升 SSD 的功耗性能,满足现代设备对低能耗的需求。 验证设备兼容性,为旧设备的存储升级提供数据支持。 六、结论 通过本次测试与分析,成功展示了使用 Quarch Power Analysis Module(PAM) 对 M.2 SSD 的低功耗状态(L1.2)进行测试的完整流程。测试结果表明,PAM 模块是存储设备功耗分析的强大工具,能够为存储设备的优化和兼容性验证提供宝贵的数据支持。 如果想了解Quarch PAM的具体功能,请参考《PCIe5&6.0, CXL, NVMeNVMoF, SSD, NAND, DDR5, 800GE测试技术和工具白皮书_ver11.11》的chatper 4.3章节。同时请关注我们公众号,我们将在2025年春节后增加更多PCIe Gen6的全球业内最新的发展情况,推出《PCIe5&6.0, CXL, NVMeNVMoF, SSD, NAND, DDR5, 800GE测试技术和工具白皮书_ver12.0》。 如果你有其他任何关于PCIe5&6.0, CXL, NVMe, NAND, DDR5/LPDDR5以及UFS测试方面的问题想咨询,请添加saniffer公众号留言,或致电021-50807071 / 13127856862,sales@saniffer.com。  
    2025-01-17 09:42:59
  • 全球业内PCIe Gen6目前互联互通碰到的问题总结

    参考《PCIe5&6.0, CXL, NVMeNVMoF, SSD, NAND, DDR5, 800GE测试技术和工具白皮书》chapter 2.1.1 PCIe协议发展的历史,PCIe Gen6已经正式发布3年了! "2022年1月11日,PCI-SIG官方正式发布了PCIe 6.0规范,PCIe 6.0采用了和之前全然不同的编码格式,即PAM4 FEC编码格式,这个和之前PCIe Gen 1~5采用NRZ编码格式有了很大的不同,同时也对于Gen6产品的实现带来相当大的挑战。" 目前全球业内PCIe Gen6的产品(大多是是test chip)之间的互联到底怎么样呢?以下是结合我们和业内的紧密关系看到的关于PCIe Gen6产品互联互通中RC(Root Complex)连接EP(Endpoint)碰到的各种问题的一个综合图景: 当前行业PCIe Gen6互联互通现状 根据2024年10月份的PCIe 6.x Preliminary FYI Workshop内部反馈以及我们了解的厂商之间的互联互通情况,PCIe Gen6的物理层和协议层测试尚处于逐步成熟的阶段。虽然业界对64 GT/s高速链路的支持已有初步成果,但互联互通测试仍然暴露出一系列问题(为了信息保护,下面的公司名称采用代码),特别是在以下几个关键领域: 1. 高速链路建立问题 链接可靠性差:在X个测试设备中,仅有Y个能够成功建立64 GT/s链路,其中只有Z个设备能偶尔达到“完全干净”的链路状态。 链路恢复问题:多次出现链路进入恢复模式(Recovery)的情况。例如,M公司和S公司设备都表现出NAK(Negative     Acknowledgment)问题,导致链路频繁断开重连。 预编码(pre-coding)影响:部分设备在启用或禁用预编码(pre-coding)时表现出不同的链路稳定性,但预编码(pre-coding)的具体影响机制尚未完全明确。 2. 设备兼容性与行为差异 兼容性不足:部分设备因预编码(pre-coding)问题无法正常工作。M2公司和S公司设备对测试链路的反馈表现出明显差异。 行为异常:某些设备在非FLIT模式下表现出特定行为问题,例如错误的TLP(Transaction Layer Packet)捕获和异常的测试行为。 3. 协议层与物理层的协作挑战 速度变化问题:测试中发现从高速向低速切换存在问题,可能导致设备锁死或数据丢失。 信号完整性挑战:设备在更高速率下(如64 GT/s)对信号质量的需求增加,RX均衡(Receiver Equalization)的优化尚未完全解决。 互联互通面临的具体问题与改进方向 物理层挑战 信号干扰:某些设备的硬件规格超出PCI SIG标准(例如,金属覆盖范围不当),影响互联。 信号捕获优化:某些协议分析工具在某些情况下无法正确捕获TLP,尤其是在高性能模式下。 协议层问题 数据包丢失:FLIT模式中,当TLP处于FLIT中间时,部分数据包未能成功传递。 NAK问题:某些设备反复发送NAK信号,可能由于协议实现或设备固件中的缺陷。 测试工具改进 预编码(pre-coding)支持:需要完善TX和RX端的预编码(pre-coding)实现,确保设备能自动适配。 测试方案扩展:引入更全面的合规性测试,尤其是在更高带宽和多链路通道(如x4)场景下。 当前解决方案与行业趋势 与设备厂商协作 建议进一步深入设备厂商(如M公司、M2公司)之间的联合调试,优化问题诊断。 推动厂商在更复杂的使用场景下测试其产品,例如跨多根通道的稳定性。 合规性测试的逐步推进 尽早通过更多FYI Workshop对设备进行互联互通验证,逐步接近正式的Gen6合规性认证测试。 未来展望 PCIe Gen6作为一项高性能互联技术,尽管初期测试表现出许多问题,但业界对其高速率、低延迟的潜力充满信心。通过进一步改进测试方法、加强厂商协作,以及在协议实现上增加Robustness,PCIe Gen6的全面普及很快就会到来。 感兴趣的朋友也可以多多关注我们频道,了解业内领先的SerialTek PCIe Gen6协议分析仪,训练器,兼容性测试套件,以及SanBlaze, SerialCables, Quarch等公司推出的测试PCIe Gen6和CXL 3.X的测试工具。 最后,如果你有其他任何关于PCIe5&6.0, CXL, NVMe/NVMoF, NAND, DDR5/LPDDR5以及UFS测试方面的问题想咨询,请添加saniffer公众号留言,或致电021-50807071 / 13127856862,sales@saniffer.com。  
    2025-01-13 10:25:50
  • 【高清视频】如何通过协议分析仪进行CXL底层延迟分析

    我们最近针对CXL协议交流的时候,不少用户非常关心CXL transaction的响应延迟。我们今天的大概7min的视频通过一个真实的CXL内存扩展模块实例详细讲述了如何通过抓取PCIe链路上的CXL交互来诊断延迟相关信息,具体参见底部视频。 如果你觉得这篇文章对你有帮助,也希望帮助到更多人,欢迎分享到朋友圈或者与朋友讨论!我们组织这些文章,准备图片和视频素材,不论自己搭建环境拍摄视频,还是找寻一些第三方优秀视频,外加做中英文翻译、校对、添加字幕文件方便各位观看,这些都花费很多时间。 CXL延迟测试分析总结 1. 测试环境与数据概述 本次延迟测试是在2024年4月进行的,使用了一台X86架构的服务器,并搭载了业内一款CXL 2.0 EDSFF Gen5 X8内存扩展模块。测试数据通过插卡接口转换,采用了专用的SerialTek PCIe/CXL协议分析仪进行数据抓取。抓取的数据量为11.34GB,包含了CXL和PCIe协议的相关信息。 2. 数据捕获与分析工具 数据是通过CXL内存扩展模块转接至插卡,通过中间的interposer实现与分析仪的连接。这一过程能够精准捕获所有数据包,并通过时间轴对CXL和PCIe协议的传输进行细致分析。 3. 数据分析与延迟测量 在数据分析过程中,时间轴的视图帮助我们直观展示了从CPU到CXL内存扩展模块的数据传输过程。测试中,CXL 2.0协议的延迟被详细记录,包括了多种类型的事务,如Master to Slave、Request memory和Request memory read等。 CXL延迟分析: CXL延迟分为多个部分,其中最为关注的是从Master到Slave的请求和数据读写的延迟。 各项延迟统计显示,最短的延迟为205纳秒,而最长的则为866纳秒。这表明在此工程样品中,延迟波动较大,可能与实验条件和硬件版本有关。 4. 延迟分布与异常情况 通过统计数据,延迟的分布可分为多个区间: 最快延迟:大约在205纳秒左右。 最慢延迟:最高可达866纳秒。 延迟分布:大多数请求的延迟都集中在212纳秒到214纳秒之间。整个数据集的平均延迟为213纳秒。 此外,测试中还记录了部分请求失败的情况。失败的请求与较长的延迟周期存在一定的相关性,这些异常情况在工程样品中较为常见。 5. 详细的延迟数据查看与操作 在分析过程中,用户可以利用工具对每个数据包进行精确放大查看。通过放大视图,可以查看每一笔事务的具体延迟时间,从而了解不同数据传输的具体延迟。例如,某些事务的延迟最高可达到360纳秒,这些事务通常会被标记为异常。 6. 总结与结论 CXL延迟的总体情况: 在测试过程中,CXL协议的延迟大致在205纳秒到866纳秒之间,大多数情况下延迟集中在212纳秒到214纳秒之间。 该测试使用的工程样品存在一定的失败率,尤其在请求阶段,导致了部分事务的延迟增加。 硬件样品的性能问题: 由于该硬件属于工程样品,测试结果中出现了一些未能成功执行的请求,可能与样品的稳定性有关。 如果是正常生产的硬件,延迟和请求失败的情况应该会有所改善。 数据的可视化与操作: 通过时间轴和数据包的详细展示,测试人员可以直观地查看每个数据包的延迟,并对异常的请求进行定位和分析。这种方式使得CXL延迟的分析更加精确和清晰。 总之,这次测试提供了CXL协议在实际使用中的延迟表现,并展示了不同类型事务的延迟波动情况。对于优化CXL硬件及其性能,这些数据提供了宝贵的参考。 最后,如果你有其他任何关于PCIe5&6.0, CXL, NVMe/NVMoF, NAND, DDR5/LPDDR5以及UFS测试方面的问题想咨询,请添加saniffer公众号留言,或致电021-50807071 / 13127856862,sales@saniffer.com。  
    2025-01-10 10:20:39
  • Microchip企业级NVMe SSD是如何测试后端NAND特性的?

    我们今天谈谈业内的Microchip是如何测试它的NVMe SSD后端NAND特性。我们知道前些年业内企业级eSSD常用的美国的企业级SSD controller一个是Marvell,另外一个就是Microchip。我们今天不谈论谁的方案优劣,以及中美因素的影响和后续替代,我们主要通过一篇文章来看看Micrchip是如何测试NAND特性的。 首先,我们来看看Microchip公司的NVMe SSD controller是一步一步怎么来的。 其实,最早的IDT(Integrated Device Technology)的 NVMe SSD 控制器部门经历了一系列收购整合,才最终发展成为今天 Microchip 的 eSSD 控制器部门。以下是主要发展路径的简单总结: 1. IDT 的 NVMe SSD 控制器部门 IDT 以其 NVMe SSD 控制器技术闻名,是早期推动 NVMe 协议发展的重要厂商之一。 产品主要用于企业级和数据中心 SSD 市场,提供高性能、低延迟的解决方案。 2. 被 PMC-Sierra 收购(2015 年) 在 2015 年,PMC-Sierra 以约 1亿美元 的价格收购了 IDT 的 NVMe SSD 控制器部门。 目的:强化其企业存储解决方案,特别是面向 NVMe 的 SSD 控制器技术。 PMC-Sierra 计划通过整合 IDT 技术,扩展其在存储市场的竞争力。 3. PMC-Sierra 被Microsemi 收购(2016 年) 在 2016 年,Microsemi 以约 25亿美元 的价格收购了 PMC-Sierra。 整合方向:Microsemi 将 PMC-Sierra 的企业存储产品线,包括 NVMe SSD 控制器,纳入其更广泛的高性能存储与通信解决方案组合中。 4. Microsemi 被Microchip 收购(2018 年) 2018 年,Microchip Technology 以 83亿美元 收购 Microsemi。 最终整合:Microchip 接管了 Microsemi 的所有业务,包括 NVMe SSD 控制器技术。 在收购整合后,Microchip 继续开发和销售企业级 SSD 控制器,将其作为其嵌入式存储解决方案的一部分,进一步推动 eSSD 控制器的研发。 5. 今天的 Microchip eSSD Controller Microchip 的企业 SSD 控制器部门继承了 IDT 的 NVMe SSD 控制器技术基础。 当前,Microchip 提供一系列高性能 eSSD 控制器解决方案,广泛应用于企业存储和数据中心市场。 简单总结 IDT 的 NVMe SSD 控制器技术在被 PMC-Sierra 收购后,经历了 Microsemi 和 Microchip 的两次整合,最终成为 Microchip 企业级存储产品线的重要组成部分。这一路径反映了行业内存储技术整合的大趋势以及高性能 SSD 控制器的重要战略地位。 下面,我们来看看Microchip如何测试NAND特性。很多人不知道的是,Microchip作为一家美国公司,其实它的NAND特性测试部门因为历史等各方面的原因主要是在意大利研发中心进行。 Microchip的NAND特性测试从开始就采用了意大利NplusT公司的NanoCycler针对NAND特性测试的自动化工具,对于NAND特性进行各种各样的研究和测试。我们今天结合前几年Microchip发表的一篇文章《3D NAND Flash 中Program Suspend操作对固态硬盘的影响评估》来看看他们是如何测试的,NanoCycler测试工具的具体功能可以从我们之前发表的白皮书的第7章节获得详细解释。需要参考原文的,请到下面的地址下载: 《Assessing the Role of Program Suspend Operation in 3D NAND Flash Based Solid State Drives》下载链接:  https://pan.baidu.com/s/1lsuaRuDKaiVaY4DyOcOllg?pwd=snue  《PCIe5&6.0, CXL, NVMeNVMoF, SSD, NAND, DDR5, 800GE测试技术和工具白皮书_ver11.11》下载链接(参考Chapter 7.1&7.2章节):  https://pan.baidu.com/s/1gE2mazNvu92E3zzhzJMqKA?pwd=fguh 下面是针对该文章的一个简单总结。 3D NAND Flash 中Program Suspend操作对固态硬盘的影响评估 本报告评估了3D NAND Flash存储器中Program Suspend操作在企业级固态硬盘(SSD)上的应用潜力,通过实验测试和系统级模拟分析,探讨其对性能、可靠性和功耗的影响。 研究背景 3D NAND Flash SSD 优势:作为高密度存储介质,3D     NAND Flash 提供了低延迟、高吞吐量、较低总拥有成本(TCO)和高可靠性,是企业级存储首选。 性能瓶颈:写入(编程)操作较读取操作延迟更长(典型延迟为12 ms vs 75100 µs)。在高负载场景下,写入延迟对读取性能的影响显著。 Program Suspend的需求:为缩短读取延迟并提高服务质量(QoS),提出在写入过程中挂起当前操作,优先服务读取请求。 研究方法 电气特性实验:在低于100层的TLC 3D NAND Flash芯片上测试Program Suspend的时间特性(如挂起进入时间tEPS)和可靠性(原始位错误率RBER)。 系统模拟:利用SSDExplorer平台对包含Program Suspend功能的SSD进行设计空间探索,考察其在不同读取/写入工作负载下的带宽、延迟和功耗表现。 主要发现 Program Suspend的特性: 挂起操作通过暂停增量脉冲编程(ISPP)算法,允许处理读取请求后再恢复写入。 tEPS约为编程时间(tPGM)的3%~4%,挂起次数越多,写入总延迟越高。 对SSD性能的影响: 带宽提升:挂起操作可增加SSD在高读取比重负载下的带宽,最多提升113k IOPS。 延迟降低:平均延迟减少97 µs,99.99% QoS延迟改善1.03 ms,尤以高队列深度(QD=64)和高读取比例工作负载中最为显著。 可靠性和功耗: 可靠性:挂起对目标块和非目标块的RBER影响微弱,未显著影响数据可靠性。 功耗增加:由于更多操作被处理,SSD内存子系统的功耗上升最多400 mW,内部I/O总线功耗增加最多17 mW。 限制与优化: 需要在挂起次数与功耗之间进行权衡。 在高写入负载场景中,挂起操作对功耗可能具有抑制作用(通过减少并行编程芯片数量)。 测试结论 Program Suspend是优化3D NAND Flash SSD读取延迟和提高QoS的有效手段,但其实现需综合考虑性能与功耗间的平衡,适用于以读取为主的高性能存储场景。 如果你有其他任何关于PCIe5&6.0, CXL, NVMe/NVMoF, NAND, DDR5/LPDDR5以及UFS测试方面的问题想咨询,或者想获得《PCIe5&6.0, CXL, NVMeNVMoF, SSD, NAND, DDR5, 800GE测试技术和工具白皮书_ver11.11》请添加saniffer公众号留言,或致电021-50807071 / 13127856862,sales@saniffer.com。  
    2024-12-17 15:06:53
  • 1
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 17
    • 电话:(021)5080-7071; 131-2785-6862

      在这里输入描述
    • www.saniffer.cn

      在这里输入描述
    • 邮箱:sales@saniffer.com

      在这里输入描述
    • 地址:上海市浦东新区秋月路26号矽岸国际1号楼

      在这里输入描述

    关注微信公众号

    上海森弗信息技术有限公司 备案号:沪ICP备2024076352号-1

    版权所有 © 上海森弗信息技术有限公司 技术支持:竹子建站