引言
随着全球计算架构加速向AI、大数据与高性能应用演进,存储芯片正从系统边缘走向架构核心。传统由摩尔定律主导的技术演进路径正趋于放缓,而数据生成规模、处理复杂性与能源效率之间的张力日益突出,推动产业重新审视存储在系统设计中的战略地位。Micron在本报告中系统回顾了存储技术的演化脉络,深入剖析DRAM、NAND与新兴存储技术的发展瓶颈,并提出以“全栈协同创新”“异构集成”与“记忆体为中心的系统架构”为支撑的未来路径。报告强调,唯有突破材料、器件、封装、架构与软件之间的孤岛,才能真正构建面向下一代智能计算需求的高效、可扩展存储基础设施。
以下是对报告内容的梳理总结——————————————
一、全球存储芯片发展趋势总览
1.1 存储芯片在全球半导体中的地位演进
近年来,存储芯片在全球半导体芯片总产量中的占比持续上升。根据Micron展示的数据,从2010年到2019年,存储类芯片的晶体管数量相较非存储芯片展现出更快速的增长趋势。这一现象反映出,存储正逐步成为数据驱动时代中最关键的计算基础设施,其在整个半导体生态中的地位不断提升。
1.2 Moore定律放缓与存储技术的独立演进路径
传统的Moore定律正逐步放缓,其在性能上的收益大幅减弱。例如,CISC架构下CPU性能提升周期已由过去的1.5年延长至6年甚至更久。这种趋势导致了从通用计算向域专用架构(DSA)转变的加速,而DSA对内存和带宽提出更高要求。存储技术因而走出独立演进路径,从依附于逻辑器件转变为引领系统架构变革的关键要素,强调“More than Moore”的重要性。
1.3 存储市场成本趋势:DRAM与NAND的长期演化
DRAM与NAND的单位成本在过去几十年中持续下降,年均成本下降幅度分别达到约40%和30%。这种趋势背后依赖的是材料、电气设计和设备能力的不断演进。然而,当前存储技术已逐步逼近物理与材料的边界。新一代制造过程中的复杂性提升(例如高深宽比刻蚀、应力控制与接触电阻优化等)使得成本下降速度趋缓,传统线性微缩带来的规模经济优势正在减弱。
1.4 AI、大数据等应用对存储需求的驱动
随着移动设备、医疗系统、汽车电子与大数据基础设施的普及,人类对数据生成与处理的依赖持续加深。报告指出,每日新增数据量已达2.5 quintillion bytes。在此背景下,主流移动设备的内存容量由2010年的1GB跃升至2020年的16GB,存储容量从16GB提升至1TB。AI应用的复杂性增长速度远超Moore定律,已成为存储性能和能效提升的主要驱动因素。
1.5 芯片类型结构变迁:存储类芯片份额快速上升
全球芯片结构正在发生根本变化。Micron提供的数据显示,2010年至2019年间,存储类芯片在全部晶体管数量中所占比例不断扩大。这种结构性演化不仅源于数据中心和移动设备对容量的追求,更反映了AI、大模型训练和边缘计算等新兴场景对存储密度、带宽和功耗提出的更高要求。存储芯片不再是被动配角,而是构建现代计算系统架构的核心资源。
二、技术挑战与性能瓶颈剖析
2.1 成本、功耗与带宽的多重约束
存储芯片技术的演进不仅面临制造成本的上升,还必须应对功耗与带宽的三重挑战。AI及高性能计算场景要求系统在单位能耗下实现更高的带宽和吞吐能力,传统架构逐渐暴露出“性能-功耗-成本”不可兼得的矛盾。例如,在AI模型中,能耗与带宽之间的关系日益紧张,推动存储系统在架构和物理设计上进行重构。
2.2 DRAM与NAND面临的共性技术瓶颈
Micron指出,尽管DRAM与NAND在结构和应用层面存在差异,但其在材料、工艺和器件工程方面的挑战却高度趋同。主要瓶颈包括:
- 高深宽比结构的刻蚀(HAR Etch)与无应力间隙填充(Stress-Free Gapfill);
- 单元一致性控制与RC延迟管理;
- 接触电阻的控制与材料建模;
- 多层堆叠中均匀性和互连可靠性问题;
这些因素共同制约了未来存储技术的规模扩展、可靠性和成本下降能力。
2.3 图形化与设备能力的极限逼近
下一代图形化(Next-Gen Patterning)工艺成为决定存储芯片演进速度的关键变量。报告提及,当前材料和设备在分辨率、一致性与大面积图形处理能力方面已接近极限。存储行业所需的精细结构制造要求远超一般逻辑芯片,特别是在多层结构、极窄线宽、精密对准方面,对光刻、刻蚀与沉积设备能力提出了前所未有的挑战。
2.4 存储微缩的物理边界接近
随着DRAM与NAND节点不断推进,单位面积上的容量增益面临边际递减的问题。例如,DRAM微缩已临近“3D转折点”(3D Inflection Point),具体路径仍具高度专有性;NAND虽已进入3D堆叠阶段,但在进一步增加层数的同时,其性能、能效与成本的均衡正在成为ROI(投资回报)制约的重要因素。Micron指出,未来微缩路径需权衡技术可行性与经济性。
2.5 存储系统级性能瓶颈与“内存墙”
传统存储架构仍依赖CPU与内存之间的数据搬移,而Von Neumann架构下“内存墙”问题已成为性能提升的主要障碍。Micron强调,未来存储架构需向近内存计算(Near-Memory Compute)、内存中计算(In-Memory Compute)等范式迁移,以降低数据搬移所带来的能耗和延迟。这一趋势要求从材料、器件、系统架构到软件栈进行全栈协同创新。
三、AI时代的存储架构重构
3.1 领先AI模型的计算复杂性加速超越Moore定律
随着大模型的发展,AI工作负载的计算复杂性增长速度已远超Moore定律的演进速率。Micron引用数据显示,AI模型复杂度以约8倍的速率超出传统工艺进步。这种非线性增长推动存储系统必须适配更高带宽、更低延迟和更优能耗比的运行环境,传统计算架构在带宽与能耗之间的矛盾日益凸显。
3.2 高性能AI系统对内存提出极致要求
AI推理和训练过程中,大量参数的实时读写操作对存储系统提出了前所未有的性能挑战。AI系统亟需大容量、低延迟、高带宽的内存子系统。报告指出,内存的性能已成为影响AI加速器整体效率的关键变量,而存储功耗成为主导系统总能耗的瓶颈因素。
3.3 域专用架构(DSA)引发存储角色的范式转变
传统通用计算平台在面对AI负载时效率低下,推动计算系统向“域专用架构”(Domain-Specific Architectures, DSA)演进。Micron指出,DSA架构通常具备以下特点:
- 并行性显著提升;
- 降低冗余逻辑开销;
- 重写算法以匹配特定数据流;
- 架构对存储系统高度依赖,需更高存储带宽支持。
例如,Google TPU v4 就通过优化存储带宽与数据流,实现大规模模型高效运算。
3.4 深度学习加速器中的存储设计革新
为提升AI训练与推理效率,深度学习加速器在存储方面采取多维创新:
- 架构上采用HBM、IMC/NMC、计算型存储等多种集成形态,以优化单位带宽下的能耗;
- 在存储层次结构中增加高带宽、低延迟层,显著提升近存储数据访问效率;
- 推动In/Near-Memory Compute机制,以更小能耗实现PB/s级数据吞吐。
这些创新正重构AI芯片的基础系统架构。
3.5 从计算驱动转向数据驱动的系统范式迁移
报告强调,AI时代系统架构正从以计算为核心向以数据为核心转变。未来系统的性能瓶颈更多来自数据的搬移与访问,而非计算单元本身。这一趋势要求重新设计:
- 系统数据流路径;
- 存储与计算的空间耦合方式;
- 内存分层与存储策略;
- 支持数据感知调度的软硬件协同框架。
Micron提出,内存应从“资源”转化为“架构核心”,构建真正的Memory-Centric系统。
四、新型存储技术展望与比较
4.1 主流新型存储技术分类与物理机制演化
Micron指出,当前行业已开展多种替代性存储技术的研究,主要分为“移动原子”机制与“移动自旋”机制两大类:
- 移动原子类(Moving Atoms):包括相变存储(PCM)、电化学存储(CBRAM)、阻变存储(RRAM)与铁电存储(FeRAM)等;
- 移动自旋类(Moving Spins):涵盖磁阻式存储(MRAM、STTRAM)、自旋轨道存储(Racetrack)等。
此外,碳纳米管(CNT)、分子级器件等前沿材料也正在成为新一轮技术探索重点。这些新型技术已在过去10~20年内形成了产业与学术界的广泛关注与初步验证。
4.2 不同存储技术在关键指标上的性能对比
报告提供了主流存储介质在多项关键指标下的横向比较,包括读写延迟、能耗、耐久性、数据保持能力与密度等:
| 指标 | DRAM | STTRAM | PCM / 1T1R RRAM | Cross-point RRAM | NAND |
| 读延迟 | 20ns | 50ns | 100–200ns | 100–200ns | ~10μs |
| 写延迟 | 20ns | 50ns | 1μs | 1μs | ~10μs |
| 写耐久 | >1e15 | >1e11 | >1e6 | >1e6 | 2K–100K |
| 能耗/bit | <10pJ | ~25pJ | ~75pJ | ~75pJ | >100pJ |
| 数据保持 | 毫秒级 | 月 | 年 | 年 | 年 |
| 面积密度 | 1x | ~30x | 中等 | 中等 | 高 |
该比较显示,尽管新型存储在能耗与非易失性方面表现优越,但在写延迟、写耐久性及密度方面仍难以全面取代现有DRAM与NAND。
4.3 新型存储的层级定位:增强而非替代
报告明确指出,当前阶段的大多数新兴存储技术并不具备直接取代DRAM或NAND的能力,而更适合用于在存储体系结构中进行“补位”与增强。DRAM仍是唯一在性能、密度与能耗三方面取得较好平衡的近SOC内存解决方案;NAND则是唯一在单位比特成本与能耗方面达到大规模应用标准的存储介质。
Emerging Memories的现实路径更可能是作为缓存、层级补充、近存储计算支撑存在,而非推翻原有存储体系。
4.4 面向特定应用场景的结构化部署可能性
在静态数据占主导的存储场景中,计算型存储(Computational Storage)展现出极高的能效与结构优化潜力。在低延迟高能效计算任务中,In-/Near-Memory Compute 与模拟计算加速器(Analog Accelerators)成为值得重点关注的技术方向。它们共同指向一种趋势:通过与特定架构深度绑定,实现更高的性能/能耗比优化。
4.5 材料维度的研究成为核心突破口
Micron指出,未来的突破不再依赖对元素周期表的穷尽性筛选,而是转向从新型物理机制与非平衡态量子现象中挖掘材料潜力。这包括但不限于:
- 亚纳米结构控制;
- 强量子效应激发;
- 新型态变量驱动的器件物理;
- 面向可集成、可扩展的二维材料沉积能力开发。
这一战略转向预示未来存储技术将更加依赖材料物理、器件工程与系统架构的跨学科融合创新。
五、先进封装与异构集成的关键作用
5.1 存储与计算的异构集成:打破传统芯片边界
Micron在报告中强调,异构集成(Heterogeneous Integration)已成为AI和高性能计算(HPC)系统的核心推进路径,尤其是在存储与计算功能耦合日益紧密的背景下。通过将逻辑芯片与存储阵列在结构上协同集成,可实现更高带宽、更小面积以及更优能效比的系统设计,进而突破传统封装的性能瓶颈。
5.2 晶圆对晶圆(Wafer-to-Wafer, W2W)键合技术突破
Micron正在推进一种颠覆性的晶圆对晶圆(W2W)键合工艺,其关键在于实现亚50nm精度的高密度互连,满足存储阵列与CMOS逻辑之间对带宽和面积的极致要求。
该技术具备以下核心特征:
- 支持存储单元与逻辑单元的高精度对位键合;
- 允许进行垂直互连结构堆叠,提高存储密度与通道数量;
- 通过CMOS与存储共设计(co-design)实现功能结构紧耦合;
- 已进入产品路径(product roadmap)并具备市场落地基础。
报告特别指出,W2W工艺对设备精度、晶圆应力控制、在片平整度等提出前所未有的挑战,每10nm形貌误差就可能引发1nm级别的对准损失。
5.3 高密度互连:支撑高带宽与能效提升
实现晶圆级堆叠的关键之一在于细间距互连(Fine Pitch Interconnect)能力。这一互连方案需配合:
- 晶片对晶片(Chip-to-Wafer, C2W)与晶片对基板(Chip-on-Substrate)混合键合技术;
- 微通孔(TSV)和背面金属互连(Backside Metals);
- 多相互连路径的精确设计与堆叠优化。
通过这种高密度互连,系统可以在最小面积与最低功耗下实现最大数据吞吐,支撑AI/HPC等极端带宽需求应用。
5.4 封装路径演进:从实验验证走向量产
Micron制定的先进封装路径从前期原型(prototype)验证走向大规模生产(volume production),涵盖:
- 晶片级封装(Chip-on-Wafer)以实现单元集成;
- 晶圆级封装(Wafer-to-Wafer)以实现结构复合;
- 封装-测试一体化路径(Pathfinding to Yield Enablement)以加快技术落地。
通过在芯粒、逻辑、热管理结构(如硅热沉)上的协同集成,Micron正构建完整的存储-计算系统基础模块。
5.5 AI/HPC应用对封装架构提出极致挑战
AI与高性能计算系统正推动封装技术向更高带宽、更低延迟、更优热管理能力进化。报告指出,未来的封装不仅是连接器件的介质,更是构成系统架构的关键组织结构,其创新程度将直接决定系统级性能边界。
为此,Micron正在围绕以下方向构建完整的集成创新体系:
- 存储堆栈与逻辑芯片的垂直整合;
- 热管理结构与互连路径协同设计;
- 支撑模拟/近存/计算型存储等新范式的封装平台。
六、面向未来的系统级协同与开发框架
6.1 构建记忆体为中心的计算范式(Memory-Centric Compute)
Micron在报告中明确指出,随着Von Neumann架构在性能与能效上遭遇瓶颈,产业正迈向以内存为中心的计算架构重构。其核心在于将计算任务尽可能靠近数据发生处,从而降低数据搬移开销,提升系统整体效率。
未来的系统架构转向需满足以下关键要求:
- 100倍以上带宽提升的架构与算法支撑;
- 支持内存优先(memory-first)编程模型;
- 建立便于开发者使用的新型工具链与框架;
- 识别并匹配最优执行路径的系统调度机制;
- 在功耗控制下实现PB/s级别带宽。
6.2 全栈协同设计:从材料物理到系统软件
Micron构建了以“全栈协同创新”为核心的技术推进体系,覆盖从物理材料、器件建模、架构设计到软件层协同调度,具体路径包括:
- 打通新材料 → 物理属性 → 器件行为 → 存储阵列结构 → 系统架构的上下游逻辑;
- 在原型阶段实现逻辑与内存结构的协同设计(memory/logic bonding prototype);
- 搭建支持数据中心规模的存储原型验证平台;
- 推动集成电路从以计算为主转向以存储为核心的架构定义路径。
6.3 存储工作负载建模与软件优化协同
为了推动新型内存与系统架构的实用化落地,Micron强调需对真实应用场景下的内存访问行为进行细致建模,并针对不同存储层级进行软件栈优化。报告指出,未来系统需要引入:
- 支持内存分级调度的分层架构;
- 池化存储与池化内存的灵活调度方案;
- 面向AI加速器与计算存储单元的异构资源调度框架;
- 存储/计算一体化的测试平台与协同调优机制。
通过产业协作深化内存使用模型理解,是实现下一代存储系统演进的关键基础。
6.4 自适应与安全导向的EDA基础设施革新
未来系统将要求高度智能、自适应的设计方法。Micron提出,在EDA基础设施方面需构建以下能力:
- 面向逻辑–内存–软件联合建模的层级仿真平台;
- 自动化系统级验证机制,支持自调优、自适应与自愈能力;
- 高可扩展的EDA框架,满足大规模AI优化运行环境;
- 全生命周期视角的安全导向架构设计。
这一框架将实现硬件与软件的深度融合,并赋能新一代系统在可靠性、安全性与可维护性方面实现跃升。
6.5 推动异构计算体系结构演进
异构计算正成为未来主流系统范式。Micron在报告中展望了通过直接耦合存储、计算与加速器资源,实现如下目标:
- 支持近存、内存中计算(Near/In-Memory Compute)架构;
- 集成**计算型存储(Computational Storage)**以处理静态大数据;
- 利用芯片级互连与TSV技术实现资源池化部署;
- 构建统一编程与调度平台,支持复杂系统资源高效调用;
- 推进可扩展、高弹性的系统级内存层次架构。
报告中展示了典型的未来形态:通过Memory-Centric Accelerator与Pooled Memory、Pooled Storage架构,实现存储、计算与调度资源的动态联合。
七、结语:迈向下一代存储范式的战略思考
7.1 存储的角色正在发生根本性重构
Micron在报告结尾明确指出,未来的计算系统正在由“计算驱动”转向“数据驱动”,而存储不再只是支撑计算的配角,而是成为系统架构设计的起点与核心资源。这一变化意味着:
- 存储架构将直接决定系统的带宽、能效与可扩展性;
- 存储资源调度将成为AI等关键应用场景中的性能瓶颈突破口;
- 存储系统的设计将从底层材料直达上层算法,影响整个技术栈。
7.2 全栈创新是突破“后摩尔时代”限制的核心策略
传统依赖摩尔定律的微缩红利已经大幅放缓,系统能效的提升不再依赖单一工艺演进,而必须通过材料、器件、架构与软件的全栈协同创新来实现。Micron提出:“只有将研究与试产、结构与软件、硬件与算法紧密融合,才能真正推动产业跨越‘死亡谷’(Valley of Death)”。
7.3 面向应用的异构融合是演进的必由之路
未来的系统形态将呈现出高度异构特征——逻辑、存储、加速、模拟计算等多种能力协同并存。为此,需构建:
- 支持“存储+计算”紧耦合的异构封装体系;
- 基于数据流优化的系统架构与执行引擎;
- 面向应用的、动态调度的统一资源池机制。
这类系统不仅更能匹配AI、大数据、自动驾驶等高带宽应用,也能推动整个产业向更高能效比、灵活性和智能性进化。
7.4 材料、器件与架构三位一体的长期研发战略
Micron强调,真正的技术突破将来自对新物理机制、新态变量与新材料体系的探索。这需要从以下维度协同展开:
- 在材料层面,开发具备极限能耗、极小尺寸与长周期稳定性的下一代低泄漏器件材料;
- 在器件层面,构建可实现多状态、确定性编程、与CMOS兼容的存储单元;
- 在架构层面,设计支持Memory-Centric、In-Memory或Neuromorphic架构的可扩展系统平台。
这种三位一体的长期投入将为未来存储技术带来范式级的变革。
7.5 拥抱“以数据为中心”的计算未来
随着AI与数据驱动经济的到来,Micron总结指出,未来存储系统的构建理念应转向“以数据为中心”:
- 不再以处理器为中心构建架构,而是围绕数据流动性、局部性与访问路径优化设计计算系统;
- 存储成为性能、安全、功耗与灵活性的决定性变量;
- 新的存储范式,将成为计算系统突破性发展的战略支点。