NAND的新目标,1000层

时间:2024-12-05
  芯片行业正在努力在未来几年内将 3D NAND 闪存的堆栈高度提高四倍,从 200 层增加到 800 层或更多,利用额外的容量将有助于满足对各种类型内存的无休止需求。
  这些额外的层将带来新的可靠性问题和一系列增量可靠性挑战,但近十年来,NAND 闪存行业一直在稳步增加堆栈高度。2015 年,东芝宣布推出首个使用硅通孔的 16 芯片堆栈。这实现了更高的带宽、更低的延迟和更快的 I/O,同时也为堆叠其他类型的内存和逻辑芯片铺平了道路。
  “最初,NAND 是水平扩展的,” Lam Research蚀刻生产力和设备情报副总裁 Tae Won Kim 表示。“但十多年前,制造商意识到横向扩展本身并不具有成本效益,因此他们转向了垂直扩展。”
  堆叠芯片为显著提高密度和加快数据访问速度打开了大门。ACM Research 总经理 Mohan Bhan 表示:“3D NAND 的发展方向是 500 到 1,000 层。但实现这么多层并非仅仅靠做更多我们一直在做的事情就能实现。”
  主要的传统处理问题与高纵横比 (HAR) 蚀刻和沉积有关,以确保所有这些层中的字符串一致且无空隙。由于多晶硅通道的总电阻增加,通道高度也对读取电流构成挑战。因此,一些开发人员正在转向使用混合键合的双晶圆解决方案,但这些改进只能到此为止。
  Brewer Science业务发展经理 Daniel Soden 表示:“尽管尖端制造商始终致力于增加层数,但层的额外扩展/堆叠受到蚀刻预算和图案化挑战等因素的限制。”
  但最快的方法(或许是唯一的方法)是串堆叠。
  业界确实有办法在不增加更多层的情况下增加内存容量。“NAND 制造商不仅可以垂直扩展,还可以横向和逻辑扩展,”Lam 的 Kim 说。
  逻辑缩放会增加单个闪存单元中存储的位数,而横向缩放会减小单元之间的间距。此外,研究人员正在尝试将列一分为二,使单元总数增加一倍。各种想法都在发挥作用,但效果将是降低间距并在相同区域存储更多数据。“缩放这种电荷陷阱架构的间距是提高设备上的电容器密度的好方法,而无需进一步增加层数,”Brewer 的 Soden 说。
  另一个容量提升涉及将更多数据打包到单个单元中。在一个单元中存储多个位并不是一个新想法。各公司正在推出每单元两位的多层单元 (MLC)、三层单元 (TLC) 和四层单元 (QLC)。开发人员现在正在接近每单元五层(五层单元或 PLC)。管理如此微小的电荷状态差异(31 个级别加上空)的算法可能会更复杂,纠错也是如此,因此性能可能会受到影响。
  目前,PLC 的实现方式以及陷阱氧化物的成分尚不明确,一些研究表明,浮栅可能成为更好的 PLC 单元。甚至有人在研究六级单元 (HLC),每个单元存储六位。然而,这仍在研究中。
  SK 海力士有一种方法可以将存储单元分成两个三比特单元,总共六比特。七比特存储单元已经在低温下进行测试,以降低噪音并提高读取保真度。
  堆叠 3D NAND 的基本优势在于,只需一个光刻步骤即可获得数百层,从而对所有层进行图案化。缺点是钻孔变得更加困难,尤其是当高纵横比接近 100:1 时。
  让每层变薄似乎有利于增加层数,而不会使堆栈太高。“层厚度在 150 到 100 埃的范围内,”Bhan 说。但字线层的变薄会使它们的电阻更大,从而损害性能。一些研究人员正在探索用电阻更低的钌或钼代替钨金属。但对于产品开发来说,层厚度目前保持不变。
  挑战不仅仅在于蚀刻。在保持良好平面度的同时添加额外的层也更加困难。以前可以原谅的小错误现在会累积起来,在更高的堆栈顶部变得太大而无法忽略。
  堆栈最初由交替的 SiO 2和 S 3 iN 4层组成,但氮化物最终将被移除并由栅极金属代替。在每一代中,随着堆栈的增长,重点仍然是保持各层尽可能均匀。可以容忍轻微的错误,但随着堆栈的增长,这些错误往往会成倍增加,这意味着每一代都必须更加努力地提高平面度。
  在沉积过程中旋转晶圆是 ACM Research 用来提高平面度的一项技术。随着沉积的进行,该公司的设备会定期抬起晶圆并将其旋转 180°,就像足球队每节改变方向一样。“沉积过程中对晶圆旋转的要求以及整个过程的均匀性将非常重要,”Bhan 说。
  为此,旋转卡盘将晶圆从压板上抬起,将其转动并放回原位。压板被加热,因此必须快速旋转以保持晶圆温度。但由于压板是固定的,因此晶圆在沉积过程中无法连续(缓慢)转动。“我们 [定期] 旋转晶圆以确保沉积更均匀,”Bhan 解释说。“我们已经取得了相当大的进展,将均匀度控制在 1% 以内。”
  该公司还控制沉积压力,以补偿 Si 3 N 4中的拉应力和 SiO 2中的压应力。
上一篇:TrendForce :Q3电动汽车销量同比增长 19.3%
下一篇:苹果已与百度合作iPhone 16将使用百度AI大模型

免责声明: 凡注明来源本网的所有作品,均为本网合法拥有版权或有权使用的作品,欢迎转载,注明出处。非本网作品均来自互联网,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。