2024年第一季度,台积电进一步提高其在代工业务中的主导地位,在竞争中领先优势进一步扩大。这对公司的收入,尤其是自由现金流的增长来说是个好兆头。
2023财年,台积电在全球代工市场的份额为60%,今年第一季度这一比例扩大至62%。
人工智能芯片的需求如此之高,以至于位于亚利桑那州的子公司甚至在4月份获得了美国官方66亿美元的资助,以期提高国内产量并缓解严重的人工智能芯片短缺问题。
台积电今年第一财季的业绩,净收入增长13%至189亿美元,超过了公司自己预期的180-188亿美元的收入,这种需求是由对支持人工智能应用的计算机芯片不断增长的需求推动的。
但同时经多家媒体证实,台积电3nm代工价格将在明年上调5%,CoWoS先进封装价格将上涨10%-20%。
一项新的封装技术即将崛起
据报道,为满足未来人工智能对算力的需求,台积电正在研究一种新的先进芯片封装方法,使用矩形基板,而不是传统圆形晶圆,从而在每个晶圆上放置更多的芯片。
据悉,台积电所研发的这项新技术而非目前普遍使用的圆形晶圆,这种设计上的转变看似微小,但实际上却能带来革命性的变化。
传统的圆形晶圆在封装过程中,由于圆形的特性,其边缘部分往往会存在未使用的面积,这在一定程度上限制了封装效率。
而矩形面板状基板则能最大限度地利用整个面板的面积,使得每片基板上能够放置更多的芯片组,从而提高封装效率。
台积电目前正在试验的矩形基板尺寸为510mm×515mm,这样的尺寸使得其可用面积达到了现有12英寸圆形晶圆的三倍多。
这一显著的增长不仅意味着更高的封装效率,同时也为未来的芯片设计提供了更大的灵活性和可扩展性。
新技术带来的优势
在设计上,矩形形状的设计使得边缘剩余的未使用面积大幅减少。传统的圆形晶圆封装中,由于边缘部分的面积无法被有效利用,往往需要进行额外的处理或切割,这不仅增加了制造成本,也降低了生产效率。
而矩形面板状基板则能有效避免这一问题,使得整个制造过程更加高效、经济。
据分析师估算,在100%的良率下,一块12寸晶圆只能造出16套B200这样的AI计算芯片。即使是较早的H100芯片,最多也只能封装大约29套。
而从供应链的角度来看,仅英伟达一家对CoWoS的需求就超过4.5万片晶圆,更不要说谷歌、亚马逊、AMD等厂商都在使用台积电的CoWoS封装技术。
值得注意的是,尽管台积电的这一新技术目前仍处于早期研发阶段,且可能需要数年时间才能实现商业化应用,但它无疑代表了半导体封装技术的一个重要发展方向。
AI芯片激发面板封装产业链
其实在英伟达发布新一代AI芯片GB200时,就已经透露了这种矩形晶圆封装技术。
为了缓解CoWoS先进封装产能吃紧问题,英伟达正规划将其GB200提早导入扇出面板级封装(FOPLP),从原订2026年提前到2025年。
对比晶圆级封装(FOWLP),面板级封装使用方形的玻璃面板或印刷电路板,尺寸也不仅仅是510 x 515mm,还有更大的600 x 600mm。
据Yole的报告计算,FOWLP技术的面积使用率<85%,而FOPLP面积使用率>95%,这使得同比例下,300x300mm的矩形面板会比12寸晶圆多容纳1.64倍的die,最终会转化到每单位芯片的生产成本之上。
随着基板面积的增加,芯片制造成本将逐渐下降,300mm过渡到板级封装,则能节约高达66%的成本。
因此单从经济角度考虑,FOPLP对比晶圆封装有多项优势。而更重要的则是FOPLP可以缓解CoWoS产能吃紧的问题,从而保证AI计算的需求。
不过矩形基板,其实早有尝试。为了在基板上形成布线层和TSV,需要用到专用的制造设备和传输系统,并且需要光刻胶等一系列配套设备。
而这些的准备工作,都需要时间和金钱,即使像台积电这样拥有深厚财力的芯片制造商,也不能在短时间内解决。
结尾:
不过随着产业链上下游厂商的不断关注和入局,这项面板级封装技术也会逐渐走向现实。
台积电的这一创新举措不仅展示了其在技术研发上的前瞻性和决心,也体现了其对于市场需求变化的敏锐洞察和积极响应。
期待台积电在未来的半导体制造领域继续发挥引领作用,为全球科技产业的进步和发展做出更大的贡献。
内容参考来源于:镁客网:AI芯片产能告急,矩形晶“圆”来当救星?;传感器技术:台积电重大技术变革!晶圆变矩形,可用面积激增3.7倍!华尔街见闻:台积电的先进封装怎么样了?| AI脱水
好文章,需要你的鼓励
ETH Zürich等机构研究人员提出TrustVLM框架,解决视觉-语言模型预测可信度问题。该方法利用模型中存在的"模态差距",创新性地结合图像到文本和图像到图像的相似度,实现无需重新训练即可大幅提升误分类检测性能。在17个数据集的严格测试中,TrustVLM相比现有方法在关键指标上提升显著,同时改善了零样本分类准确率。此成果为AI系统在自动驾驶、医疗等安全关键领域的可靠部署提供了重要保障。
这项研究提出了个性化安全概念,解决大语言模型对不同用户采用统一安全标准的问题。研究团队创建了PENGUIN基准测试集评估模型在处理高风险场景时的个性化安全能力,并开发了RAISE框架高效获取关键用户信息。实验表明,提供用户背景可使安全分数提高43.2%,而RAISE框架通过平均仅2.7次交互即可提高安全分数31.6%。这一创新方法将AI安全从"一刀切"转向"个性定制",为高风险领域的AI应用提供了新思路。
明尼苏达大学研究团队提出了一种创新方法,通过回合级信誉分配显著提升大语言模型(LLM)智能体的多回合推理能力。传统方法只对整个过程进行评价,而他们的MT-GRPO算法能够精确评估每个决策步骤的价值,就像为每一步提供具体反馈。在维基百科搜索工具使用场景中,该方法实现了100%的工具执行成功率和50%的答案精确匹配率,远超传统方法。这一突破不仅提高了AI在多步骤任务中的表现,也为开发更复杂的AI系统提供了重要思路。
这篇研究介绍了PISCES——一种能精确从大语言模型参数中移除特定概念知识的创新技术。与现有方法不同,PISCES通过解缠器模型识别概念相关特征,直接编辑模型参数,实现了更精准的知识移除。在Gemma和Llama模型上的测试表明,该方法不仅有效降低了目标概念的准确率(低至7.7%),还保持了模型在无关领域的高性能,并显著提高了对"重新学习"的抵抗力。这一突破为AI系统的安全部署和合规使用提供了新的可能性。