中美科技战争愈演愈烈,芯片作为核心卡脖子的科技之一,是一个非常关键的话题,作为西北电讯工程学院的毕业生,还是得了解一下,这场信息革命的关键科技产物芯片的故事。
要想发明芯片和晶体管,先要有半导体技术;要想有半导体技术,先要有量子物理学。基础学科是技术突破的深厚土壤。
要想了解量子物理学,先要从一只电灯泡开始讲起。
1882年,爱迪生观察到灯泡内壁被熏黑,从而偶然发现了真空灯泡中存在着单向电流。直到1897年,汤姆逊发现了原子中的粒子“电子”后,人们才理解了这种真空中的单向电流。在此基础上,1904年,弗莱明利用真空灯泡中的单向电流效应发明了真空二极管。1906年,德福雷斯特在二极管的阴极和阳极之间插入了栅极,发明了真空三极管,它既能放大信号,又能做开关,在收音机、长途电话乃至电子计算机上得到了广泛应用。
但是真空管具有速度慢、发热严重、故障率高、体积大等弊端,无法适应信息时代的要求,而解决这些难题需要一种全新的物质——半导体。
对半导体导电特性的理解离不开对微观粒子基本规律的认识,尤其是对原子中电子的特性的认识,而经典物理学无法解释一些现象,其中包括困扰爱迪生的灯泡发光效率低下的问题。由此,普朗克研究了背后的黑体辐射问题,并于1900年提出将辐射能量当作一份一份的“量子”,从而催生了量子物理学。
此后,爱因斯坦、玻尔等进一步丰富了量子概念,直到海森堡提出了“不确定性原理”和薛定谔提出了“波动方程”,人们才对原子和电子有了深入的认识。在此基础上,威尔逊于1931年提出了“能带理论”,解释了半导体中电子的不确定性,以及由此产生的电流,从而为半导体二极管和晶体管的发明奠定了基础。
需求是发明之母,这一点在战时表现得更为突出。
第二次世界大战时期,为了改进雷达的接收性能,半导体整流器的研究开始加速,同时带动了硅和锗等半导体的研究。
半导体整流器的研究可以追溯到1874年布劳恩发现了金属半导体界面上的单向整流。直到1939年,莫特等人在理论上取得突破,才用量子物理学解释了背后的机制。
进一步,贝尔实验室的奥尔在1940年偶然间发现了硅中的PN结,能够作为单向整流器,为发明半导体放大器打下基础。
第二次世界大战后,贝尔实验室成立了由肖克利、巴丁和布拉顿组成的半导体晶体管攻关小组。肖克利提出了场效晶体管的概念,但因遇到技术困难没能实现。巴丁和布拉顿转而用两根金属尖触碰半导体,于1947年发明了第一个点接触晶体管。肖克利不甘认输,于第二年发明了“三明治”结构的结型晶体管,使之成为广泛应用的晶体管。
晶体管的成功发明靠的并不是几个人的单打独斗,这其中既有许多偶然的因素(奥尔发现PN结、布拉顿不小心清洗掉锗晶表面的氧化物),也有科学家的智慧引导(巴丁的表面态理论、布拉顿的巧手和肖克利的半导体少数载流子理论)。当然也与贝尔实验室将不同学科的科学家和工程师凝聚在一起密切相关,正是他们彼此激发互助,才共同攻关完成了这一壮举。
一项新发明很可能不如已有的技术,这在发明初期表现得尤为普遍。
刚刚发明出来的晶体管稳定性差、难以批量生产、成本居高不下,这严重地阻碍了其大规模应用。为此,贝尔实验室不断地致力于晶体管的研发和更新换代。
而让晶体管稳定运行的秘诀,在于把握纯度与杂质的平衡。
1949年,贝尔实验室的蒂尔拉出了第一根锗单晶棒;1951年,普凡发明了区域精炼法。这些方法将晶体的纯度提高到了不可思议的程度,为下一步制造晶体管做好了准备。
而为了制造晶体管,需要在本已足够纯净的晶体里掺进一些杂质。1952年,贝尔实验室的富勒发明了扩散技术,将Ⅲ族或Ⅴ族元素掺杂到半导体中,从而实现了大规模制备P型半导体和N型半导体,降低了制造成本。
虽然锗晶体管是半导体技术的先行者,但依然有着不耐高温、不能在高频下工作的缺陷。1954年,德州仪器公司的蒂尔和贝尔实验室的塔嫩鲍姆用拉晶法做出了耐高温、高频率的硅晶体管。1955年,塔嫩鲍姆又用扩散法做出了成本更低的硅晶体管,这更适合大规模制备。
1956年,肖克利离开贝尔实验室并自主创业,将硅晶体管技术带到了加州。但肖克利管理不善,导致年轻骨干出走并成立了仙童半导体公司。这一意外事件使得硅技术“扩散”开来,从仙童半导体公司又延展出更多的创业公司,它们如同星星之火,在不经意间促成了硅谷的繁荣。
多即不同。
晶体管数量增多会引发新问题,但也催生了新的电路形态——集成电路。
当晶体管数量增多,遭遇数量瓶颈,限制了电路规模的进一步扩大时,贝尔实验室的莫顿称之为“数字暴政”。
1958年,德州仪器公司的基尔比提出了“单片集成”的想法,主要是指用硅制作所有的电路元件并将其集成在硅晶圆上。基尔比做出了第一块用于演示的集成电路,但是没有解决元件互连的问题。
1959年,仙童半导体公司的霍尼发明了平面晶体管。在此基础上,诺伊斯想到,可以利用平面工艺将所有元件都集成在硅晶圆的平面上,并通过晶圆上的金属线互连起来,从而解决互连问题,发明了可大规模制造的集成电路。
但是,集成电路这个想法跟大多数人的直觉相抵触,成本高、制造困难,业界普遍不看好其应用。贝尔实验室等研究机构和公司提出了许多缜密的分析来论证集成电路的不可行性,从而“理性”地与这一重大发明失之交臂。
新技术一问世就受到所有人欢迎并得到广泛应用,这恐怕是人们的一厢情愿与简单化思维。一个典型的反例就是新出现的MOS场效晶体管和原有的结型晶体管之间的竞争。
1926年,利林菲尔德提出了场效晶体管的概念。1945年,肖克利再一次独立提出了这个概念。直到1960年,贝尔实验室的阿塔拉和姜大元才做出了MOS场效晶体管。
此时,结型晶体管经过十多年的改进已经相当完善,而MOS场效晶体管不稳定且开关速度比结型晶体管的速度慢很多。雪上加霜的是,这时贝尔实验室的罗斯等人发明了半导体外延工艺,使结型晶体管的速度和稳定性进一步提升,也将其与MOS场效晶体管的差距拉得更大。
贝尔实验室评估后,撤销了MOS场效晶体管项目组,继续支持结型晶体管研发。大公司中的创新者总是会遇到被拒绝的窘境,因为他们提出的“破坏性技术”不足以与原有的已经很完善的技术相抗衡。
新兴的半导体公司(仙童半导体和美国无线电等)看好MOS场效晶体管结构简单、便于集成的优点,继续探索MOS场效晶体管的应用。为了达到这一目的,他们付出了近十年的努力才解决了稳定性、速度和集成度等问题,包括格鲁夫等人发现了不稳定的根源是钠离子,法金提出了硅栅自对准工艺,从而大大提高了MOS场效晶体管的速度和集成度。之后又花费了十年,一直到了20世纪70年代末,MOS场效晶体管的销售额才完全超越了结型晶体管。
摩尔定律在还未广为人知之前,人们倾向于否定它;当它人尽皆知后,人们又开始神话它。
其实,摩尔定律并不是摩尔一个人的定律。
若非摩尔的同事和好友拉斯特辞职出走,就无法促成摩尔去说服业界投入芯片的研制,无法促使他琢磨如何让客户相信芯片会越来越便宜,进而提出摩尔定律。
摩尔从仙童半导体公司研发的芯片中得到了一手数据,又从诺尔斯的下凹曲线中汲取了灵感,于1965年提出了未来十年每颗芯片中元件数量每年翻倍的趋势。即便只预测了十年后的芯片规模将增长1000余倍,但业界也没有相信他。如果没有加州理工学院的米德四处宣讲,摩尔定律就无法在短时间内获得业界的广泛认同。
1974年,IBM公司的登纳德提出了“登纳德缩小规则”,每一代晶体管尺寸只要缩小30%,就能让芯片上的元件数量翻倍,同时让芯片速度提升40%,而单位面积的发热功率则保持不变。此后30年,晶体管基本按照“登纳德缩小规则”发展。
1975年,摩尔修改了“摩尔定律”,将翻倍的节奏改为两年,这一趋势一直延续到21世纪的前十年。此后在制造成本、技术开发等压力下,摩尔定律预测的翻倍节奏有了放缓的趋势。
关于摩尔定律有两个基本的认识错误。有人说芯片数量翻倍的周期是18个月,但摩尔从未说过这句话;摩尔的数量翻倍指的是所有元件的数量,而不只是晶体管数量,因为在有些芯片中(如存储芯片),非晶体管元件(如电容器)会占相当大的比例。
只要创新不停止,摩尔定律的有效性就会一直延续下去。
计算是拉动摩尔定律不断获得验证的重要动力。自动计算的历史可以追溯到莱布尼茨和布尔。布尔在19世纪发现,只要把数值选择限定为0和1,就能把代数计算转化为逻辑计算,从而用开关来实现代数计算。图灵提出了通用图灵机的概念,使得计算机除了计算之外,还能够完成各种任务。
20世纪以来,计算机分别采用继电器、真空管和分立的晶体管作为开关元件,体积十分庞大。
20世纪60年代起,人们开始用芯片搭建计算机,伴随着MOS场效晶体管技术的成熟和芯片集成度的提高,到了60年代末,只需一颗芯片就能实现大部分计算功能。
英特尔公司的霍夫于1969年提出了精简的CPU架构,他的同事法金于1971年设计并做出了第一颗CPU芯片4004。跟所有新生事物一样,CPU在英特尔公司内部也险些夭折。
伴随着个人计算机和CPU的兴起,英特尔公司和超威半导体公司成为最重要的芯片生产商。
法金于1974年离开英特尔公司,成立了齐洛格公司,与英特尔公司在芯片开发与生产领域展开竞争。1984年,齐洛格公司的弗里曼发明了一种更灵活的FPGA芯片,成为CPU的重要补充。
20世纪60年代,半导体存储器开始登上舞台并挑战传统的磁芯存储器。随着MOS场效晶体管技术的成熟,半导体存储器集成度越来越高,价格也随之越来越低。
1963年,仙童半导体公司的罗伯特·诺曼发明了SRAM。1967年,IBM公司的罗伯特·登纳德发明了DRAM,但因漏电被公司束之高阁。
正是看到了半导体存储器的巨大前景,诺伊斯和摩尔于1968年离开仙童半导体公司,创立了英特尔公司,并于1970年推出了世界上第一款容量为1K的DRAM。随着计算机的快速发展,DRAM成了产量最大、最重要的存储器之一。
然而,DRAM在掉电后无法保存数据。1967年,贝尔实验室的姜大元和施敏发明了浮栅晶体管,可用于掉电后保持数据的存储器。在此基础上,英特尔公司的多夫·弗罗曼于1971年发明了EPROM,其灵活的擦除功能推动了CPU的进一步发展。1977年,休斯飞机公司的伊莱·哈拉里发明了EEPROM。
相较于EPROM擦除时会擦掉全部数据,EEPROM虽然灵活,但成本高昂。1980年,日本东芝公司的舛冈富士雄发明了既灵活又低成本的非易失存储器——闪存。1987年,舛冈富士雄进一步改进,发明了成本更低、存储密度更高的与非闪存。这成了现在的手机、相机存储卡和SSD的基础。但舛冈富士雄并没有因此得到东芝公司的合理回报,最终选择辞职出走。
模拟芯片起着放大信号、滤波和驱动等作用,是整个系统的眼、耳、鼻、舌、皮肤。
最基础的模拟芯片是运算放大器。1964—1965年,仙童半导体公司的维德勒设计了集成运算放大器μA702和μA709。1968年,他又设计了集成运算放大器LM101,并发明了带隙基准电压源。除运算放大器之外,模拟芯片还包括ADC、DAC等。
无线通信(从1G到5G、WiFi、蓝牙、射频识别技术等)的发展促进了射频芯片(锁相环、功率放大器等)的发展,使得我们今天的上网速率越来越快,帮助我们摆脱了传输线的束缚。
模拟电路的前端,还需要能感知信号的传感器电路。1982年,IBM公司的彼得森发表了关于微机电系统的综述文章,使芯片领域和微机械领域的研究者汇集起来。如今,微机电系统芯片在汽车安全气囊、烟雾警报、DNA测序、病毒核酸检测等方面有着广泛的应用。
与感知相对应的是驱动。1979—1980年,通用电气公司的巴利加和美国无线电公司的惠特利分别发明了IGBT器件,现已广泛用于电动汽车、高铁、自动体外除颤器、冰箱、空调等领域。
半导体的奇妙之处在于它不仅能导电,还能发光或吸收光线的能量。当半导体把光的能量转换为电能(电压或电流)时,它可以应用于太阳能电池或者图像传感器(数码相机的感光元件)。前者较为容易,贝尔实验室的富勒、皮尔逊和蔡平在1954年就发明了硅太阳能电池。1969年,贝尔实验室的博伊尔和史密斯发明了CCD,两年后他们的同事汤普西特发明了CCD图像传感器。但诺贝尔物理学奖却只颁发给了博伊尔和史密斯,这引起了汤普西特的不满。
如果把光和电转换的过程反过来,让半导体的电流激发出光子,我们就有了LED。1962年,麻省理工学院的雷迪克等人在红外LED上取得突破后,一下子捅破了最后一层窗户纸,创新接踵而来。3家研究机构的4个团队开始了激烈竞争,在一个月内相继取得突破,通用电气公司的霍尔第一个做出了红外半导体激光器,通用电气公司的何伦亚克等首次做出了红光半导体激光器。然而,接下来LED技术的发展之路却并不平坦和顺利。
发明红光半导体LED后,业界朝着半导体激光二极管以及蓝光LED的方向迈进,但困难重重。激光二极管刚诞生时只能在液氮低温下发出断断续续的脉冲,无法实用化。
1963年,苏联约飞物理技术研究所的阿尔费罗夫和美国瓦里安公司的克勒默分别独立提出了半导体异质结的想法,但是克勒默的想法被认为没有应用前景。
此后,约飞物理技术研究所和贝尔实验室展开竞争,阿尔费罗夫于1970年5月用异质结首先做出了可以在室温下连续工作的半导体激光二极管。如今,光纤通信、CD和DVD等都离不开激光二极管。
有了红光LED和黄光LED,实现照明还需要蓝光LED。但是用于制备蓝光LED的氮化镓晶体很难生长,于是,世界上绝大部分研究者都转向采用硒化锌材料制备蓝光LED的研究方向。
只有日本名古屋大学的赤崎勇和天野浩仍在坚持。1989年,他们做出了世界上第一个PN结型氮化镓蓝光LED,闯出了一条新路,但该LED的亮度不高。同年,日亚化学公司的中村修二也开始了氮化镓研究,但在公司领导那里遭到冷遇。1993年,中村修二采用阿尔费罗夫提出的异质结想法,第一个用氮化镓做出了实用的高亮度蓝光LED产品。
所有这些努力终于有了结果,拉开了LED照明的序幕,使得人类继发明白炽灯和日光灯之后又完成了一次照明革命。LED还进入并占领了显示领域,手机、电脑和电视屏幕也都采用了轻薄的LED。
EDA工具是设计芯片必需的工业软件,涉及前端设计(电路分析、原理图设计、逻辑仿真)和后端版图设计(布局布线、一致性检查、规则检查等)。EDA联结着研究者的器件模型、电路设计者的工具库和制造厂的工艺库,可谓牵一发而动全身,关系到全产业链条。从事EDA工具设计的人既需要懂微电子,又需要懂算法,而且还要能够将EDA工具与设计、制造和测试等流程匹配,十分稀缺。因此,EDA工具也成为工业软件上一颗难以企及的明珠。
为了利用早期的计算机替代手工完成一些电路分析,研究人员发明了最早的开源计算机辅助设计程序SPICE。1969—1970年,加州大学伯克利分校开发出了电路分析仿真程序,彼得森排除异议,将其开源,成为所有商用电路仿真程序的鼻祖。
接下来进入了VLSI时代,业界将原理图设计和逻辑仿真工作搬到了计算机上进行,瓶颈转移到了版图绘制上。1977年,施乐公司的康韦提出了λ设计规则,引发了新的设计革命。为了提高逻辑电路的设计效率,1984年,捷威公司的摩比发明了Verilog硬件描述语言。
EDA技术众多,企业并购成了获取技术最快捷的方式,很多企业由此将流程的前端和后端打通,使得设计效率提升水平与摩尔定律相匹配。21世纪初,全球绝大部分EDA技术都被“三巨头”把控。
芯片设计除了全流程的EDA,还需要一套设计模板,这就促使相关公司产生了使用标准集成电路IP的需求。1985年,艾康电脑公司的罗杰·威尔逊和史蒂夫·弗伯开发了第一款ARM处理器。在此基础上,安谋公司开创性地提出将处理器的IP授权给客户,使得ARM处理器成为移动设备上使用最广泛的处理器。
采用“无厂模式”的专门做设计的芯片公司苦于没有自己的晶圆厂,而张忠谋所在的中国台湾工业技术研究院缺少先进的芯片设计能力。于是,张忠谋发挥自身和公司在制造领域的长处,于1987年创造了一种晶圆代工模式,专门为纯设计公司提供芯片制造服务。晶圆代工模式使得设计公司和代工厂都能专注于自己的特长,这逐渐演变为主流的芯片设计制造模式。
芯片制造最大的突破之一在于光刻技术的发明。光刻技术起源于飞机制造中使用的光阻剂,利用光阻剂,贝尔实验室(安德勒斯和邦德)和戴蒙德军械引信实验室(莱思罗普和纳尔)于20世纪50年代分别发明了光刻技术,而后者的第一台“光刻机”实际上是从一台显微镜改装而来的。
随着晶体管尺寸不断地缩小,光刻采用的紫外光波长也需要不停地缩短。进入21世纪,193纳米光刻技术一直无法推进至下一代157纳米光刻技术。2002年,台积电公司的林本坚又一次提出浸没式光刻技术,但遭到了业界质疑。不过在台积电公司和阿斯麦尔公司的推动下,浸没式光刻机问世,将摩尔定律成功地推进了7代,工艺节点从45纳米演进到7纳米。
随着晶体管尺寸缩小,漏电变得严重,沿用了40多年的平面晶体管结构越来越无法满足应用需求。1995年,加州大学伯克利分校的胡正明提出了三维立体结构的晶体管,发明了FinFET。2011年,在22纳米工艺节点,FinFET正式替代了平面晶体管成为主流,而后一直沿用到了3纳米工艺节点。
伴随着晶体管尺寸从微米级别缩小到纳米级别,摩尔定律的提出已经有近60年的时间。
曾经让半导体开关成为可能的是量子物理学,而如今让晶体管失效的也是量子物理学。在极小尺寸下,量子隧穿将占主导作用,使得逻辑计算所依赖的0和1之间的界限变得越来越模糊。由此,晶体管尺寸的缩小之路即将走到尽头。
但是人们并未甘心,他们仍在辗转腾挪,设法拖延这一天到来的时刻,这就是“延续摩尔”这条路径的策略。除此之外,人们还在设想将各种不同功能的芯片集成起来,形成功能更丰富的应用,这是“扩展摩尔”之路。当然,人们也在探索MOS场效晶体管以外的新型器件,这是“超越摩尔”之路。
在芯片技术之外,人类面临着环境、疾病和能源等方面的各种挑战,这些都对芯片技术提出了新的需求。芯片并不是一项孤立的技术,它与人类和环境共同构成了一个彼此依存的世界。
变化永远存在,而新的疑问也会不断地涌现,如何摆脱过去的束缚,寻找明天的突破,仍是一代又一代人努力的方向。
1、创新是对主流的偏离、对现有规则的破坏,它刚开始可能非常蹩脚、很难融入主流。几乎没有一项重大创新一出现就广受欢迎。虽然人们口口声声地说要创新,但其实人们更喜欢的是改良,它的效果立竿见影,因而大受欢迎。
2、就这样,手握大量芯片相关核心技术(扩散法、硅提纯、光刻、硅晶体管、氧化硅层、金属淀积等)的贝尔实验室,靠着领导层的丰富“经验”与“缜密”思考而错失了这一重大发明。而这,还不是最后一次……
3、在“破坏性技术”到来时,良好的规划正是其走向失败的重要原因。这里说的“破坏性技术”并不是所谓的“颠覆性技术”。“破坏性技术”通常并不是建立在新的科学原理的基础上,也没有更复杂的结构。反之,它运用的是已有的原理,但结构更简单。MOS场效晶体管就属于这样的技术。与之对应的是“延续性技术”,典型的例子是BJT,技术成熟,目标市场明确,前景可期,只需沿着既定的方向继续优化和改进,没有人会对此持有异议。像MOS场效晶体管这样的“破坏性技术”,在原有的评价体系中速度慢、处于劣势,但在未来潜在的应用中具有优势,更适合集成在芯片中。
4、当MOS场效晶体管和结型晶体管同时争夺宝贵的公司资源时,一方面,MOS场效晶体管的支持者是阿塔拉这样的新员工,阿塔拉是移民,来自非半导体专业,人微言轻;另一方面,结型晶体管的后盾则是资深高层人士,包括实验室副总裁莫顿、研究部主管费斯克、半导体研究部主任罗斯等,他们曾为研发结型晶体管付出了大量心血,并对其寄予厚望。在面对“破坏性技术”时,贝尔实验室僵化的价值体系使其无法改变原有的思维惯性。当阿塔拉和姜大元做出样品时,贝尔实验室的高层看到了它性能上的缺陷,给出了悲观的预测,做出了撤销MOS场效晶体管项目的决定,项目开发人员也被抽调去解决BJT的问题。于是,被冷落的项目人员萌生去意,甚至有些人直接去了竞争对手的公司,致使贝尔实验室不仅没留住技术,还为竞争对手输送了一批专业人才。
5、之后又设计了升级版的8080 CPU,大获成功。在此基础上,英特尔公司又发布了8086处理器,这成为x86系列CPU的起点。
6、英特尔公司没有给弗罗曼布置特别的任务,只是让他继续“玩”MNOS存储器。当时英特尔公司正在开发代号为1101的SRAM。这款芯片是公司成立以来第一颗256比特的MOS存储器,而且第一次使用了硅栅工艺。公司对它寄予厚望,但就在产品上市前,1101存储器无法通过高温、高湿测试,使得MOS场效晶体管的输出变得不稳定。沃达斯把弗罗曼叫了过来:“好了,不要再把时间耗在MNOS存储器上了,这儿有个真正的问题给你研究,你需要找出使MOS场效晶体管变得不稳定的根源。”
7、模拟芯片能将感测到的外部声光信号放大,并用电信号复现出这些外部信号的幅度变化,相当于在芯片内部重新模拟出了这些外部信号,因而被称为模拟芯片。
8、1965年末的一天,维德勒去找仙童半导体公司的三号人物查理·斯波克,要求大幅提高工资,并暗示他的目标是在30岁时挣到100万美元。这可不是一笔小数目,斯波克毫不含糊地拒绝了维德勒的要求。碰了壁的维德勒直接提出辞职。在给休姆的辞职信上,维德勒只写了一句话:“我于1965年12月31日辞职。”他拒绝填写离职申请表,只在离职原因一栏写了一句话:“我想变富!”
9、这一次,面对维德勒,斯波克像换了一个人,无论维德勒提出多么离奇的无理要求,斯波克都不反对,因为他知道公司十分依赖于维德勒,维德勒独自一人支撑着公司的绝大部分产品线。
10、中村修二一直保留着儿时的一个习惯,那就是——发呆。“不断地重复实验时,我也会在实验的间隙一边看着乡下的山、水田、白云,一边发呆。在这种时候,实验的相关资料、文献和其他学者的意见等外在的判断都会被我抛在一边。我能够不被这些东西左右,逼近事物的本质……”
11、1971年,在费城举办的国际固态电路大会上,罗勒发表了第一篇介绍SPICE的文章。1973年4月举办的第十六届中西部电路理论会议(Midwest Symposium on Circuit Theory)上,彼得森教授正式发布了SPICE,第一个开源电路仿真程序由此诞生。[插图]SPICE开始被大学生们用于完成课程设计,并且很快普及到其他学校。后来,不断地有新的学生将其作为研究课题,为其添加新的功能。由于SPICE是开源、免费的,学生毕业后会向学校要一个免费副本,在工作单位继续使用。这样,SPICE就在工业界迅速推广开来,彼得森的开源计划起作用了。1981年,SPICE 2G6版本变成了美国国家工业标准!