当前位置:首页 > 项目展示
清华发布《AI芯片技术白皮书》:新计算范式,挑战冯诺依曼、CMOS瓶颈|天博电竞
时间:2021-11-23 来源:天博体育 浏览量 8191 次
本文摘要:最近,在北京未来芯片技术的先进创造中心和清华大学微电子研究所主办的第三届未来芯片论坛上,清华大学月发表了《人工智能芯片技术白皮书(2018)》。

天博官网

最近,在北京未来芯片技术的先进创造中心和清华大学微电子研究所主办的第三届未来芯片论坛上,清华大学月发表了《人工智能芯片技术白皮书(2018)》。《白皮书》首次集成国际化学术和产业资源,重叠学术研究和产业发展前沿,深入探讨人工智能芯片技术,专业说明,完成了AI芯片各种技术路线的识别和未来技术发展趋势和风险的预测。

据报道,《白皮书》由斯坦福大学、清华大学、香港科技大学、台湾新竹清华大学、北京半导体行业协会和新思科技一流研究者和行业资深专家,还完成了10多名IEEEEFellow联合制作。芯片不是AI,新的计算模式近年来随着大数据的积累、理论算法的革新、计算能力的提高和网络设施的发展,持续积累了半个多世纪的人工智能产业,进入了革命性的变革,人工智能的研究和应用进入了新的发展阶段。实质上,人工智能产业要求慢慢发展,现在唯一的物理基础芯片是必不可少的。可以说没有芯片就不是AI。

目前,人工智能芯片的定义没有严格和普遍的标准。更明确的观点是,面向人工智能的芯片可以称为AI芯片。

具体来说,报告中探索的AI芯片主要分为三类,一类是通过硬件和软件优化能够有效地反对AI应用的标准化芯片,如GPU,二类是加快机械学习(特别是神经网络、深度自学)算法的芯片,这也是现在AI芯片中最多的形式AI芯片的计算不会破坏传统的计算,也具有新的计算特质,主要特征是处理内容所谓的结构化数据,例如视频、图像、声音等,必须通过样品训练、数值恩环境交互等方式,利用大量的数据训练模型,使用训练模型处理数据的处理过程必须相当大,基本的计算主要是线性代数运算,大规模并行计算硬件更合适AI芯片的新计算模式也为芯片明确提出了处理非结构化数据、计算量大、存储和计算之间的采访连接等新问题。AI芯片的发展现状:云、边融合应用于场景,AI芯片的应用主要分为云和终端,在深入自学的算法中,云人工智能硬件负责管理训练推测,终端人工智能硬件负责管理推测,因此终端的计算量更小但是,从自动驾驶、智能家庭到loT设备等,速度、能源效率、安全性和硬件成本等是最重要的因素。

云AI计算出,目前各大科技巨头在自己的云平台上配备人工智能系统,主要有IBM的waston、亚马逊的AWS、国内的蚂蚁云、百度云平台等。其中英伟达的GPU使用更加普遍,赛灵思、英特尔、百度等制造商也大力使用FPGA加快云开展,一些创业公司,如深刻的技术等也开发出反对FPGA的AI开发工具。此外,除GPU和FPGA外,AI领域的专用框架芯片ASIC因其更好的性能和功耗,成为云领域的新搅拌者,如谷歌的TPU。

边缘人工智能计算:随着人工智能应用于生态的加剧,更多的人工智能应用于终端设备的开发和部署。智能手机是目前应用于特别普遍的边缘计算设备,包括苹果、华为、高吞吐量、联发科和三星在内的手机芯片制造商竞相发售,开发适应环境AI应用的芯片制品。

天博官网

另外,地平线机器人、寒武纪、深鉴科学技术、元鼎音信等初创公司再次参加这个领域的情况也很多。传统的IP制造商,ARM、Synopsys等公司也包括手机、智能照相机、无人机、工业和服务机器人、智能扬声器、各种物联网设备等边缘开发专用IP产品。自动驾驶是未来边缘AI计算的最重要的应用之一,MobileEyeSOC和NVIDIADrivePX系列获得神经网络的处理能力可以反对半自动驾驶员和几乎自动驾驶。

目前,云和边缘设备在各种人工智能中的应用往往是由于工作。最广泛的方法是在云中训练神经网络,在云(边缘设备收集数据)或边缘设备中进行推测。

AI芯片的技术挑战:冯诺曼、CMOS技术和设备瓶颈上述AI芯片必须符合高效的数据采访和深度自学下的新计算模式,AI芯片在发展中也遇到瓶颈问题,尤其是冯诺曼瓶颈、CMOS技术和设备瓶颈冯诺曼瓶颈:在传统的冯诺曼架构中,计算出模块和存储单元相互分离,数据从处理单元以外的存储器中提取,处理完毕后写回存储器。每项任务有10个步骤,CPU不按顺序进行10次加载、继续执行、再加载、再继续执行,导致延迟,大量消耗电力花费在数据加载上。

不滑稽地说,大部分对AI,特别是加快神经网络处理明确提出的硬件结构的想法都在与这个问题斗争。总而言之,目前解决问题的思路还包括增加访问内存的数量,降低访问内存的成本。CMOS技术和设备瓶颈:目前人工智能,特别是机械学习的发展必须更有力、每秒计算100亿次运算能力的系统,构建这些系统的基础是CMOS技术的芯片,CMOS技术大幅提高系统性能主要是由于构建尺寸的增大。

在过去的30年里,摩尔法则很好地预测了这一计算,但由于基础物理原理允许和经济原因,持续提高构筑密度更加困难。现在的解决办法是开发获得大量存储空间的单片存储技术,探索利用单片存储器构建未来的智能单片结构。另外,近年来,模拟值的非易失性存储器发展迅速,具有存储和处理数据的能力,可以密码传统计算系统结构的基本允许,将来构筑类脑神经元功能。

AI芯片结构的设计趋势:云、边缘设备、软件定义,根据以上AI芯片的计算和应用市场需求,目前云和边缘设备的AI芯片正在开展新的开发。AI云训练与推测:大存储、高性能、前端。从英伟达和谷歌的设计实践中可以看出云AI芯片在结构水平上,技术发展的一些特征和趋势:存储的市场需求(容量和访问速度越高)处理能力每秒提高千兆元,反对灵活的前端和配置边缘设备:目前AI芯片构建效率最重要的指标之一是能源消耗效率-TOPs/W,这也成为许多技术创新竞争的焦点。

其中,减少推测的分析比特精度是最有效的方法,除了减少精度外,提高基本运算单元MAC的效率,还可以融合一些数据结构的切换来增加运算量,另一个最重要的方向是增加内存的采访,例如将神经网络的运算放入传感器和内存中,另外,在边缘设备的AI芯片中,还可以用各种低功耗设计方法进一步减少整体的功耗。最后,终端设备AI芯片经常出现异构系统,特殊的AI加速器和CPU、GPU、ISP、DSP等合作达到最佳效率。

天博

软件定义芯片:CPU、GPU等标准化处理器缺乏AI算法的专用计算、存储单元设计、功耗大的专用芯片ASIC功能单一的现场可编程阵列FPGA重建时间支出过大,检查逻辑过多,功耗过低。以上传统芯片很难实现AI芯片所需的软件定义芯片。可重构计算技术允许硬件结构和功能随软件的变化而变化,没有处理器的灵活性和专用集成电路的高性能、低功耗,是构建软件定义芯片的核心,被认为是突破性的下一代集成电路技术,清华大学的AI芯片Thinker现在使用可重构计算框架,反对卷积神经网络,只有神经网络和反复神经网络等多种AI算法。AI芯片中的存储技术、新兴计算技术和神经形态芯片如上所述,提高AI芯片性能和能效的关键之一在于数据采访。

在传统的冯诺依曼系统结构中,数据从存储器串行提取载入工作内存,导致非常宽的延迟和能源支出。最近,面向数字神经网络的公里/小时器(GPU、FPGA和ASIC)迫切需要AI友好关系型存储器的中期,基于遗体内计算的神经网络为了避免冯诺依曼的瓶颈问题,可以得到有效的解决方案,后期基于悲伤电阻器的神经形态计算可以模拟人的大脑相应的新兴计算技术包括基于内存的人工神经网和生物神经网。神经形态芯片,即仿生电脑。以前,关于冯诺依曼、CMOS技术和设备瓶颈构成的AI芯片的存储、计算之间的问题,神经形态的计算是新的道路。

近年来,神经形态的计算也指模拟、数字、数模混合VLSI和软件系统构建的神经系统模型。将数字处理器作为神经元,将内存作为神经元,内存、CPU和通信部件几乎构筑在一起,使用模拟人脑神经元结构提高计算能力。每个神经元的计算都是当地的,从全局来看神经元们是分散工作的。

受脑结构研究成果灵感,开发的神经形态芯片具有低功耗、低延迟、高速处理、时空领导等特点。人工智能的未来:算法、结构、设备的大探索未来有构筑标准化人工智能的终极算法吗?这个问题还没有人能得到同意的答案。芯片是人工智能算法的物理基础,依赖于算法的嘴唇。

如果经常出现统一的终极算法,我们很可能会看到终极芯片经常出现。然而,在未来的很长一段时间里,不同的应用仍然需要不同的算法(包括传统算法),所以我们还需要探索不同的结构,探索新的设备甚至材料。随着基础芯片技术的变革,人工智能算法也将取得更好的反对和更慢的发展。

CMOS技术与新兴信息技术的交叉融合,从开源软件到开源硬件的趋势逐渐显现,随着进入前所未有的协同创造机会期。


本文关键词:天博,天博体育,天博电竞,天博官网

本文来源:天博-www.abc005.com

版权所有长沙市天博科技股份有限公司 湘ICP备76663832号-6

公司地址: 湖南省长沙市上林县程平大楼384号 联系电话:053-70437118

Copyright © 2018 Corporation,All Rights Reserved.

熊猫生活志熊猫生活志微信公众号
成都鑫华成都鑫华微信公众号