设为首页
收藏本站
开启辅助访问
切换到窄版
登录
立即注册
首页
Portal
行业资讯
人才培育
求职招聘
智慧教育
人才之家
BBS
淘帖
Collection
分享
Share
搜索
搜索
行业资讯
集成电路
化合物IC
AI芯片
分立器件
新IC材料
行业政策
人才培育
政策法规
高等教育
职业教育
行业观察
行业指导
人才政策
热门领域
物联网IOT
人工智能
AI芯片
汽车电子
可穿戴电子
区块链
芯片制造
芯片杂谈
前端设计
MEMS
封装测试
版图设计
IC新材料
本版
文章
帖子
用户
芯片人才网
»
人才之家
›
热门领域
›
人工智能AI/深度学习
›
人工智能芯片
返回列表
发新帖
人工智能芯片
[复制链接]
840
|
0
|
2020-10-11 13:19:56
|
显示全部楼层
|
阅读模式
本帖最后由 Gaohanqing 于 2020-10-11 13:23 编辑
人工智能芯片主要包括NVidia GPU、Google的TPU、Intel的Nervana、IBM的TreueNorth、微软的DPU和BrainWave、百度的XPU、Xilinx的xDNN、寒武纪芯片、地平线以及深鉴科技的AI芯片等,基本上是GPU、FPGA、神经网络芯片三分天下的趋势,三种芯片各有各自的优劣,都在面向自己独特的细分市场。本章先聊一聊深度神经网络和NVidia GPU的崛起。
人工智能的终极目标是模拟人脑,人脑大概有1000亿个神经元,1000万亿个突触,能够处理复杂的视觉、听觉、嗅觉、味觉、语言能力、理解能力、认知能力、情感控制、人体复杂机构控制、复杂心理和生理控制,而功耗只有10~20瓦。
这是人脑基本神经元和突触:
这是人工神经元模拟神经元:
输入模拟神经元输入电信号,权值模拟神经元之间的突触连接,激活函数模拟突触之间的电信号传导。
早在1981年David Hubel和Torsten Wiesel就发现了人的视觉系统的信息处理是分级的,因此获得了诺贝尔医学奖。如图所示,从视网膜出发,经过低级的V1区边缘特征提取,到V2区识别基本形状或目标的局部,再到高层的目标识别(例如识别人脸),以及到更高层的前额叶皮层进行分类判断等,人们意识到高层特征是低层特征的组合,从低层到高层越来越抽象,越来越能表达语义或者意图。
深度神经网络模型模拟人脑识别的分层识别过程:
深度神经网络的输入层模拟视觉信号的输入,不同的隐藏层模拟不同级别的抽象,输出层模拟输出的对象分类或者语义等。
从上图的典型的人脸识别的训练任务来看,按照10层深度神经网络、训练上百万张图片,大概需要30 Exaflops的计算能力,如果还是用CPU来做训练,大概需要训练一年的时间,这显然是无法忍受的速度,亟待需要计算能力更强的人工神经网络芯片出现。
NVidia GPU的崛起
可能有很多人会问,目前在人工智能领域,NVidia GPU为什么具有无可撼动的霸主地位,为什么AMD的GPU和NVidia GPU性能相差不多,但是在人工智能领域的受欢迎的程度却有天壤之别。
我们知道GPU原本就是显卡,它是为游戏和渲染而生的,它里面核心运行单元是shader,专门用作像素、顶点、图形等渲染用的。
NVidia在2006年的时候跨时代的推出了统一计算设备架构CUDA(Compute Unified Device Architecture)以及对应的G80平台,第一次让GPU具有可编程性,让GPU的核心流式处理器Streaming Processors(SPs)既具有处理像素、顶点、图形等渲染能力,又同时具备通用的单精度浮点处理能力,NVidia称之GPGPU(General Purpose GPU),黄教主的野心是让GPU既能做游戏和渲染也做并行度很高的通用计算。
2006年,第一代GPGPU架构G80
G80有16组流式处理器Streaming Processors(SPs),每组SP里有16个计算核心,一共128个独立的计算核心,单精度峰值计算能力可达330 Gflops,而同期主流的Core2 Duo CPU只有50 Gflops的处理能力,更为重要的是从G80架构开始,GPU开始支持可编程,所有的计算密集型的并行任务都有可能通过程序移植在GPU上运行起来。
CUDA的编程模型
CUDA将GPU的计算单元抽象成3个编程层次:Grids、Blocks和Threads,一个CUDA kernel在执行的前会先把数据和指令传到GPU上,在执行的时候会使用若干个Grids,一个Grid里含有多个Blocks,一个Block里含有多个Threads,调度上一个Block的Threads会调度到一个独立的Streaming Processors上执行,而16/32个Threads称为一个Warp,Warp是GPU上指令调度的最小单元,一个Warp会同时运行在16/32个计算核心上。
性能增长远超CPU战略
NVidia从2006年推出Tesla架构以来,不断的更新架构和性能,陆续推出了Femi、Maxwell、Pascal还有最新的Volta架构,基本上保持着2年性能翻1倍的增长态势。
而对CPU的性能加速比,在单精度计算能力上保持着遥遥领先的态势,并且拉开的差距越来越大。
深度神经网络+NVidia GPU掀起人工智能浪潮
深度神经网络+NVidia GPU掀起了业界的人工智能浪潮,不得不说这只是老黄整体战略的一个副产品,谁也没有想到,高性能计算领域的一个分支--人工智能会如此火爆。
2011年,负责谷歌大脑的吴恩达通过让深度神经网络训练图片,一周之内学会了识别猫,他用了12片GPU代替了2000片CPU,这是世界上第一次让机器认识猫。
2015年,微软研究院用GPU加速的深度神经网络,在ImageNet比赛中获得了多项击败人的辨识准确度,这是第一次机器视觉的识别率打败了人眼的识别率(错误率5%),可以认为是人工智能史上的一个重要里程碑事件。
2016年,谷歌旗下Deepmind团队研发的机器人AlphaGo以4比1战胜世界围棋冠军职业九段棋手李世石(AlphaGo的神经网络训练用了50片GPU,走棋网络用了174片GPU),引发了围棋界的轩然大波,因为围棋一直被认为是人类智力较量的巅峰,这可以看做是人工智能史上的又一个重大里程碑事件。
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有帐号?
立即注册
x
回复
使用道具
举报
返回列表
发新帖
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
本版积分规则
发表回复
回帖后跳转到最后一页
Gaohanqing
356
主题
356
帖子
1318
积分
超级版主
积分
1318
加好友
发消息
回复楼主
返回列表
智能家居及物联网
人工智能AI/深度学习
汽车电子
天线|RF射频|微波|雷达技术
可穿戴电子
区块链