TensorFlow技术主管Peter Wardan:机器学习的未来是小而美

  • 时间:
  • 浏览:101

大数据文摘授权转载自OReillyAIPete Wardan任谷歌TensorFlow移动和嵌入式团队的leader,在O’Reilly AI Conference 2019的Keynote演讲环节,他对机器学习的未来进行了层厚剖析。他认为机器学习的未来只是以小为美。未来,微补救器将如保与机器学习一同公司媒体合作 ?都还还能能 在技术上取得突破?那先 问題图片值得深思。

想象一下那我 4个世界:数千亿台设备不仅派发数据,或多或少会将数据转化为可操作的意见,而那先 意见都还还能能 改善数十亿人的生活。

而要做到你你你这个点,大伙儿儿都要机器学习。或多或少一般来说,机器学习会消耗小量的系统资源。或多或少,低功耗,低成本的机器学习是目前都要探索并寻求突破的。

与此一同,层厚神经网络也越来越 来过多地被应用于改进什么都有有东西,从广告系统到自动驾驶汽车原型,或多或少,它们也注定要改造微型计算机(即微控制器)。

或多或少,Pete在演讲中指出,微型补救器、内嵌补救器是机器学习的未来。

微补救器已无处找不到

Pete首先用Alexa做了4个小演示,展示了基于网络的机器学习模型如保在小型的、内嵌式的补救器上去运行的,以及它都还还能能 持续几周的时间。

人太好选则用Alexa演示,是机会这台设备越来越 联网,也越来越 Wi-Fi和蓝牙,它只是在20KB的模型上运行,你你你这个微型补救器也都还还能能 都都还还能能 几百KB的内存。而你你你这个模型仅仅靠钮扣电池供电,就能独立运行数周的时间。

你你你这个点非常重要。机会全世界有25000亿个微补救器,每年出货量达到了 500亿,每年时会20%的增幅,平均成本都还还能能 500美分。那我 的产品机会非常便宜或多或少无处找不到。

此外,CPU如今也机会很便宜了,几乎时会免费的。或多或少大伙儿儿把补救器安放进设备上以后 ,却要专门接电线为其供电,比如在机场,你你你这个供电系统机会就要花几千美金。

除了布线问題图片,还在于,或多或少场合,比如手术室、工厂车间,机会并越来越 离米 的地方去增加电源插座等设备。什么都有有说,这非常不合理。能源供应问題图片成了什么都有有设备的限制因素。

手机需频繁充电的首要由于——高能耗

以大伙儿儿现在每天都离不开的手机为例。人太好手机不都要连接结构的电源,但它每天都都要充电。机会你有几5个甚至几百个电子设备都要进行打理得话,那机会你所有的时间都花在充电上了。什么都有有什么都有有设备,大伙儿儿只好采取即插即用的法律法律依据 来供电。

智能手机的能耗情形如保,为那先 时会频繁充电?请参考以下数据:

  • 显示器离米 使用500毫瓦
  • 有源蜂窝无线电离米 使用5000毫瓦
  • 蓝牙离米 使用5000毫瓦
  • 加层厚计使用21毫瓦
  • 陀螺仪消耗1500毫瓦
  • GPS消耗176毫瓦

机会大伙儿儿把手机的能耗降到1毫瓦以下,越来越 仅仅一枚钮扣电池就能支持手机运行4个月。大伙儿儿都要在那我 的能耗限制下进行设计,都都还还能能保证无所找不到的微补救计算和人工智能技术相得益彰。

传感器数据被浪费的由于——传输能耗越来越 来过多

现有的CPU做计算三种是基本越来越 功耗的,它都还还能能 把功耗降到几百微瓦的水平,传感器也是越来越 。比如,麦克风的功耗也非常低,还有图形传感器。麦克风机会是几百微瓦的水平,传感器也是都还还能能 降到1毫瓦的水平。

或多或少,微补救器和传感器都还还能能 把功耗降到非常低的程度。低功耗的补救方案大大提升了传感器派发数据的能力,它们都都都还还能能更频繁地查看都要的信息。

然而,人太好传感器都都都还还能能以很低的功耗获得巨量的数据,或多或少那先 却越来越 得到充分的应用。

比如,几年前,一家卫星公司,都都都还还能能拍摄什么都有有高清晰度的图片。或多或少机会层厚的问題图片,每个小时都还还能能 都都还还能能 下载几百MB的数据,什么都有有卫星和地面的通讯成本太高了,最终大伙儿儿能得到的图片只是很少的一累积。

此外,比如在工厂里边的温度计,它们都还还能能 获取什么都有有的数据。或多或少工厂并越来越 越来越 多的电力把那先 数据上传到云端,什么都有有什么都有有数据也都被浪费了。

层厚学习与微补救器的完美配合

对于现有的那先 问題图片,技术应该发挥那先 样的作用?如保都都都还还能能把小量的传感器的数据利用起来,把它的价值发挥出来?都还还能能 降低设备能耗?

Pete认为还有很大的市场等待图片科技去解锁

机器学习在这方面就都还还能能 发挥非常重要的作用,具体来说,是层厚学习。机会层厚学习才都都都还还能能最有效地把那先 混沌的、非形态学 性质的数据利用起来。

层厚学习都还还能能 补救小量未标记的数据

很少越来越人意识到层厚学习和微补救器(MCU)的匹配程度。层厚学习实际上是基于计算,而时会依靠通讯机会数据读取来运行的。或多或少,大伙儿儿不都要很大的内存,只是都要小量访问内存。这恰好也符合微补救器的设计,它都还还能能 都都还还能能 几百KB的内存,一同每秒都还还能能 运行几千万甚至上亿次的指令。

什么都有有大伙儿儿都还还能能 用很低的功耗来满足它的学习机会训练目的。机会大伙儿儿知道对于4个给定的神经网络系统,它都要5皮焦(pJ)的能耗来执行4个操作,机会用最小的图象识别,它都要2500万的浮点计算,越来越 它将共都要5皮焦*22,000,000=110微焦(µJ)的能量来执行你你你这个操作。机会每秒分析一帧,那只都要110微瓦,越来越 ,用钮扣电池就能供一年的电量,或多或少不都要对现有的硬件改进。

谷歌的团队曾在2014年开发了4个13KB的模型来进行语音识别,而苹果苹果苹果苹果也在做之类的研发工作。什么都有有那先 语音识别团队,就都还还能能 在非联网的微型补救器上来进行机器学习和训练。

TensorFlow Lite——赋予移动终端机器学习的能力

2017年,谷歌在Google I/O大会推出TensorFlow Lite,是专门针对移动设备上可运行的层厚网络模型简单版。但当时只是开发者预览版,未推出正式版。

2019年3月,TensorFlow Lite嵌入式平台发布了第4个实验原型。这是由SparkFun构建的开发板的原型,它有4个Cortex M4补救器,具有384KB的RAM和1MB的闪存存储。该补救器功率极低,在或多或少情形下功耗都还还能能 1毫瓦,或多或少它都还还能能 仅凭小型纽扣电池运行什么都有有天。

Pete在安卓开发峰会上介绍TensorFlow Lite

它删剪在本地嵌入式芯片上运行,无需任何互联网连接,或多或少最好将其作为语音接口系统的一累积。该模型三种占用的存储空间都还还能能 20KB,TensorFlow Lite代码的占用空间仅为25KB的Flash,或多或少只都要 500KB的RAM即可运行。

TensorFlow Lite 的目标便是移动和嵌入式设备,它赋予了那先 设备在终端本地运行机器学习模型的能力,从而不再都要向云端服务器发送数据。那我 一来,不但节省了网络流量、减少了时间开销,或多或少还充分帮助用户保护本人的隐私和敏感信息。

Tensorflow Lite被用来补救了移动设备的图像分类、物体检测、智能聊天的问題图片。

层厚学习未来的应用

层厚学习最关键的在于,它有点硬适合把传感器的数据转化为非常有价值的资产。

全语音界面

层厚学习的4个「杀手」应用,你说歌词 在不久的将来就会实现,那便是:全语音的界面。那我 的界面用500美分的芯片就都还还能能 实现,一同,用4个钮扣电池就都还还能能 维持一年的运行。越来越 一来,大伙儿儿都还还能能 只用语音操控,而不再都要开关机会是按纽了。所有的机器、设备都都还还能能 使用语音通讯的界面。

你你你这个便宜的芯片还都还还能能 用于农业的用途,比如通过图形识别都还还能能 用很低的成那我 识别有害杂草,农业工作者便都还还能能 精准地施用农药。

预维护模式

另外,还有预测式维护。大伙儿儿都还还能能 预先知道那先 机器都还还能能 出故障。比如针对汽车故障,人不机会到汽车里边去看发动机哪出了那先 问題图片,机会听出马达的声音出先了问題图片,或多或少大伙儿儿都还还能能 对模型进行训练,把那先 设备直接插到系统里边,不都要做新的布线或联网,你你你这个设备就都还还能能 直接告诉你:系统好像出问題图片了,设备都要及时维护、维修。当然,你你你这个模型从不都要持续上网发出设备信息,只是当要存在重大事故机会隐患的以后 才会发出通讯。

层厚学习未来的应用

未来的世界有更多的机会性,现在人工智能对于大伙儿儿,就像八十年代的电脑一样。大伙儿儿让他是知道它会发展成那先 样子,或多或少大伙儿儿都还还能能 想象一下大伙儿儿目前面对的各种问題图片和挑战,在工作中面临的困难。如保用小小的芯片进行机器学习?这方面大伙儿儿都还还能能 有新的层厚去探索,时会新的研究成果去发挥作用。

关于Pete Warden

Pete Warden是谷歌TensorFlow Mobile团队的技术主管,曾担任 Jetpac 的首席技术官,该公司于 2014 年被谷歌收购,因其层厚学习技术优化,可在移动和嵌入式设备上运行。他以后 曾在Apple从事 GPU 优化图像补救工作。

本文由

大数据文摘

发布在

ITPUB

,转载此文请保持文章删剪性,并请附上文章来源(ITPUB)及本页链接。

原文链接:http://www.itpub.net/2019/07/08/2354/