2018,仍是AI领域激动人心的一年

发布者:qazwsx007最新更新时间:2018-12-29 来源: eefocus关键字:NLP  AI技术  编码器 手机看文章 扫描二维码
随时随地手机看文章

2018,仍是AI领域激动人心的一年。

 

这一年成为NLP研究的分水岭,各种突破接连不断;CV领域同样精彩纷呈,与四年前相比GAN生成的假脸逼真到让人不敢相信;新工具、新框架的出现,也让这个领域的明天特别让人期待……

 

近日,Analytics Vidhya发布了一份2018人工智能技术总结与2019趋势预测报告,原文作者PRANAV DAR。量子位在保留这个报告架构的基础上,对内容进行了重新编辑和补充。

 

这份报告总结和梳理了全年主要AI技术领域的重大进展,同时也给出了相关的资源地址,以便大家更好的使用、查询。

 

报告共涉及了五个主要部分:

 

自然语言处理(NLP)

 

计算机视觉

 

工具和库

 

强化学习

 

AI道德

 

下面,我们就逐一来盘点和展望,嘿喂狗~

 

自然语言处理(NLP)

 

 

2018年在NLP历史上的特殊地位,已经毋庸置疑。

 

这份报告认为,这一年正是NLP的分水岭。2018年里,NLP领域的突破接连不断:ULMFiT、ELMo、最近大热的BERT……

 

迁移学习成了NLP进展的重要推动力。从一个预训练模型开始,不断去适应新的数据,带来了无尽的潜力,甚至有“NLP领域的ImageNet时代已经到来”一说。

 

■ ULMFiT


这个缩写,代表“通用语言模型的微调”,出自ACL 2018论文:Universal Language Model Fine-tuning for Text Classification。

 

 

正是这篇论文,打响了今年NLP迁移学习狂欢的第一枪。

 

论文两名作者一是Fast.ai创始人Jeremy Howard,在迁移学习上经验丰富;一是自然语言处理方向的博士生Sebastian Ruder,他的NLP博客几乎所有同行都在读。

 

两个人的专长综合起来,就有了ULMFiT。想要搞定一项NLP任务,不再需要从0开始训练模型,拿来ULMFiT,用少量数据微调一下,它就可以在新任务上实现更好的性能。

 

 

他们的方法,在六项文本分类任务上超越了之前最先进的模型。

 

详细的说明可以读他们的论文:

 

https://arxiv.org/abs/1801.06146

 

Fast.ai网站上放出了训练脚本、模型等:

 

http://nlp.fast.ai/category/classification.html

 

■ ELMo


这个名字,当然不是指《芝麻街》里那个角色,而是“语言模型的词嵌入”,出自艾伦人工智能研究院和华盛顿大学的论文Deep contextualized word representations,NLP顶会NAACL HLT 2018的优秀论文之一。

 

 

ELMo用语言模型(language model)来获取词嵌入,同时也把词语所处句、段的语境考虑进来。

 

这种语境化的词语表示,能够体现一个词在语法语义用法上的复杂特征,也能体现它在不同语境下如何变化。

 

当然,ELMo也在试验中展示出了强大功效。把ELMo用到已有的NLP模型上,能够带来各种任务上的性能提升。比如在机器问答数据集SQuAD上,用ELMo能让此前最厉害的模型成绩在提高4.7个百分点。

 

 

这里有ELMo的更多介绍和资源:

 

https://allennlp.org/elmo

 

■ BERT


说BERT是2018年最火的NLP模型,一点也不为过,它甚至被称为NLP新时代的开端。

 

 

它由Google推出,全称是Bidirectional Encoder Representations from Transformers,意思是来自Transformer的双向编码器表示,也是一种预训练语言表示的方法。

 

从性能上来看,没有哪个模型能与BERT一战。它在11项NLP任务上都取得了最顶尖成绩,到现在,SQuAD 2.0前10名只有一个不是BERT变体:

 

 

 

如果你还没有读过BERT的论文,真的应该在2018年结束前补完这一课:

 

https://arxiv.org/abs/1810.04805

 

另外,Google官方开源了训练代码和预训练模型:

 

https://github.com/google-research/bert

 

如果你是PyTorch党,也不怕。这里还有官方推荐的PyTorch重实现和转换脚本:

 

https://github.com/huggingface/pytorch-pretrained-BERT

 

■ PyText


BERT之后,NLP圈在2018年还能收获什么惊喜?答案是,一款新工具。

 

 

就在上周末,Facebook开源了自家工程师们一直在用的NLP建模框架PyText。这个框架,每天要为Facebook旗下各种应用处理超过10亿次NLP任务,是一个工业级的工具包。

 

(Facebook开源新NLP框架:简化部署流程,大规模应用也OK)

 

PyText基于PyTorch,能够加速从研究到应用的进度,从模型的研究到完整实施只需要几天时间。框架里还包含了一些预训练模型,可以直接拿来处理文本分类、序列标注等任务。

 

想试试?开源地址在此:

 

https://github.com/facebookresearch/pytext

 

■ Duplex

如果前面这些研究对你来说都太抽象的话,Duplex则是NLP进展的最生动例证。

 

名字有点陌生?不过这个产品你一定听说过,它就是Google在2018年I/O开发者大会上展示的“打电话AI”。

 

 

它能主动打电话给美发店、餐馆预约服务,全程流畅交流,简直以假乱真。Google董事长John Hennessy后来称之为“非凡的突破”,还说:“在预约领域,这个AI已经通过了图灵测试。”

 

Duplex在多轮对话中表现出的理解能力、合成语音的自然程度,都是NLP目前水平的体现。

 

如果你还没看过它的视频……

 

■ 2019年展望

NLP在2019年会怎么样?我们借用一下ULMFiT作者Sebastian Ruder的展望:

 

预训练语言模型嵌入将无处不在:不用预训练模型,从头开始训练达到顶尖水平的模型,将十分罕见。

 

能编码专业信息的预训练表示将会出现,这是语言模型嵌入的一种补充。到时候,我们就能根据任务需要,把不同类型的预训练表示结合起来。

 

在多语言应用、跨语言模型上,将有更多研究。特别是在跨语言词嵌入的基础上,深度预训练跨语言表示将会出现。

 

计算机视觉


今年,无论是图像还是视频方向都有大量新研究问世,有三大研究曾在CV圈掀起了集体波澜。

 

■ BigGAN

 

 

 

今年9月,当搭载BigGAN的双盲评审中的ICLR 2019论文现身,行家们就沸腾了:简直看不出这是GAN自己生成的。

 

在计算机图像研究史上,BigGAN的效果比前人进步了一大截。比如在ImageNet上进行128×128分辨率的训练后,它的Inception Score(IS)得分166.3,是之前最佳得分52.52分3倍。

 

除了搞定128×128小图之外,BigGAN还能直接在256×256、512×512的ImageNet数据上训练,生成更让人信服的样本。

 

 

在论文中研究人员揭秘,BigGAN的惊人效果背后,真的付出了金钱的代价,最多要用512个TPU训练,费用可达11万美元,合人民币76万元。

 

不止是模型参数多,训练规模也是有GAN以来最大的。它的参数是前人的2-4倍,批次大小是前人的8倍。

 

相关地址

 

研究论文:

 

https://openreview.net/pdf?id=B1xsqj09Fm

 

延伸阅读

 

惊!史上最佳GAN现身,超真实AI假照片,行家们都沸腾了

 

训练史上最佳GAN用了512块TPU,一作自述:这不是算法进步,是算力进步

 

史上最强GAN:训练费10万起,现在免费体验,画风鬼畜又逼真

 

■ Fast.ai 18分钟训练整个ImageNet

在完整的ImageNet上训练一个模型需要多久?各大公司不断下血本刷新着记录。

 

不过,也有不那么烧计算资源的平民版。

 

今年8月,在线深度学习课程Fast.ai的创始人Jeremy Howard和自己的学生,用租来的亚马逊AWS的云计算资源,18分钟在ImageNet上将图像分类模型训练到了93%的准确率。

 

 

前前后后,Fast.ai团队只用了16个AWS云实例,每个实例搭载8块英伟达V100 GPU,结果比Google用TPU Pod在斯坦福DAWNBench测试上达到的速度还要快40%。

 

这样拔群的成绩,成本价只需要40美元,Fast.ai在博客中将其称作人人可实现。

 

 

相关地址:

 

Fast.ai博客介绍:

 

https://www.fast.ai/2018/08/10/fastai-diu-imagenet/

 

延伸阅读

 

40美元18分钟训练整个ImageNet!人人可实现

 

224秒!ImageNet上训练ResNet-50最佳战绩出炉,索尼下血本破纪录

 

 

■ vid2vid技术

今年8月,英伟达和MIT的研究团队高出一个超逼真高清视频生成AI。

 

只要一幅动态的语义地图,就可获得和真实世界几乎一模一样的视频。换句话说,只要把你心中的场景勾勒出来,无需实拍,电影级的视频就可以自动P出来:

 

 

除了街景,人脸也可生成:

 

 

这背后的vid2vid技术,是一种在生成对抗性学习框架下的新方法:精心设计的生成器和鉴别器架构,再加上时空对抗目标。

 

这种方法可以在分割蒙版、素描草图、人体姿势等多种输入格式上,实现高分辨率、逼真、时间相干的视频效果。

 

好消息,vid2vid现已被英伟达开源。

 

相关地址

 

研究论文:

https://tcwang0509.github.io/vid2vid/paper_vid2vid.pdf

 

GitHub地址

 

https://github.com/NVIDIA/vid2vid

 

延伸阅读

 

真实到可怕!英伟达MIT造出马良的神笔

 

一文看尽深度学习这半年

 

■ 2019趋势展望

Analytics Vidhya预计,明年在计算机视觉领域,对现有方法的改进和增强的研究可能多于创造新方法。

 

在美国,政府对无人机的限令可能会稍微“松绑”,开放程度可能增加。而今年大火的自监督学习明年可能会应用到更多研究中。

 

Analytics Vidhya对视觉领域也有一些期待,目前来看,在CVPR和ICML等国际顶会上公布最新研究成果,在工业界的应用情况还不乐观。他希望在2019年,能看到更多的研究在实际场景中落地。

 

Analytics Vidhya预计,视觉问答(Visual Question Answering,VQA)技术和视觉对话系统可能会在各种实际应用中首次亮相。

 

工具和框架


哪种工具最好?哪个框架代表了未来?这都是一个个能永远争论下去的话题。

 

没有异议的是,不管争辩的结果是什么,我们都需要掌握和了解最新的工具,否则就有可能被行业所抛弃。

 

今年,机器学习领域的工具和框架仍在快速的发展,下面就是这方面的总结和展望。

 

■ PyTorch 1.0

根据10月GitHub发布的2018年度报告,PyTorch在增长最快的开源项目排行上,名列第二。也是唯一入围的深度学习框架。

 

作为谷歌TensorFlow最大的“劲敌”,PyTorch其实是一个新兵,2017年1月19日才正式发布。2018年5月,PyTorch和Caffe2整合,成为新一代PyTorch 1.0,竞争力更进一步。

 

相较而言,PyTorch速度快而且非常灵活,在GitHub上有越来越多的开码都采用了PyTorch框架。可以预见,明年PyTorch会更加普及。

 

至于PyTorch和TensorFlow怎么选择?在我们之前发过的一篇报道里,不少大佬站PyTorch。

 

实际上,两个框架越来越像。前Google Brain深度学习研究员,Denny Britz认为,大多数情况下,选择哪一个深度学习框架,其实影响没那么大。

 

相关地址

 

PyTorch官网:

 

https://pytorch.org/

 

延伸阅读

 

PyTorch还是TensorFlow?这有一份新手指南

 

尝鲜PyTorch 1.0必备伴侣

 

TensorFlow王位不保?ICLR投稿论文PyTorch出镜率快要反超了

 

■ AutoML

很多人将AutoML称为深度学习的新方式,认为它改变了整个系统。有了AutoML,我们就不再需要设计复杂的深度学习网络。

 

今年1月17日,谷歌推出Cloud AutoML服务,把自家的AutoML技术通过云平台对外发布,即便你不懂机器学习,也能训练出一个定制化的机器学习模型。

 

不过AutoML并不是谷歌的专利。过去几年,很多公司都在涉足这个领域,比方国外有RapidMiner、KNIME、DataRobot和H2O.ai等等。

 

除了这些公司的产品,还有一个开源库要介绍给大家:

 

Auto Keras!

 

这是一个用于执行AutoML任务的开源库,意在让更多人即便没有人工智能的专家背景,也能搞定机器学习这件事。

 

这个库的作者是美国德州农工大学(Texas A&M University)助理教授胡侠和他的两名博士生:金海峰、Qingquan Song。Auto Keras直击谷歌AutoML的三大缺陷:

 

第一,还得付钱。

 

第二,因为在云上,还得配置Docker容器和Kubernetes。

 

第三,服务商(Google)保证不了你数据安全和隐私。

 

相关地址

 

官网:

https://autokeras.com/

 

GitHub:

https://github.com/jhfjhfj1/autokeras

 

延伸阅读

 

一文看懂深度学习新王者「AutoML」

 

开源的“谷歌AutoML杀手”来了

 

谷歌放大招!全自动训练AI无需写代码,全靠刚发布的Cloud AutoML

 

■ TensorFlow.js

今年3月底的TensorFlow开发者会峰会2018上,TensorFlow.js正式发布。

 

这是一个面向JavaScript开发者的机器学习框架,可以完全在浏览器中定义和训练模型,也能导入离线训练的TensorFlow和Keras模型进行预测,还对WebGL实现无缝支持。

 

在浏览器中使用TensorFlow.js可以扩展更多的应用场景,包括展开交互式的机器学习、所有数据都保存在客户端的情况等。

 

实际上,这个新发布的TensorFlow.js,就是基于之前的deeplearn.js,只不过被整合进TensorFlow之中。

 

谷歌还给了几个TensorFlow.js的应用案例。比如借用你的摄像头,来玩经典游戏:吃豆人(Pac-Man)。

 

相关地址

 

官网:

 

https://js.tensorflow.org/

 

延伸阅读

 

有笔记本就能玩的体感游戏!TensorFlow.js实现体感格斗教程

 

谷歌AI魔镜:看你手舞足蹈,就召唤出8万幅照片学你跳

 

我不是偷拍的变态,只是在找表情包的本尊

 

■ 2019趋势展望

在工具这个主题中,最受关注的就是AutoML。因为这是一个真正会改变游戏规则的核心技术。在此,引用H2O.ai的大神Marios Michailidis(KazAnova)对明年AutoML领域的展望。

 

以智能可视化、提供洞见等方式,帮助描述和理解数据

 

为数据集发现、构建、提取更好的特征

 

快速构建更强大、更智能的预测模型

 

通过机器学习可解释性,弥补黑盒建模带来的差距

 

推动这些模型的产生

 

强化学习

 

 

强化学习还有很长的路要走。

 

除了偶尔成为头条新闻之外,目前强化学习领域还缺乏真正的突破。强化学习的研究非常依赖数学,而且还没有形成真正的行业应用。

 

希望明年可以看到更多RL的实际用例。现在我每个月都会特别关注一下强化学习的进展,以期看到未来可能会有什么大事发生。

 

■ OpenAI的强化学习入门教程

全无机器学习基础的人类,现在也可以迅速上手强化学习。

 

11月初,OpenAI发布了强化学习 (RL) 入门教程:Spinning Up。从一套重要概念,到一系列关键算法实现代码,再到热身练习,每一步都以清晰简明为上,全程站在初学者视角。

 

 

团队表示,目前还没有一套比较通用的强化学习教材,RL领域只有一小撮人进得去。这样的状态要改变啊,因为强化学习真的很有用。

 

相关地址

 

教程入口:

 

https://spinningup.openai.com/en/latest/index.html

 

GitHub传送门:

 

https://github.com/openai/spinningup

 

延伸阅读

 

强化学习如何入门?看这篇文章就够了

 

人人能上手:OpenAI发射初学者友好的强化学习教程 | 代码简约易懂

 

强化学习算法Q-learning入门:教电脑玩“抓住芝士”小游戏

 

■ 谷歌的强化学习新框架「多巴胺」

Dopamine(多巴胺),这是谷歌今年8月发布的强化学习开源框架,基于TensorFlow。

 

 

新框架在设计时就秉承着清晰简洁的理念,所以代码相对紧凑,大约是15个Python文件,基于Arcade Learning Environment (ALE)基准,整合了DQN、C51、 Rainbow agent精简版和ICML 2018上的Implicit Quantile Networks。

 

为了让研究人员能快速比较自己的想法和已有的方法,该框架提供了DQN、C51、 Rainbow agent精简版和Implicit Quantile Networks的玩ALE基准下的那60个雅达利游戏的完整训练数据。

 

另外,还有一组Dopamine的教学colab。

 

相关地址

 

Dopamine谷歌博客:

 

https://ai.googleblog.com/2018/08/introducing-new-framework-for-flexible.html

 

Dopamine github下载:


https://github.com/google/dopamine/tree/master/docs#downloads

 

colabs:

 

https://github.com/google/dopamine/blob/master/dopamine/colab/README.md

 

游戏训练可视化网页:

 

https://google.github.io/dopamine/baselines/plots.html

 

■ 2019趋势展望

DataHack Summit 2018发言人、ArxivInsights创始人Xander Steenbrugge,也是一名强化学习专家,以下是来自他的总结和展望。

 

1、由于辅助学习任务越来越多,增加了稀疏的外在奖励,样本的复杂性将继续提高。在非常稀疏的奖励环境中,效果非常好。

 

2、正因如此,直接在物理世界训练将越来越可行,替代当前大多先在虚拟环境中训练的方法。我预测2019年,会出现第一个只由深度学习训练,没有人工参与而且表现出色的机器人demo出现。

 

3、在DeepMind把AlphaGo的故事延续到生物领域之后(AlphaFold),我相信强化学习将逐步在学术领域外创造实际的商业价值。例如新药探索、电子芯片架构优化、车辆等等……

 

4、强化学习会有一个明显的转变,以前在训练数据上测试智能体的行为将不再视为“允许”。泛化指标将成为核心,就像监督学习一样。

 

AI道德

AI被滥用事故在2018年被频频爆出:Facebook AI助特朗普当选美国总统、Google与美国军方联手开发AI武器、微软为移民和海关执法局(ICE)提供云计算和人脸识别服务……

 

每一次事故都会重新掀起一波对AI道德准则的讨论高潮,一些硅谷科技公司也再次期间制定了企业AI准则。

 

Analytics Vidhya认为,AI道德现在还是一个灰色地带,目前还没有所有人可以遵循的框架,2019年将有更多企业和政府制定相关条例。

 

AI道德规范的制定,现在才刚刚起步。


关键字:NLP  AI技术  编码器 引用地址:2018,仍是AI领域激动人心的一年

上一篇:政府不再补助TFT-LCD产业,改全力扶植OLED?
下一篇:我国工业软件缺口巨大,人才和开源成落地关键因素

推荐阅读最新更新时间:2024-05-03 03:25

基于ADSP-BF561处理器的视频编码器平台
1 硬件平台      1.1 ADSP-BF561处理器     Blackfin561是Blackfin系列中的一款高性能定点DSP视频处理芯片。其主频最高可达750MHz,其内核包含2个16位乘法器MAC、2个40位累加器ALU、4个8位视频ALU,以及1个40位移位器。该芯片中的2套数据地址产生器(DAG)可为同时从存储器存取双操作数提供地址,每秒可处理1200M次乘加运算。芯片带有专用的视频信号处理指令以及100KB的片内L1存储器(16KB的指令Cache,16KB的指令SRAM,64KB的数据Cache/SRAM,4KB的临时数据SRAM)、128KB的片内L2存储器SRAM,同时具有动态电源管理功能。此外,Bl
[模拟电子]
基于单片机的四位BCD编码器电路设计
1 引言 BCD码又称二/十进制码,即二进制编码的十进制码,在设计、测试数字电路硬件过程或是面对带有BCD码接口的集成电路时,常常希望方便、快速地产生BCD码来完成当前的工作,检验硬件电路的正确性,例如锁相频率合成集成电路MC145163P带有4位BCD编码接口,用于设置环路N分频器,通过本文介绍而制作完成后的BCD发生器可以提供4位BCD编码输出,方便地控制每位BCD输出,可以快速地得到BCD编码而完成测试或输出BCD编码接到集成电路的BCD编码接口,无需频繁跳线。 另外,BCD编码有8421码、2421码、余3码等多种形式,本文以常见的8421码为例介绍电路的实现和程序的编写。如果对程序略加修改则可以很方便地实现其
[应用]
人工智能等先进科技推动智能企业 五大新兴技术趋势亟待解决
根据埃森哲年度技术报告“埃森哲2018技术愿景”,人工智能(AI)和其他技术的快速发展正在加速智能企业的创建并使公司能够融入人们的生活。趋势可能会在未来三年中颠覆业务。然而,利用增长机会同时对社会产生积极影响需要一个新的领导时代,以信任和更大的责任为优先。 今年的报告“智能企业:基于你的公司重新定义你的公司”,突出强调了包括人工智能(AI),高级分析和云计算在内的技术的快速发展,使公司不仅能够创造创新产品,服务,还改变人们工作和生活的方式。这反过来又改变了公司与客户和商业伙伴的关系。 作为技术愿景的一部分,埃森哲调查了全球超过6,300家企业和IT主管。超过四分之五的受访者(84%)同意通过技术,公司正在无缝地将自己融入当今人
[机器人]
泡沫之下的AI企业
马云曾说,人工智能不仅仅是技术,更是认识人类未来的一种思维方式;不仅仅是科学家、技术员的挑战,也是政府运营的重大挑战。 马化腾认为,人工智能是一场跨国界、跨学科的科学探索工程,是一场任何企业都不可拒绝的奥林匹克,最终目的是提升人类生活品质。 李彦宏认为,人工智能是堪比工业革命的大革命,它会在很多领域都带给人民不一样的体验,并将在未来发挥重要作用。 AI的本质 什么是人工智能?其实人工智能真正的内涵是“机器学习”,只有在有正确的数据可供学习的情况下,机器才可以真正地、出色地完成某些任务。所以,真正强大的,每个人都应该为此感到兴奋并不是所谓的人工智能。 2016年3月,AlphaGo在围棋大赛中以4比1战胜围棋世界冠军
[嵌入式]
STM32单片机—编码器测速
一、实验工具:STM32开发板一块、L298N电机驱动、直流电机 以及用到的软件(STM32CubeMX、keil4) 二、编码器原理 1.概述:编码器是一种将角位移或者角速度转换成一串电数字脉冲的旋转式传感器。编码器又分为光电编码器和霍尔编码器,我们这里用到的是霍尔编码器。 2.霍尔编码器工作原理:一种通过磁电转换将输出的机械几何位移量转换成脉冲或数字量的传感器,霍尔编码器室友霍尔马盘和霍尔元件组成。霍尔马盘是在一定直径的圆板上等分的布置有不同的磁极。霍尔马盘与电动机同轴,电动机旋转时,霍尔元件检测输出若干脉冲信号,为判断转向,一般输出两组存在一定相位差的方波信号。简单示意图如下: 3.编码器接线图: 4.测速原理:
[单片机]
空心轴不带内置轴承的角度编码器
数控或电子同步轴越来越普遍地使用无框架电机或密封式空心轴电机,尤 其在 机床 行业,印刷机械和纺织机械。这对消除如同步齿型带等带来的机械传动误差,提高传动的位置精度,减少速度波动和提高传动的动态特性显得非常重要。也容比较易设计象附加轴,夹紧轴或材料处理轴的信号线和 电源 线。 这些电机的位置编码器相应地也许要单独的设计。编码器的空心轴内径相应需要50mm。对于带摆动轴的机床旋转工作台轴,其轴径由0.5 米到几米。 如望远镜电机的方位和提升轴要求的直径在5 米以上。 设计人员希望将编码器内置于电机或轴承中从而模块化。如果电机轴承和测量轴达到一定的精度,编码器可以不用内置轴承。本文主要介绍用于带空心轴的驱动电机的模块式编码
[传感器]
空心轴不带内置轴承的角度<font color='red'>编码器</font>
5G、人工智能等多种智能技术,助推了机器人行业的转型升级
2020年的前六个月过的着实有点快,很多人可能还没反应过来,半年的时光就已猝不及防的悄然而逝。不过,这半年对于人们的生活虽没什么真实感,但对于机器人行业来说却是十分的精彩。在经历过抗疫、复工复产等一系列事件之后,机器人也是给自己的上半年留下了浓墨重彩的数笔,接下来,我们不妨通过关键词的形式一起来回顾! 抗疫 提到2020年的上半年,人们首先想到的当然是那场浩浩荡荡的肺炎疫情。这场疫情不仅影响了人们的日常生活,同时也影响了各行各业的发展进程,机器人行业同样也不例外。在此背景下,抗疫便成为了2020开年以来机器人行业企业的首要任务。 那么,如何抗疫呢?有的企业选择将产品投放一线疫区,通过在医疗、餐饮、配送领域的应用,获得
[机器人]
微软将靠人工智能技术进军医疗保健
   继苹果、谷歌陆续将医疗保健市场视为下一个成长领域后,微软近日也打算加入战局,并预告医疗保健市场将随着人工智慧(AI)技术演进而出现革命性新产品。   位于英国剑桥的微软研究中心研究员毕沙普(Christopher Bishop)周三接受CNBC新闻网站访问时表示:「人工智慧可望成为撼动IT产业的最大发明,而医疗产业对国内生产毛额(GDP)的贡献如此可观,因此我们认为医疗领域是人工智慧技术的最佳应用市场。」   虽然人工智慧范畴不断延伸,但多数科技大厂看重的是「机器学习」(machine learning)能力。这项技术正好符合大数据时代的资料处理需求,能透过数据分析来进行预测并归纳出个人化建议回馈给使用者。
[医疗电子]
小广播
最新嵌入式文章
何立民专栏 单片机及嵌入式宝典

北京航空航天大学教授,20余年来致力于单片机与嵌入式系统推广工作。

换一换 更多 相关热搜器件
电子工程世界版权所有 京B2-20211791 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2024 EEWORLD.com.cn, Inc. All rights reserved