说起智能相机,你首先会想到什么?是时下具有人脸识别功能的相机,还是能根据所拍摄物体不同而自动调整相应参数的相机?
实际上,无论相机再如何“智能”,都不能脱离“相机”的本质。相机的第一要务是要“拍得清”,只有拍摄到足够多、足够清晰的画面,其他功能才能有发展的舞台。但现在,讨论“如何识别”的话题很多,讨论“如何让成像变得更好”的话题却很少。
11月23日,2018技术创新及应用国际研讨会在苏州昆山举行,这是一场行业内罕见地围绕智能相机成像技术展开的专业研讨会,来自麻省理工学院、清华大学、南京大学等国内外知名高校的学者,以及来自中兴、安科迪等产业界的代表人士纷纷参与到大会中,探讨成像技术的变革方向,以及新一代成像技术带来的交互式视频播放的商业应用。
亿欧采访到了本次研讨会的承办方——安科迪科技的CEO王惠东以及CTO范柘,他们告诉亿欧,阵列计算成像技术将造就下一代成像技术,而成像技术的变革不仅能扩展当前AI的应用,还将带动整个视频产业链的改变。
为什么讨论成像?因为今天的成像还没有实质性的突破
“为什么现在很少主流的声音讨论成像?那是因为现在的成像没有一个实质性的突破,还没能影响到现在普通人的生活。”王惠东告诉亿欧。
成像技术的发展历程可以简单划分为三个阶段。
第一个阶段是胶卷时代,光信号通过镜头后,由胶卷获取图像数据,即“镜头+胶卷”。
第二个阶段是数码时代,光信号通过镜头后,经过传感器,传感器将光信号转化为数字信号,再将图像数字信号还原成我们看到的图片。数码时代的成像技术可以用“镜头+传感器”来概括。
1991年柯达试制成功世界第一台数码相机,至此相机开始从胶卷时代步入数码时代,我们现在使用的相机,大部分都是数码相机。虽然数码相机的像素,已经最初的十万级别升级为现在的千万级别,但成像的原理依然离不开“镜头+传感器”。
虽然像素在不断提升,我们拍照也越来越清晰,数码时代的成像技术似乎已经能满足我们摄影的需要,为什么我们还需要新一代的成像技术?
“在AI时代,摄像机一定要能看得更远、看得更清、看得更多,这是必然的趋势。”王惠东说,AI时代对数据量的需求猛增,无论是人脸识别还是车型识别,前提都是要“看得清”,即获取足够的图像数据,但现在摄像机的分辨率显然不能满足需求。
由于分辨率不足,各厂商纷纷推出了各种补偿方法,比如增加摄像机数量、通过算法改善分辨率,但范柘认为,这些都是“治标不治本”的方法。增加摄像机数量,带来的是安装和维护成本的升高;用AI算法改善目前在技术层面仍无法完全得到保障。而“治本”的方法就是从源头下手,从成像上进行改善。
那么,什么样的成像技术才能突破现在成像的局限,成为第三代的成像技术?答案是阵列成像技术。
列阵成像技术何以被称为革命性的新一代成像技术?
什么是阵列成像技术?
从结构上看,阵列式相机是一个主镜头+N个微型镜头阵列式结合的跨尺度成像相机,形态类似于昆虫的复眼结构。阵列相机内的微型镜头根据不同的光路设计,可以捕捉到不同距离的图像。但由于图像数据量巨大,阵列式相机本身需要具备处理运算能力,这也就是第三代阵列式计算相机与前文提到的使用感官元件的第二代相机最大的区别。
通俗地说,就是将一组数量多达几十甚至上百的镜头组合起来,形成一组镜头阵列。因为多个镜头同时工作,人们可以在摄像过程中获得多个焦点,在保证足够清晰度的情况下,极大程度地拓宽用户的视野,同时还可以将同一视角下的场景做动态记录。阵列计算相机的极致效果,就是范围内所有的人与物无所不见。
王惠东认为,多镜头技术越来越受到公众和市场的关注和认可。以手机为例,现在不少手机都开始有“双摄”,最近推出的华为Mate20还是“三摄”。
镜头的叠加能弥补单镜头在拍摄上的缺陷,“但单纯地增加镜头,只能改善静态拍照,而阵列式成像能变革连贯的视频图像的拍摄,而能全方位、清晰地捕捉动态视频数据,才是能称得上是行业内技术的变革。”王惠东告诉亿欧。
据了解,目前静态图像数据能达到千万级别,但动态图像数据仅达到百万级别。而阵列计算成像技术首次将多幕镜头的大量图像数据采集和计算机数据处理有机整合,前所未有的数量级的提高了现有的动态成像能力(从目前的百万级像素到十亿级像素),同时也彻底改变了单镜头成像单一焦平面的局限,使多景深多角度的动态成像成为可能,为视频图像拍摄带来了全新的革命。
数据主义时代,获取数据的变革将带动视频产业链升级
“我们把现在这个时代称为数据主义时代。”王惠东说,“在数据主义的时代,就需要有获取数据的能力,传输数据的能力和解析处理数据的能力。”而这几种能力分别对应着视频产业链的不同环节,安科迪所处的正是“获取数据”的这一环,而获取数据的方式和获取数据量的增加,将直接带动整个视频产业链的升级。
得益于阵列成像技术,摄像机能捕捉到到的范围更广,距离更远,换言之,获取到的图像数据量更大了,而这首先会对“传输数据的能力”带来考验。
“数据量大了,原来的4G传输不够用了,所以我们需要5G。”王惠东说。
为什么通信技术要不断地升级?很重要的一个原因是数据量在不断地增大。最开始,人们是需要发短信、打电话,2G网络足矣。后来,人们慢慢地开始需要收发图片、视频……对图片和视频清晰度的要求也越来越高,2G网络显然无法满足如此大数据量的传播,因此3G、4G应运而生,走入寻常百姓家。
同理,阵列成像技术带来的是视频图像数据量成倍的增长,而这将催生更快、更宽的通信网络。
传输数据之后,就需要解析和处理数据。“目前AI应用最广的领域,就是视频图像分析。”王惠东说。原来单个镜头只能拍摄到三到五米内的视频图像,但阵列成像技术能拍摄到一百米甚至几百米外的图像,这极大地扩展了AI的应用空间。
“原来如果连图像都无法拍到,无法获得数据,那AI的应用就无从谈起。”王惠东告诉亿欧,以机场为例,机场跑道长3公里,工作人员需要在跑道的一端看到另一端的飞机型号及所属航空公司,但由于市面上还没有出现一台拍摄范围能覆盖整条跑道的相机,目前大部分机场采用的是雷达探测,最后再用人眼确认相应信息。
“这样的方法存在许多不可控因素。”王惠东说,这么远的距离,人眼无法确认飞机型号、起落架是否规范设置等。但安科迪的阵列成像技术可以做到“一台摄像机拍清整条跑道”,“本来因为看不清的,视频分析根本无用武之地,但能看清后,机型识别、异物识别等算法都能在机场跑道这个场景找到应用市场。”
交互式视频播放,开启以用户体验为中心的视频时代
“刚刚讲了很多技术如何变革的东西,但可能作为普通用户,还是不知道这个技术能给他们带来什么。”王惠东说,视频最终是要让人观看的,最终能让人感受到阵列成像技术带来变革性变化的是视频观看方式的改变。
过去人们只能“被动”观看视频,即“别人拍什么,我们看什么”。但由于成像能力和成像方法(多景深多视角)的改变,未来用户不是只能被动观看视频,而是第一次以用户体验和个性选择为中心的交互式视频播放,这将极大的提升视频播放过程的互动参与感,彻底改变人们的视频欣赏习惯。
以体育转播为例,传统的观看方式是导播切到什么画面,观众就看什么画面,所有观众看的内容都是一样的。
但交互式视频播放能够让观众根据自己的兴趣选择观看的画面,“有的人看3号球员,有的人看观众席,有的人看裁判……每个人都能主动选自自己观看的画面。”王惠东介绍说。交互式视频播放将完全颠覆现有的视频播放方式,未来观众的视频欣赏习惯也将完全改变,从而带动视频产业链的其他环节也发生改变。
据了解,第一套交互式视频播放实用系统将在明年下半年投入实测。同时,安科迪也将率先从技术上完成交互式视频播放云计算处理中心的搭建,未来将联合中移动,中兴通讯,华为等5G传输供应商、运营商共同布局智能相机在5G时代的应用推广。
进军智能消费相机领域
安防是安科迪产品渗透的第一个重要场景。范柘告诉亿欧,卡口、大型广场、停车场等大量安防典型场景的摄像机分辨率并不能满足需求,且国内安防市场巨大,因此安科迪首先选择安防作为落地场景。
安科迪CTO范柘
而消费级相机就是安科迪的下一个目标。
王惠东告诉亿欧,安科迪已经开始和国内主流的手机厂商合作,预计明年底前将推出基于安科迪智能相机技术的第一代多幕镜头同时摄像的手机。
“未来搭载安科迪技术的智能消费硬件还能与交互式视频播放云计算处理中心相连,拍摄的图像数据能够上传至云计算中心,当用户需要将视频分享给亲朋好友时,可以感受到直接参与的交互式视频播放体系。”王惠东说。
未来安科迪将进军更多的场景,为了满足更多不同场景和不同行业相机使用的需要,安科迪还推出了全专利自主知识产权的专用标准镜头模组系列,同时也将推智能相机控制软件系统。
王惠东表示,安科迪目前还是一家技术公司,但随着自研镜头模组走向商业化、阵列成像技术的应用范围不断拓宽,安科迪未来也将从一个单纯的技术公司,转型为一家控制下一代成像技术供应链的公司,成为视频产业链中必不可缺的基础设施。
- 兆易创新GD25/55全系列车规级SPI NOR Flash荣获ISO 26262 ASIL D功能安全认证证书
- 新型IsoVu™ 隔离电流探头:为电流测量带来全新维度
- 英飞凌推出简化电机控制开发的ModusToolbox™电机套件
- 意法半导体IO-Link执行器电路板为工业监控和设备厂商带来一站式参考设计
- Melexis采用无磁芯技术缩小电流感测装置尺寸
- 千丘智能侍淳博:用数字疗法,点亮“孤独症”儿童的光
- 数药智能冯尚:ADHD数字疗法正为儿童“多动症”提供更有效便捷服务
- Vicor高性能电源模块助力低空航空电子设备和 EVTOL的发展
- 创实技术electronica 2024首秀:加速国内分销商海外拓展之路
- “跨芯片”量子纠缠实现 有助建构更强大的量子计算能力