Leiphone雷峰网

文章数:16439 被阅读:87952319

账号入驻

类ChatGPT新玩家「商量」入场,商汤如何「日日新」?

最新更新时间:2023-04-11
    阅读数:

多模态的领跑者,大算力的长跑者。” 

作者 | 李梅

编辑 | 岑峰
       
在魔都的东南角临港新片区,商汤科技人工智能计算中心AIDC2022年启动运营,楼宇俯瞰宛若芯片。
ChatGPT以来,国内各家对大模型的追逐马不停蹄,继百度「文心一言」、阿里「通义千言」之后,昨日下午,商汤终于在AIDC亮相了其自研千亿参数中文语言大模型——「商量 SenseChat」。

而商汤这次拿出的,不止一个类ChatGPT。在技术交流日现场,商汤科技CEO徐立展示了商汤「日日新 SenseNova」大模型研发体系,以及文生图、数字人视频生成、3D内容生成等一系列AIGC应用,演示期间惊叹和掌声此起彼伏。

商汤科技CEO徐立展示「日日新」大模型体系
回过头看商汤在过去几年大模型研发和算力基础设施上的积累,观赛者们惊觉:在这一波大模型的竞技场上,商汤原来早有准备,出场迅速,且武艺绝佳。



01
商汤,出场

「苟日新、日日新、又日新」,这句话出自《礼记·大学》中汤之《盘铭》,也是商汤「日日新SenseNova」大模型体系的取名由来,承载了今天我们对大模型快速迭代、走向通用人工智能(AGI)的期待。

目前,商汤已经打造了视觉、自然语言、AIGC多个方向的AI大模型,正在以多模态大模型结合决策智能大模型为起点朝AGI走去。

在商汤这次推出的大模型体系中,备受关注的当是语言大模型「商量」,它的口号是「商量商量,都能解决」。

「商量」一名,实际上点出了ChatGPT类模型的核心,即用户在多轮对话中,通过Prompt「魔法」调教,挖掘大模型解决问题的能力。

在现场,徐立向我们演示了如何与「商量」商量商量。在逻辑推演、语言理解的广度和深度,以及知识的自动及时更新等方面,「商量」的表现都令人印象深刻。

你可以和「商量」互动创作一个故事,过程中用合适的Prompt能引导它讲故事的走向:

对于数学推理题,「商量」也能回答得有理有据:

除了通用的对话能力,商汤还基于语言大模型打造了PDF文件阅读助手、AI代码助手、健康咨询助手等工具。

其中AI代码助手能提供代码补全、注释生成代码、测试代码生成、代码翻译、代码修正、代码重构、复杂度分析等功能。据内部测试,使用AI代码助手的编程效率可提高62%,未来程序员们可以减少枯燥的重复性工作、专注创造性编程了。

基于「日日新」大模型体系,商汤此次还发布了一系列的AIGC模型及应用,包括:

文生图创作平台「秒画 SenseMirage」、数字人视频生成平台「如影SenseAvatar」、3D内容生成平台「琼宇 SenseSpace/「格物 SenseThings」等。 这些应用不仅名字取得典雅而不失贴切,而且其AI生成能力都十分惊艳。

使用「秒画」,基于单卡A100支持,2秒就能获得一张512K分辨率的图片,而且光影真实、细节丰富、风格多变:

一只戴着珍珠耳环的鹦鹉,维米尔风格,12K,高画质,高清,Octane Render

古代中国,唐朝,山峰,河流,夜晚,满月,萤火虫,石桥,超现实,cg渲染,高度细致,华丽,荣耀,史诗,电影感

令人惊叹的史诗中国古代主题,飞龙,巨大,恐高症,青白色薄荷,山脉,云朵,全景,极端全景,中国墨水风格。艺术风格,动态,电影,令人惊叹,逼真的明暗处理,生动,充满活力,8k,辛烷值渲染,不真实,高度细致,概念艺术

更令人称奇的是,只需要20张训练图片,人人都能在5分钟内定制属于自己的LoRA模型。比如当你使用想生成「80年代港风」女子人像,但结果并不理想时,就可以上传20张风格更为贴近的图片,经过几步点击后得到新的LoRA模型。这时再输入相同的Prompt,生成的图像风格相似度就会显著提升。

上行图片由自训练LoRA模型生成
在数字人视频生成平台上,只需要5分钟的真人视频,你就可以用「如影」制作自己的数字人分身,声音动作自然、口型准确,还能说多语语言。这在短视频、电商直播、教育等领域都大有用武之地。

借助「琼宇」和「格物」,用户则可以更高效、低成本地生成三维场景和精细化物件,元宇宙触手可及。

其中,「琼宇」专注于复刻和还原真实空间,其空间重建生成能力可达大城市级尺度,100平方公里的空间也不在话下。传统人工建模10000/天的建模任务,通过琼宇只需要2天就能完成。

「格物」支持物体3D内容生成,使用它来复刻还原物体的光照、材质细节,效率相比传统建模能提升400%


02

从视觉走向多模态


超大规模神经网络的能力「涌现」,是一种发现而非发明。ChatGPT演示了AI大模型的能力,建立了人们对大模型实现通用人工智能(AGI)潜力的共识,也掀起了AIGC淘金热。

对商汤而言,ChatGPT则印证了:过去几年,商汤做对了。

在国内群雄逐鹿AI大模型的当下,商汤在其中究竟扮演了怎样的角色?雷峰网的观点是,各家有各家的位置。商汤的位置已经清晰:

一是「日日新SenseNova」大模型体系以CV、NLP、AIGC等为核心,目标打造多模态大模型、最终通向AGI

二是拥有业内稀缺的大模型专业基础设施SenseCore AI大装置;

三是以「大模型+大装置」的路线在业务和行业落地。

2018年起,商汤便在往通用模型的方向走,在2019年预见性地储备了1000GPU10亿参数的图像大模型就是2019年发布,在之后的招股书中,商汤更是把AI大模型的布局写了进去。到2022年,商汤训练出了320亿参数的通用视觉大模型,是迄今全球最大的通用视觉模型,在目标检测、图像分布、多物体识别等任务上取得了非常好的性能。

2021年,商汤也启动了语言大模型的训练,并在NLP顶级赛事中拿下过多个第一。最近则调动资源火速训练出了1800亿参数的中文语言大模型「商量SenseChat」,已经开始和客户对接测试。

多模态方面,商汤在今年三月开源了30亿参数的「书生2.5」大模型,具备很强的图文跨模态开放任务处理能力,而且是目前全球开源模型中ImageNet准确度最高、规模最大、物体检测标杆数据集COCO中唯一超过65.0 mAP的模型。

这种依托领先的视觉技术优势,逐步向多模态拓展的技术路线,既是视觉AI领跑者商汤的必然选择,也在技术层面有着逻辑合理性。

视觉是人类获取周遭世界信息的最主要渠道,五感中大约有80%的信息都是以肉眼获取的。另外,视觉信息也在互联网数据分布中占很高的比例,据统计,若爬取整个互联网的文本数据,经过数据清洗后得到的只有不到10T,而已有的图像公开数据集中最大的包含50亿张图像,大小约240T,所谓「一图胜千言」,AI要处理的视觉信息远比文本信息要多得多。所以,在视觉与语言信息具有互通性的前提下,以视觉为起点去扩展大模型的其他能力如语言、代码、数学等,符合人类理解世界的方式。

还有很重要的一点是,以ChatGPT为代表的语言大模型其核心并不在于「语言」,而在于作为一种新方法的「大模型」。在这一波语言大模型浪潮中,为什么原本做NLP的一批公司并未如预想的那样崛起,反而有的还「倒」在了大模型的脚下?就是因为通用大模型基于深度学习和超大规模神经网络(Transformer为代表),把这些公司原本在传统NLP技术上的竞争优势给无情抹平了。

所以,基于对大模型、大装置领域的长期积累,以及基础设施投入,让商汤在短时间内交出了千亿级别的语言大模型,并确立了完整的商汤日日新大模型体系。

在商汤看来,多模态大模型是通往AGI的光明之路。如果以人的受教育程度来衡量大模型的智能水平,GPT-4目前已能媲美90%以上的大学生。让大模型能够「考上大学」、「通修全科」,这也是商汤的AGI愿景。


03

算力的长跑

大模型非一日之功,大算力更非一天能建成。大模型浪潮掀起,但入局者大多面临着算力之困:许多下场的企业并没有足够的算力储备;英伟达A100A800仍是训练大模型的最优选,国产芯片目前还仅能去做小模型和中模型的训练和推理,在大模型上性价比没那么高。

真正能够马上提供足够算力支持的没有几家,商汤就是其中一个。支持商汤大模型训练的SenseCore AI大装置目前拥有2.7万块GPU,是亚洲最大的智算中心之一。其输出的算力十分惊人:

峰值算力高达5000Petaflops;可以并行训练20个以上的ChatGPT类模型;1750亿参数的GPT-3AIDC一天就能完成1次训练

商汤临港智算中心AIDC
商汤之所以能在这一波迅速入局,一个重要原因是商汤很早意识到算力的重要性并有长期布局。

商汤科技CEO徐立提出,AGI时代的大模型新公式是:大模型参数量×处理的数据量=计算量。其中,大模型参数量的指数级增长对算力的需求无需多言,商汤对大算力的预见性还在于多模态数据方面,这种预见很自然地发生在商汤的视觉模型研发经验中。

一个对比是,由于视觉数据的数量、质量和信息容量上都比语言数据要大得多,视觉模型对算力的消耗相当于语言模型的10倍。商汤在2019年训练出的10亿参数视觉模型,实际上就要求有支撑100亿语言模型训练的算力,这促使商汤很早就开始了算力长跑。

不过,高算力并不是简单地堆砌大量GPU卡就能实现,而是需要一个有强大系统设计的超大规模训练集群,因为大模型的计算量是GPU数量、并行效率、运行时间三者的乘积。这当中,并行效率和运行时间是两个技术关键,商汤大装置在这两个方面已经造就了工程奇迹。

一是并行效率非常高。1千卡级到34千卡级,再到1万张卡级大规模集群的部署,训练集群的规模会有可预见的增长,但大模型训练的并行效率才决定了实际算力。如果系统效率低下,1万张卡相比1千张卡的训练效率只能提高2倍,经济上很不划算。现在商汤大装置在千卡级已经达到90%以上的线性度,能够以最大4千卡的规模集群进行单任务训练。

事实上,商汤很早就奠定了强大的系统和架构能力。19年商汤曾创造一个记录,实现了全球最快的AlexNet训练速度,当时已具备并行计算上千块GPU的能力,这是很罕见的。

二是系统稳定性极强,目前可以做到7天以上不间断的稳定训练。商汤科技联合创始人、大装置事业群副总裁陈宇恒介绍,每天每1千张GPU中,约有1张卡会出现故障,那么有1万张卡的时候,每天的故障率会更多,估计下来,平均无故障时间可能就只有一两个小时,这样的系统是没法使用的。

商汤从硬件的可靠性到软件的容错度都实现了良好的设计,7天,实际上是非常了不起的,即使是背靠微软AzureOpenAI也望尘莫及,据官方公布,OpenAI训练模型时两三天就可能断一次点。


04

「大模型+大装置」双轮落地

商汤一次性推出大模型体系和多个生成式AI应用,向业界表明,商汤大模型的技术与落地是在同时进行的。

从数十亿参数级的大模型开始,在每一次的迭代中,商汤都将大模型用在实际的产品和行业中,构建用户反馈的闭环。通过飞轮效应,一方面把模型越做越大,另一方面把模型越做越有用,而非一步登天地做出一个万亿级模型、却无法在真实场景中落地。

这种更为平滑的路线,适合商汤自身,也向行业释放了大模型的生产力。

如今,商汤的产品体系和技术体系,都可以依托大模型去做支撑。「日日新」大模型体系已经深度结合在商汤的智能汽车、智慧生活、智慧商业、智慧城市四大业务板块中。

比如在自动驾驶方面,商汤已通过视觉大模型解决了迈向L3 L4商用级过程之中的至少两个痛点。一是把视觉大模型用作一个过滤器和半自动标注的机器人,去进行数据的筛选和预标注,能提高4倍的效率。二是视觉大模型能避免数据遗忘,有非常强的泛化能力,因此能解决传统小模型无能为力的Corner Case(边缘场景)问题。

另外在生物医药领域,商汤去年与生物企业合作,通过AI大装置为蛋白质结构大模型提供推理算力,把推理时间缩短了60倍,只需要数分钟就能得到蛋白质结构预测结果。

同时,商汤还通过大装置AI云将大模型的能力输出到了各个行业和场景中。

关于大模型的行业落地,最近很热的一个概念是「模型即服务」(Model as a ServiceMaaS )。在商汤看来,MaaS只是AI大模型商业化、产品化的其中一个模式,人工智能即服务(AI as a serviceAIaaS)是一个包含更广的概念。2022年,商汤AIDC开启商业化,将AI能力移植上云,在包括MaaS在内的各个层面都提供了不同服务和商业模式的方向:

在计算基础设施服务层(IaaS),提供AI专用的算力存储网络服务,输出大算力。

在平台层(PaaS):既提供多种MaaS服务,包括自动化数据标注平台「商汤明眸SenseAnnotation」、自定义大模型训练、模型增量训练、模型推理部署、开发效率提升等,同时也开放API接口,支持自由调用「日日新」大模型的各项AI技术能力。

这一套服务在商业化上是很成功的。数据显示,目前大装置已经服务8家客户训练大模型,总共提供了7000多张GPU卡,支持了超过10个大模型训练项目。在收入方面,大装置的对外服务收入占到了整个智慧商业板块收入的20%AlaaS收入约2.93亿元。

如今的商汤已经进入无人之境。在算力基础设施层面,如何将上万块的计算卡与低延迟、高稳定、高吞吐的方式去互联,完成超大规模训练任务,是商汤接下来要应对的挑战。在大模型技术层面,未来怎样通过端云的配合完成大模型的应用闭环,也是一个长期命题。AGI的征途还很远,商汤会继续做时间的朋友。

//

近期热门文章



最新有关Leiphone雷峰网的文章

 
EEWorld订阅号

 
EEWorld服务号

 
汽车开发圈

About Us 关于我们 客户服务 联系方式 器件索引 网站地图 最新更新 手机版

站点相关: TI培训

北京市海淀区中关村大街18号B座15层1530室 电话:(010)82350740 邮编:100190

电子工程世界版权所有 京B2-20211791 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2024 EEWORLD.com.cn, Inc. All rights reserved