人工智能的技术滥用问题如何面对?

发布者:知识阁楼最新更新时间:2017-08-22 来源: 21IC中国电子网关键字:人工智能  技术滥用  隐私保护 手机看文章 扫描二维码
随时随地手机看文章

在1956年美国达特茅斯学院召开的学术研讨会上,人工智能(AI)首次成为一个正式学术领域,发展至今已有60多年的历史。随着人工智能技术的不断成熟,会有越来越多的机器人或智能程序充当人类助手,帮助人们完成复重性、危险性的任务。然而,随着人工智能技术的成熟和大范围应用的展开,人们可能会面临越来越多的安全、隐私和伦理等方面的挑战。下面就随手机便携小编一起来了解一下相关内容吧。

安全性挑战

人工智能技术应用引发的安全问题源于不同的原因,主要有以下几点。

技术滥用引发的安全威胁

人工智能对人类的作用很大程度上取决于人们如何使用与管理。如果人工智能技术被犯罪分子利用,就会带来安全问题,例如,黑客可能通过智能方法发起网络攻击,智能化的网络攻击软件能自我学习,模仿系统中用户的行为,并不断改变方法,以期尽可能长时间地停留在计算机系统中;黑客还可利用人工智能技术非法窃取私人信息;通过定制化不同用户阅读到的网络内容,人工智能技术甚至会被用来左右和控制公众的认知和判断。

技术或管理缺陷导致的安全问题

作为一项发展中的新兴技术,人工智能系统当前还不够成熟。某些技术缺陷导致工作异常,会使人工智能系统出现安全隐患,比如深度学习采用的黑箱模式会使模型可解释性不强,机器人、无人智能系统的设计、生产不当会导致运行异常等。另外,如果安全防护技术或措施不完善,无人驾驶汽车、机器人和其他人工智能装置可能受到非法入侵和控制,这些人工智能系统就有可能按照犯罪分子的指令,做出对人类有害的事情。

未来的超级智能引发的安全担忧

远期的人工智能安全风险是指,假设人工智能发展到超级智能阶段,这时机器人或其他人工智能系统能够自我演化,并可能发展出类人的自我意识,从而对人类的主导性甚至存续造成威胁。比尔·盖茨、斯蒂芬·霍金、埃隆·马斯克、雷·库兹韦尔等人都在担忧,对人工智能技术不加约束的开发,会让机器获得超越人类智力水平的智能,并引发一些难以控制的安全隐患。一些研究团队正在研究高层次的认知智能,如机器情感和机器意识等。尽管人们还不清楚超级智能或“奇点”是否会到来,但如果在还没有完全做好应对措施之前出现技术突破,安全威胁就有可能爆发,人们应提前考虑到可能的风险。

隐私保护挑战

大数据驱动模式主导了近年来人工智能的发展,成为新一轮人工智能发展的重要特征。隐私问题是数据资源开发利用中的主要威胁之一,因此,在人工智能应用中必然也存在隐私侵犯风险。

数据采集中的隐私侵犯

随着各类数据采集设施的广泛使用,智能系统不仅能通过指纹、心跳等生理特征来辨别身份,还能根据不同人的行为喜好自动调节灯光、室内温度、播放音乐,甚至能通过睡眠时间、锻炼情况、饮食习惯以及体征变化等来判断身体是否健康。然而,这些智能技术的使用就意味着智能系统掌握了个人的大量信息,甚至比自己更了解自己。这些数据如果使用得当,可以提升人类的生活质量,但如果出于商业目的非法使用某些私人信息,就会造成隐私侵犯。

云计算中的隐私风险

因为云计算技术使用便捷、成本低廉,提供了基于共享池实现按需式资源使用的模式,许多公司和政府组织开始将数据存储至云上。将隐私信息存储至云端后,这些信息就容易遭到各种威胁和攻击。由于人工智能系统普遍对计算能力要求较高,目前在许多人工智能应用中,云计算已经被配置为主要架构,因此在开发该类智能应用时,云端隐私保护也是人们需要考虑的问题。

知识抽取中的隐私问题

由数据到知识的抽取是人工智能的重要能力,知识抽取工具正在变得越来越强大,无数个看似不相关的数据片段可能被整合在一起,识别出个人行为特征甚至性格特征。例如,只要将网站浏览记录、聊天内容、购物过程和其他各类别记录数据组合在一起,就可以勾勒出某人的行为轨迹,并可分析出个人偏好和行为习惯,从而进一步预测出消费者的潜在需求,商家可提前为消费者提供必要的信息、产品或服务。但是,这些个性化定制过程又伴随着对个人隐私的发现和曝光,如何规范隐私保护是需要与技术应用同步考虑的一个问题。

伦理规范挑战

伦理问题是人工智能技术可能带给人们的最为特殊的问题。人工智能的伦理问题范围很广,其中以下几个方面值得关注。

机器人的行为规则

人工智能正在替代人的很多决策行为,智能机器人在作出决策时,同样需要遵从人类社会的各项规则。比如,假设无人驾驶汽车前方人行道上出现3个行人而无法及时刹车,智能系统是应该选择撞向这3个行人,还是转而撞向路边的1个行人?人工智能技术的应用,正在将一些生活中的伦理性问题在系统中规则化。如果在系统的研发设计中未与社会伦理约束相结合,就有可能在决策中遵循与人类不同的逻辑,从而导致严重后果。

机器人的权力

目前在司法、医疗、指挥等重要领域,研究人员已经开始探索人工智能在审判分析、疾病诊断和对抗博弈方面的决策能力。但是,在对机器授予决策权后,人们要考虑的不仅是人工智能的安全风险,而且还要面临一个新的伦理问题,即机器是否有资格这样做。随着智能系统对特定领域的知识掌握,它的决策分析能力开始超越人类,人们可能会在越来越多的领域对机器决策形成依赖,这一类伦理问题也需要在人工智能进一步向前发展的过程中梳理清楚。

机器人的教育

有伦理学家认为,未来机器人不仅有感知、认知和决策能力,人工智能在不同环境中学习和演化,还会形成不同的个性。据新华网报道,国外研发的某聊天机器人在网上开始聊天后不到24个小时,竟然学会了说脏话和发表种族主义的言论,这引发了人们对机器人教育问题的思考。尽管人工智能未来未必会产生自主意识,但可能发展出不同的个性特点,而这是受其使用者影响的。机器人使用者需要承担类似监护人一样的道德责任甚至法律责任,以免对社会文明产生不良影响。

启示与建议

人类社会即将进入人机共存的时代,为确保机器人和人工智能系统运行受控,且与人类能和谐共处,在设计、研发、生产和使用过程中,需要采取一系列的应对措施,妥善应对人工智能的安全、隐私、伦理问题和其他风险。

加强理论攻关,研发透明性和可解释性更高的智能计算模型

在并行计算和海量数据的共同支撑下,以深度学习为代表的智能计算模型表现出了很强的能力。但当前的机器学习模型仍属于一种黑箱工作模式,对于AI系统运行中发生的异常情况,人们还很难对其中的原因作出解释,开发者也难以准确预测和把握智能系统运行的行为边界。未来人们需要研发更为透明、可解释性更高的智能计算模型,开发可解释、可理解、可预测的智能系统,降低系统行为的不可预知性和不确定性,这应成为人工智能基础理论研究的关注重点之一。

开展立法研究,建立适应智能化时代的法律法规体系

欧盟、日本等人工智能技术起步较早的地区和国家,已经意识到机器人和人工智能进入生活将给人类社会带来的安全与伦理问题,并已着手开展立法探索,如2016年5月,欧盟法律事务委员会发布《就机器人民事法律规则向欧盟委员会提出立法建议》的报告草案,探讨如何从立法角度避免机器人对人类的伤害。有效应对未来风险挑战需强化立法研究,明确重点领域人工智能应用中的法律主体以及相关权利、义务和责任,建立和完善适应智能时代的法律法规体系。

制定伦理准则,完善人工智能技术研发规范

当人工智能系统决策与采取行动时,人们希望其行为能够符合人类社会的各项道德和伦理规则,而这些规则应在系统设计和开发阶段,就需被考虑到并被嵌入人工智能系统。因此,需要建立起人工智能技术研发的伦理准则,指导机器人设计研究者和制造商如何对一个机器人做出道德风险评估,并形成完善的人工智能技术研发规范,以确保人工智能系统的行为符合社会伦理道德标准。

提高安全标准,推行人工智能产品安全认证

可靠的人工智能系统应具有强健的安全性能,能够适应不同的工况条件,并能有效应对各类蓄意攻击,避免因异常操作和恶意而导致安全事故。这一方面需要提高人工智能产品研发的安全标准,从技术上增强智能系统的安全性和强健性,比如完善芯片设计的安全标准等;另一方面要推行智能系统安全认证,对人工智能技术和产品进行严格测试,增强社会公众信任,保障人工智能产业健康发展。

建立监管体系,强化人工智能技术和产品的监督

由于智能系统在使用过程中会不断进行自行学习和探索,很多潜在风险难以在研发阶段或认证环节完全排除,因此加强监管对于应对人工智能的安全、隐私和伦理等问题至关重要。建议在国家层面建立一套公开透明的人工智能监管体系,实现对人工智能算法设计、产品开发、数据采集和产品应用的全流程监管,加强对违规行为的惩戒,督促人工智能行业和企业自律。

推动全球治理,共同应对风险挑战

人工智能的快速发展是全球各国共同面临的问题,应明确科学家共同体、政府与国际组织各自的职责,引导各国积极参与人工智能全球治理。加强机器人伦理和安全风险等人工智能国际共性问题研究,深化人工智能法律法规、行业监管等方面的交流合作,推进人工智能技术标准和安全标准的国际统一,使人工智能科技成就更好地服务于人类社会。

以上是关于手机便携中-人工智能的技术滥用问题如何面对?的相关介绍,如果想要了解更多相关信息,请多多关注eeworld,eeworld电子工程将给大家提供更全、更详细、更新的资讯信息。

关键字:人工智能  技术滥用  隐私保护 引用地址:人工智能的技术滥用问题如何面对?

上一篇:Intel正式发布第8代酷睿处理器:性能疯狂提升40%
下一篇:马斯克与116位AI专家联名上书,终止杀人机器人的开发与使用

推荐阅读最新更新时间:2024-05-03 17:04

第四代第四代人工智能配网带电作业机器人作业
第四代人工智能配网带电作业机器人,在天津市滨海新区完成首次作业后投入使用。目前,已成功完成双臂自主、单臂人机协同、单臂辅助自主 3 种人工智能配网带电作业机器人研发,并全面投入配网运行工作,有效防范作业中人身安全风险,有力保障电网安全稳定运行。 人工智能配网带电作业机器人经历了四代产品研发,运用了三维环境重建、视觉识别、运动控制等核心科技,首创应用于线缆识别定位的多融合技术,首次提出基于的双臂机器人带电接引流线作业的路径规划算法,自主研发出适用于带电作业机器人的末端执行,实现机器人自主识别引线位置、抓取引线,完成剥线、穿线和搭火等工作,有效杜绝传统人工带电作业的人身安全风险,大幅降低劳动强度,提升作业质量。 IT之家了解
[机器人]
智能家居行业迎发展期 它让生活变得简单还是麻烦?
资料图:观众在参观 智能家居 机器人 。  智能家居让生活变得更简单还是更麻烦   如果让两支队伍进行一场“智能家居让生活变得更简单还是更麻烦”的辩论赛,会是什么情景? 如果这场辩论赛在本世纪之前开始,那么很大可能会无疾而终。1999年之前,中国还没有出现从事专业智能家居的生产商,只在深圳有一两家从事进出口业务的智能家居代理商,而用户大多是居住在中国的欧美用户。 如果这场辩论赛发生在本世纪初的5年,很有可能是正方完胜。这几年,中国先后成立了50多家智能家居研发生产企业,主要集中在北上广深等大城市,智能家居概念也逐渐被国人熟悉。 之后的5年,格局又反转。企业的野蛮生长、夸大的宣传营销,让遭遇“
[安防电子]
AI出海:盘点走向国际的中国人工智能企业
出海是指中国以移动互联网、人工智能、共享经济等新技术和新商业模式向海外拓展的行为,其本质是新兴技术产业的出口。品途商业评论关于2017亚太区域互联网创新创业高峰论坛的报道中指出,从中国AI科技企业的融资、团队和发展规模来看,在全球范围内已经具备了一定的竞争力;随着中国政府一带一路的政策加持,中国AI科技创新领域的优秀企业已经在其他国家和地区崭露头角。人工智能如今已是遍地开花,如何在泡沫中寻找明晰的发展路径,显得尤为重要。国内投资的持续上升和竞争的加剧,也在客观上推动了中国的AI科技企业走出国门,进入不发达的市场和地区。下面请看人工智能企业出海盘点: 优必选 2017年12月,优必选入选CB Insights评选出的“AI 1
[机器人]
AI模型可预测癌症原发灶位点
根据《自然·医学》杂志7日发表的一篇论文,美国麻省理工学院和达纳-法伯癌症研究所的研究人员开发了一种新方法,使识别一些神秘癌症的原发灶位置变得更容易。 在原发灶不明的癌症中,癌细胞已在体内扩散,但原发癌的起始位置尚不清楚。 图片来源:美国国立卫生研究院 研究人员利用近3万名22种已知癌症的患者数据来训练机器学习模型,它可分析大约400个基因序列,这些基因经常在癌症中发生突变。然后,研究人员使用这些信息来预测给定的肿瘤在体内的起源位置。 他们在约7000个肿瘤上测试了新模型OncoNPC,这些肿瘤以前从未见过,但其起源已知。该模型能以80%的准确率预测它们的起源。对于占总数约65%的具有高置信度预测的肿瘤,其准确率达到约95%
[医疗电子]
<font color='red'>AI</font>模型可预测癌症原发灶位点
这样的AI芯片公司在2019年很危险!
2018年,中兴事件引发中国“缺芯“的大讨论,恰逢第三次AI热潮,国内外科技巨头也纷纷入局AI芯片市场,再加上传统芯片巨头以及初创公司的积极布局,2018年的AI芯片市场十分热闹。不过,2019年全球迎来资本寒冬,国际贸易环境和半导体市场也不容乐观,需要大量资本且较长的芯片周期让AI芯片玩家面临巨大挑战。那么,谁会大概率先倒下? 雷锋网采访了处于不同商业化进程的3家AI芯片初创公司的创始人,以及擅长在半导体领域投资的投资人,共同回顾AI芯片的2018年并展望2019年。 2018年AI芯片过热了吗? 2018年的AI芯片市场引发了企业、资本甚至国家之间的竞赛。老牌芯片厂商英特尔、英伟达不仅收获了更多AI芯片的订单,还持续增加对AI
[手机便携]
这样的<font color='red'>AI</font>芯片公司在2019年很危险!
AI芯片研发正火 三星开始投石问路
人工智能(AI)芯片模仿人类脑部运作设计而成,AlphaGo与棋王的对决让世人对AI技术刮目相看。继英特尔(Intel)、高通(Qualcomm)加快AI芯片的研发脚步之后,三星电子(Samsung Electronics)也透露有意进军相关市场。   据韩媒ET News报导,三星电子半导体部门负责人金奇南日前表示,以目前的中央处理器(CPU)与绘图处理器(GPU)无法让AI运算有效率,但神经网路处理器(Neural Network Processing Unit;NPU)则可弥补不足之处。言下之意暗指三星有意将智能手机移动应用处理器(AP)与NPU技术相结合。   NPU模仿脑神经网路,具备反覆机器学习(Machine Lea
[半导体设计/制造]
AI发展的一大挑战——储存器
边缘计算性能的提升给存储器的设计,类型的选择和配置都带来挑战,这也导致在不同的应用市场中需要进行更复杂的权衡。 芯片架构正在与新市场一起发展,但数据在芯片、设备之间以及系统之间如何移动并不总是很清楚。汽车和AI应用的数据正变得越来越多和复杂,但芯片架构在处理时有时不清楚如何优先处理数据。这让芯片设计人员面临抉择,是选择共用内存降低成本,还是增加不同类型内存提高性能和降低功耗。 所有这些都是以安全为前提,并且不同的市场设计的要求也不一样。比如,汽车中的各种类型的图像传感器(如激光雷达和摄像头)的大量数据需要在本地处理。AI芯片则希望性能能够提升100倍。 解决内存问题有一些方法,其中一种是片上存储器,也就是将存储器分散地
[手机便携]
<font color='red'>AI</font>发展的一大挑战——储存器
Synopsys展现如何利用AI进行下一代芯片开发
本文编译自福布斯 Synopsys的Sassine Ghazi 首次以CEO的身份登台 SNUG。另外,NVIDIA CEO黄仁勋也在参加完GTC之后,便来到SNUG现场,与Synopsys讨论了公司的合作等事宜。 根据黄仁勋的说法,当NVIDIA公司刚刚起步时,Synopsys就向NVIDIA交付了一箱又一箱的软件手册。如果芯片流片出现错误之后,那么当时作为初创公司的NVIDIA就会破产,因此他们需要 Synopsys 仿真和设计工具来确保芯片开发的万无一失。 一万亿晶体管和埃米的旅程 Sassine和黄仁勋在会议开始时讨论了芯片设计人员面临的挑战,从芯片复杂性到Chiplets小芯片,再到系统设计和芯片设计的交
[半导体设计/制造]
Synopsys展现如何利用<font color='red'>AI</font>进行下一代芯片开发
小广播
热门活动
换一批
更多
最新手机便携文章
更多每日新闻
电子工程世界版权所有 京B2-20211791 京ICP备10001474号-1 电信业务审批[2006]字第258号函 京公网安备 11010802033920号 Copyright © 2005-2024 EEWORLD.com.cn, Inc. All rights reserved