据外媒报道,约克大学(University of York)的英国计算机科学家团队开发出一个突破性的流程,可帮助确保机器学习(ML)和用于自动驾驶技术的AI安全。该方法可帮助工程师建立一个安全案例,在最终交付用户时明确且系统地建立对ML的置信度。
图片来源:assuringautonomy.com
随着机器人、送货无人机、智能工厂和无人驾驶汽车越来越普及,目前自动驾驶技术的安全法规出现灰色地带。与其他高风险技术相比,自动驾驶系统的全球指导方针并不严格。当前标准在细节方面不够明确,因此在AI和ML等新技术进入市场时,使用这些技术改善生活可能不够安全。
这一新指南由约克大学的保证自主国际计划(Assuring Autonomy International Programme,AAIP)开发,名为用于自动驾驶系统的机器学习保证(Assurance of Machine Learning for use in Autonomous Systems,AMLAS)。AAIP与行业专家合作开发流程,将安全保证系统地集成到ML组件的开发中。
高级研究员、AMLAS的作者之一Richard Hawkins博士说:“目前确保自动驾驶技术安全的方法几乎没有指导或制定标准。全球各部门都在努力尽快制定新的指导方针,以确保机器人和自动驾驶系统的安全性。”
独立性
AAIP持中立立场,可独立将企业、学术研究、监管机构以及保险和法律专业人士联系起来,为安全的人工智能、机器人技术和自动驾驶系统编写新指南。
Hawkins博士表示:“AMLAS可帮助所有拥有新自主产品的企业或个人将安全保证(safety assurance)系统地集成到ML组件的开发中。我们的研究可帮助理解自动驾驶技术安全运行的风险和限制。”
Hawkins博士还表示:“在约克,我们针对最佳实践和流程进行了大量研究,以收集可以评估这些新复杂技术安全性的证据。此外,我们还在安全设计、评估和机器人和自动驾驶系统使用方面进行训练。”
AAIP是约克大学的一个安全保证小组,与劳氏基金会(Lloyd's Register的慈善机构)合作,致力于打造一个更安全的世界。
上一篇:杜克大学研究人员警告 自动驾驶汽车传感器被攻击后会产生错误数据
下一篇:电动车安全靠锁电?中国科研团队取得突破或有助预防电池失控