人工智能学会通过观察虚拟世界中的数字演员来识别危险行为

科学技术

【免责声明】 本文是基于外部来源的信息重新整理的。请在参考本文内容前核实原始来源。

新闻摘要

以下内容已在网上发布。下面提供了翻译后的摘要。详细信息请参见原文。

英伟达和新加坡科技大学开发了SynthDa,这是一个革命性的系统,可以创造合成(计算机生成)视频,用于训练人工智能识别人类行为,特别是针对安全关键应用。这项技术解决了一个重大挑战:由于隐私问题和发生频率低,很难在真实世界的数据集中捕捉到诸如跌倒或事故等罕见但重要的行为。SynthDa通过将真实人类动作转移到随机虚拟环境中的数字化身上,从几个真实样本创造出数千个训练样本。该系统提供两种模式:”合成混合”使用人工智能生成的序列,而”真实混合”则融合了真实世界动作的配对。这种方法有助于人工智能系统更好地识别少数行为,而不会损害隐私。在新加坡,学校正在使用SynthDa监控学生在实验室的安全,识别设备误用或操作错误。日本的大学正在探索将其用于自行车安全和机器人。模块化设计使研究人员能够根据具体需求定制组件,使其在维护隐私保护的道德标准的同时,可应用于各种安全监控应用。

来源: 英伟达开发者博客

本站解析

背景和环境

Background and Context illustration

想象一下,你正在教一个机器人成为一名救生员。为了出色地完成工作,它需要识别有人溺水的情况 – 但你不可能让人们假装溺水数百次来拍摄训练视频!这就是SynthDa解决的问题。它创造了逼真但虚假的人类行为视频,特别是罕见或危险的行为,用于训练人工智能系统。

这对于安全应用至关重要,在这些应用中,获取真实镜头可能是不可能的、不道德的或非法的 – 比如在养老院记录实际跌倒或在工厂记录事故。与其等待坏事发生并拍摄下来,SynthDa创造了看起来足够真实的虚拟场景来有效地训练人工智能。

专家分析

SynthDa通过一个巧妙的过程来实现,这就像是高级动作捕捉与电子游戏技术的结合:

第一步:捕捉真实动作
首先,他们记录真人执行的动作 – 走路、坐下、伸手。这创造了一个3D骨架动作,就像你在电影幕后看到的线框角色一样。

第二步:转移到数字化身
这些动作然后被应用到虚拟角色(如电子游戏角色)上,这些角色可以置于任何环境中。这就像有数字替身,可以在不同环境中重复执行同样的动作数千次。

第三步:混合搭配
最聪明的部分是SynthDa如何创造变化。它可以将两种不同的动作混合在一起(如混合行走和踉跄以创造各种近乎跌倒的动作),或将同一动作置于不同的虚拟房间,使用不同的照明和摄像角度。

这种方法解决了三个主要问题:
隐私:无需拍摄真人处于脆弱状态
罕见性:可以创造数千个罕见事件的例子
成本:比实际拍摄场景便宜得多

补充数据和事实

已经显示出良好前景的实际应用:

新加坡学校(国立教育学院和华侨中学):
• 在不拍摄实际学生的情况下监控实验室安全
• 人工智能学会识别危险设备使用或操作错误
• 保护学生隐私的同时提高安全性

日本大学:
滋贺大学:创建自行车安全监控系统
东京大学:通过合成演示教授机器人

数据统计令人印象深刻:
• 从1个真实动作 → 数千个合成变体
• 不同环境、照明、摄像角度
• 可与现有的人工智能训练工具(如英伟达TAO)配合使用

相关新闻

这一发展是使用合成数据有道德地训练人工智能的更广泛趋势的一部分。我们已经看到类似的方法应用于自动驾驶汽车(创造虚拟事故来训练安全系统)和医疗人工智能(生成合成患者数据以保护隐私)。随着学校和工作场所越来越多地采用人工智能监控以确保安全,但又面临隐私问题的反对,这个时机正好。

SynthDa的开源性质尤其重要。与需要数百万美元的专有系统不同,这个工具可以免费提供给研究人员和学校使用。这种民主化意味着即使是较小的机构也可以在不需要巨额预算或侵犯隐私的情况下,开发针对其特定需求的安全监控系统。

总结

Summary illustration

SynthDa代表了在道德人工智能训练方面的一个突破,它使用虚拟演员在数字世界中教会人工智能系统如何识别和应对人类行为,特别是在安全关键的情况下。通过创造保护隐私但提供多样化训练数据的合成视频,它使学校、养老院和工作场所能够进行更好的安全监控。

对于对人工智能、机器人或数字安全感兴趣的学生来说,SynthDa展示了如何通过创造性的解决方案来解决现实世界的问题。你并不总是需要更多的数据 – 有时你需要更聪明的方式来利用你已经拥有的数据。无论你是对保护老年人免于跌倒、使实验室更安全还是教机器人理解人类行为感兴趣,像SynthDa这样的工具都证明,人工智能的未来不仅仅是强大的算法 – 它还在于以负责任的方式使用技术来帮助人们,同时尊重他们的隐私。

公众反应

教育工作者赞赏这种保护隐私的方法,特别是在不创造永久记录的情况下监控学生。安全专业人士看到了这种训练系统识别罕见但关键事件的巨大潜力。隐私倡导者也赞赏合成数据消除了侵犯性监视的需要。一些批评者担心人工智能监控本身,尽管他们承认合成训练比使用真实监视录像更好。学生和家长普遍支持不涉及实际录制儿童的安全监控。

常见问题解答

问:人工智能真的能从假视频中学习吗?
答:是的!只要动作和物理特性是真实的,人工智能就可以像从真实视频中学习模式一样,从合成数据中学习。这就像使用逼真的模拟器来学习驾驶一样。

问:用作基础的真实动作数据会怎样?
答:原始录制只是动作模式(骨架数据),而不是实际的人物视频。一旦转换为数字化身,原始身份就完全被删除了。

问:这项技术会被滥用于制作deepfakes吗?
答:SynthDa专门用于行为识别训练,而不是制作逼真的人脸或声音。这些化身明显是数字的,目的是用于人工智能训练,而不是欺骗。

タイトルとURLをコピーしました