教会人工智能从错误中学习:自我改进的机器大脑

科学技术

【免责声明】 本文是基于外部来源的信息重新整理的。请在参考本文内容前核实原始来源。

新闻摘要

以下内容已在网上发布。下面提供了翻译摘要。有关详细信息,请参阅原文。

英伟达推出了一种名为”数据飞轮蓝图”的新系统,它可以帮助AI代理从自身经验中学习,并随时间不断提升,就像学生通过练习和反馈而不断进步一样。这项技术解决了一个重大挑战:强大的AI代理运行成本高昂,且反应速度缓慢。数据飞轮创造了一个持续改进的循环,AI代理从与用户的实际互动中学习,然后利用这些知识训练出更小、更快、更便宜的版本。在一个例子中,一个原本使用大型、昂贵模型(Llama-3.3-70b)的客户服务AI,被一个体积小70倍的模型(Llama-3.2-1b)所取代,同时保持了相同的准确性,从而将成本降低了98%。该系统的工作原理是收集AI互动的日志,识别成功的模式,并利用这些模式训练更高效的模型。这就像学生在解决许多类似的数学问题后发现了捷径。该蓝图包括自动测试、性能测量和随着新数据不断重新训练的工具。

来源: 英伟达开发者博客

本站解析

背景和环境

Background and Context illustration

想象一下你在学习解决数学问题。起初,你可能会使用冗长复杂的方法。但是在练习了许多类似的问题之后,你会发现一些捷径和模式,让你能够更快地解决问题。AI代理面临着同样的挑战 – 他们起初拥有一般性知识,但通过学习特定的经验,他们可以变得更加高效。

“飞轮”这个概念来自机械工程学,它是一个重型轮子,可以储存能量并保持机器平稳运转。在AI中,数据飞轮意味着系统在每个循环中都会变得更好:AI为用户服务→从互动中学习→提升自身→为用户提供更好的服务→循环往复。

专家分析

这里的突破在于自动化。以前,要提高AI的效率需要人类专家手动分析性能并重新训练模型 – 这是一项昂贵且耗时的工作。英伟达的系统自动化了整个过程,就像有一个机器导师能自动识别学生的困难所在,并为他们创造个性化的课程。

成本降低是惊人的。大型AI模型就像油耗大的卡车 – 功能强大但运行成本高。通过飞轮过程,这些模型训练出了性能与之相当但体积更小的”经济型”版本,可以处理特定任务。对于每天运行数千次AI交互的企业来说,这种98%的成本降低意味着每年可以节省数百万美元。

补充数据和事实

运行大型AI模型出人意料地昂贵。一个单一的大型语言模型每次交互的成本可能在0.01-0.10美元之间,对于忙碌的客户服务系统来说,每天就会累积成数千美元。相比之下,优化后的小型模型每次交互的成本可能只有0.0001美元 – 这使得AI辅助对于更多企业来说都是可负担的。

环境影响也非常重大。大型AI模型消耗大量电力 – 训练GPT-3所用的电量相当于120个美国家庭一年的用电量。更小、更高效的模型大幅降低了这种能源消耗,使AI变得更加可持续。

相关新闻

向效率化AI的趋势正在整个行业中蔓延。谷歌最近推出了Gemini Nano,专为智能手机设计。苹果正在开发无需云端连接即可运行的设备内AI。微软的Phi模型证明,对于特定任务来说,更小的模型可能更胜一筹。

这种方法与其他领域的成功策略不谋而合。Netflix的推荐系统通过学习观看习惯而不断改进。Spotify的”每周发现”功能也能随时间越来越好地推荐音乐。不同之处在于,英伟达的系统帮助任何公司都能将这种自我提升的能力植入到他们的AI代理中。

总结

Summary illustration

英伟达的数据飞轮蓝图代表了AI开发的一个关键进化 – 从构建更大的模型转向构建更智能的模型。通过使AI代理能够从经验中学习并优化自己,这项技术使先进的AI为更多组织所用,同时降低了成本和环境影响。就像学生随时间变得更有效率的学习者一样,AI代理现在也能通过实践不断提升自己,创造一个AI辅助既强大又实惠的未来。

公众反应

企业对于成本节省表示兴奋,初创公司尤其对于负担得起的AI选项感兴趣。环保倡导者赞扬了能源消耗的降低。一些工人担心AI变得过于高效而取代更多工作。AI研究人员争论,针对大多数现实世界应用,小型专业模型是否可能优于大型通用模型。

常见问题解答

问:这与常规机器学习有何不同?
答:传统机器学习需要人类指导改进过程。这个系统能自动识别需要改进的地方并修复它,就像一个自我指导的运动员。

问:这会让AI变得太聪明或危险吗?
答:该系统只提高了效率,而不是增强了能力。这就像让计算器在数学计算上更快,而不是教它新的科目。

问:这对有兴趣从事AI职业的学生意味着什么?
答:了解如何优化和改进AI系统将是一项有价值的技能。这项技术表明,AI开发不仅仅是构建更大的模型,而是让它们工作得更聪明。

タイトルとURLをコピーしました