科学家已经确认,大型模型可以“理解”人类等
科学技术日报,北京,6月10日(记者卢尚库安),记者在第十届中国科学院自动化研究所从研究所和其他单位的研究人员和其他单位从第一次证实了多模式模型“了解培训”,并且这种理解的理解方式与人类一样。这一发现为探索人工智能和建立人工智能系统的发展奠定了新的途径,该途径像未来的人一样“理解”世界。相关研究结果已在线发表在《自然机器智能》杂志上。人类的主要智能是真正的“理解”事物。当我们看到“狗”或“苹果”时,不仅是纳廷确定它们的外观,例如大小,颜色,形状等,而且还了解什么是好处,他们可以给我们带来什么情感以及文化的重要性。全面理解这一点这是我们理解世界的基础。随着诸如Chatgpt之类的大型模型的快速发展,科学家开始怀疑:他们能知道“了解”大量文字和图片的人之类的东西吗?传统人工智能研究的重点是对象识别的准确性,但很少讨论该模型是否真正“理解”事物的含义。中国科学院自动化研究所的相应论文和一名研究人员Huiguang说:“目前,人工智能可以区分猫和狗的图片,但是这种'身份'和对'人类'猫和狗的理解之间的本质差异仍然被宣传。”在这项研究中,研究人员绘制了理解人脑的原理,并设计了一个聪明的实验:让大型模型玩“寻找不同的”游戏。来自1,854个常见项目的三个项目概念,并要求选择至少匹配的项目。在从大量的实验数据中,说明性是“可以理解的”事物,并给出了这些东西。研究发现,这些角度非常容易解释,并且与负责处理物体的人脑区域的神经活动非常一致。更重要的是,可以同时了解文本和图片的多模型模型,而“思考”和选择的方式比其他模型更接近人类。此外,还有一个有趣的研究发现,当人们做出判断时,他们会看到形状和颜色之类的外观,他们也会想到他们的含义或目的,但是大型模型更多地依赖于他们提出的“文本标签”以及他们所学的抽象概念。 “这证明了一种理解世界的方式确实是在大型模型中建立的,这有点像人类。” Saidya。
上一篇:您需要用沸水烫一下餐具吗?这是事实!
下一篇:没有了
下一篇:没有了