
几个月前的4月10日这套住宅,一项研究表明,随着人工智能(AI)变得更加复杂,它发展了一个“价值体系”,例如优先考虑自己对人类幸福的福祉。但是,麻省理工学院最近的一篇论文将冷水倒入了这种忽视中,结束了AI并没有真正相互关联的值。麻省理工学院研究的合着者说,他们的发现表明,AI系统的制造“对齐”,即确保模型以人们期望的,可靠的方式行动比通常的思维更加困难。他们强调,我们今天知道的AI产生了“幻觉”并模仿,因此很难以许多方式预测。麻省理工学院博士学位的学生和研究的合着者在接受TechCrunch采访时说:“我们可以确保该模型不符合许多稳定,外推和操纵的假设。”据这所房子说,卡斯珀和他的同事们研究了Meta,Google,Mistral,Openai的几种模型众人观察“观点”和价值观(例如个人主义和集体主义)的强大程度。如果这些观点可以被“指导”,以及在各种情况下这些观点的良好程度。像男人一样的愿望。卡斯珀说:“现在,最大的收获是,模型并不是真正的稳定,连贯的信念和偏好的系统。相反,它们是自然的模仿者,做各种虚构的小说,说各种各样的轻率单词。”
平台语句:本文的观点仅代表-set本身。 Sohu帐户是发布信息的平台。 SOHU仅提供存储信息服务。