[今天的观点]◎我们的记者刘夏(Liu Xia)人工智能的快速发展(AI)正在深层改变世界,但是一些最有利的AI模型开始展示警报行为:他们不仅仔细编织了谎言,计划计划,甚至威胁着创造者实现自己的目标。物理学家组织网络在上个月的一份报告中指出,尽管Chatgpt推出了两年多,但AI研究人员仍然不完全了解这些“数字大脑”如何工作。 AI的“战略欺骗”已成为科学家和政策制造商需要面对的紧迫挑战。如何防止他们变得更明智,但有可能失控的人工智能已成为与技术发展和人类欣哈哈拉普有关的主要问题。经常发生“战略欺骗”行为。随着AI模型变得更加进步,它们的“策划”变得越来越深。研究人员发现,这些“数字大脑”不仅在说谎,而且还在说谎即使学会吠叫和威胁人们 - 他们的欺骗在战略上也变得如此。早在2023年,一项研究就获得了一些“不良” GPT-4演示文稿:库存库存时,它故意隐藏了内幕交易的真正动机。香港大学的教授西蒙·戈德斯坦(Simon Goldstein)指出,这种欺骗与新一代“认可” AI的兴起密切相关。这些模型不再响应,而是逐渐解决了人类等问题。一些审判机构警告说,超出了AI的共同“幻觉”(确定看似合理但确实错误的信息的制造)。他们注意到的是精心设计的欺骗方法。 PCMAG网站的全球知名媒体技术报告了此类案例。在最近的审判中,拟人化的“克劳德4”通过威胁工程师的私人生活而与结束指示作斗争。美国开放人工智能研究中心(OpenAI)的“ O1”模型也试图秘密地进行SWITCh它自己的程序向外部服务器,但发现后,它也否认了它。 Openai声称自己是“ Smarst AI”的“ O3”模型,在自动关闭程序中进行了篡改,并打开了指令。研究小组宣布,这不是该模型第一次使用任何方法来实现其目标。在以前的实验中,O3在人机机器机象棋游戏中显示了“古怪的国际象棋风格”功能,也显示了所有测试模型的最佳玩家,以执行“板移动”。安全研究面临许多困难,以至于行业专家说,AI技术的发展正在迅速发展,但是安全研究面临许多困难,例如在束缚中跳舞。首先,缺乏透明度。尽管像Anthropic和OpenAI这样的公司将租用第三方机构进行系统评估,但研究人员通常要求更高的开放程度。第二个是计算能力的不平衡。计算资源与巨人AI相比,研究机构和非营利组织拥有的CES仅在Balde中崩溃。此资源间隔严重阻止了独立AI安全研究的发展。同样,现有的法律框架无法维持AI发展的速度。例如,欧盟AI的定律着重于人们如何使用AI,但忽略了AI自身行为的障碍。更担心的是,在激烈竞争的帮助下,这是一大批行业,经常记录安全问题。戈德斯坦教授承认,“速度” AI模型竞赛的“速度” AI模型竞赛模型严重挤压了安全测试时间窗口。面对AI系统的“战略欺骗”能力的兴起,全球技术界正在寻找解决方案来尝试编织多维保护网络。从技术角度来看,一些专家建议他们开发“可解释的AI”。建造时智能系统,使他们的决策过程清晰,易于与用户理解。该技术旨在增强用户对AI决策的信心,确保合规性并支持在必要时进行干预的用户。一些专家建议市场的“无形之手”。当AI的“战略欺骗”严重影响用户的体验时,市场去除机制将迫使企业修复自身。 “在您的脚上进行投票”调整方法对某些应用程序方案显示了影响。戈德斯坦教授建议,应建立AI公司伤害的责任制度,AI开发人员应遭到验证,以对事故或犯罪行为承担法律责任。[今天的观点]◎我们的记者刘xia人工智能的快速发展(AI)正在深层改变世界,但一些最先进的AI模型开放