[全球网络技术综合报告] 8月26日,Microsoft人工智能部门负责人Mustafa Suleyman最近发表了一篇有关社交平台的博客文章,以探讨人工智能的当前状况和未来,并建议“对社会对语言(LLM”的大型语言(LLM)的社会警告的AI性质(LLM)可以触发深度的Crist crist。苏莱曼(Suleiman)强调,微软目前正在专注于开发诸如副副言的AI工具,例如“负责任的技术”,以增强人类的创造力而不是取代人。他建议完美的人工智能应该具有“人类的热量”:它不能在现实世界中深入融合,而是通过增强人类的合作能力来促进社会信任和理解。苏莱曼写道:“真正的挑战是如何使AI在避免与冷工具不同的同时为人们提供服务。” “微软将以'面向人的'价值作为手势,以确保技术发展佩门特一直服务于人类的尊严和福祉。” 尽管预计AI的潜力,但Suleiman对社会认知对LLM的当前偏见表示了强烈的关注。他说,越来越多的人(包括那些没有思考的人)开始将大型语言模式视为马来人 - 托托生物,甚至是与“权利”,“福利”甚至“公民身份”作斗争。他将这一现象定义为“ AI精神分裂症”,也就是说,过度拟人化AI的人是情感上的矛盾,被忽略了,作为计算可能性的工具。 “当人们对chatgpt的'拒绝'或对AI产生的错误信息感到沮丧时,这不仅是一个技术问题,而且是社会和心理危机。” Suleiman警告说,这种认知未对准会削弱人类对人际关系的投资,甚至导致对责任的认识模糊(例如,责怪AI犯错误比用户)。根据信息,Mustafa Suleiman是DeepMind的联合创始人之一。他于2022年加入微软,领导AI部门,并领导了诸如Copilot和Phi-3等地标项目的开发。 (Qingshan)[全球网络技术综合报告] 8月26日,微软人工智能部负责人Mustafa Sule,