日期:2023-07-06 10:56:40 来源:科创板日报
财联社7月6日讯(编辑 黄君芝)ChatGPT开发商OpenAI周三(5日)表示,该公司计划投入大量资源,并创建一个新的研究团队,以确保其人工智能(AI)对人类来说是安全的,最终实现AI的自我监督。
(资料图片)
OpenAI联合创始人Ilya Sutskever和负责提高系统安全性的AI一致性团队负责人Jan Leike在一篇博客文章中写道:“超级智能的巨大力量可能……导致人类被剥夺权力,甚至人类灭绝。”
“目前,我们还没有一个解决方案来操控或控制一个潜在的超智能AI,并防止它失控。”他们写道。
AI一致性(alignment)指的是AI的行为需符合设计者的利益和预期目标。
20%算力用来解决AI失控问题
他们预测,超智能AI(即比人类更聪明的系统)可能在这个十年(2030年前)就会到来,人类将需要比目前更好的技术来控制超智能AI,因此需要在所谓的“一致性研究”方面取得突破,该研究的重点是确保人工智能对人类有益。
根据他们的说法,在微软(Microsoft)的支持下,OpenAI将拿出未来四年所获算力的20%用于解决AI失控的问题。此外,该公司正在组建一个新的团队来组织这项工作,称为超级一致性团队。
据悉,该团队的目标是创建一个“人类级别”的AI研究人员,然后通过大量的计算能力进行扩展。OpenAI表示,这意味着他们将使用人类反馈来训练AI系统,训练AI系统来辅助人类评估,然后最终训练AI系统进行实际的一致性研究。
专家质疑
不过,这一举措刚刚宣布就受到了专家的质疑。人工智能安全倡导者Connor Leahy表示,OpenAI的计划从根本上存在缺陷,因为可达到“人类水平”的初级版AI,可能会在被用于解决AI安全问题之前失控并造成严重破坏。“
他在接受采访时说:“在构建人类水平的智能之前,你必须先解决一致性问题,否则默认情况下你无法控制它。我个人认为这不是一个特别好的或安全的计划。”
AI的潜在危险一直是AI研究人员和公众最关心的问题。今年4月,一群AI行业领袖和专家签署了一封公开信,呼吁暂停训练比OpenAI新推出的GPT-4模型更强大的人工智能系统至少6个月,理由是它们对社会和人类构成潜在风险。
一项最新的民意调查则发现,超过三分之二的美国人担心AI可能产生的负面影响,61%的人认为AI可能威胁到人类文明。
标签:
下一篇: 最后一页
超级AI七年内将问世 OpenAI拟“大手笔”投入严防失控
会计师签字不能太随意 百事通
突发火灾妈妈将刚满月婴儿从4楼扔下求生,十几人拉起“大网”接住|世界快播报
关于股票000698的一些信息
每日讯息!北森发布iTalentX7.0:渐入HR SaaS无人区
世界关注:德明利7月6日打开涨停
【时快讯】俞敏洪为何深爱武威?揭秘东方甄选与武威的这些情缘……
阿彼察邦感谢中国观众支持《记忆》_全球观热点
生活中这些习惯竟是疾病“催化剂”?希望你一个都没有!-天天日报
中色股份:融资净买入857.93万元,融资余额5.78亿元(07-04) 环球快消息
可立克07月04日被深股通减持40.13万股
九典制药(300705.SZ):力争打造“久悦”贴膏品牌 提升品牌价值 环球关注
景林、仁桥、星石、望正等六大私募重磅发声! 天天微资讯
全球今热点:越南海产品出口面临订单减少的困境
华裔少年送国乒名将惨痛一败,哥哥却盼着率国足进军世界杯
环球报道:预计二季度GDP同比增长7.0%——2023年上半年数据预测
喜剧之王全集_喜剧之王介绍 焦点要闻
进项抵扣相关税法规定(进项税额抵扣时限是多久)|新要闻
世界微头条丨姚明退役时间年纪_姚明退役时间
当前热点-七夕由来的典故_七夕由来
特斯拉大涨近7%,市值一夜增加4142亿元!马斯克:特斯拉是一只高度波动的股票,警惕......
意大利无缘两届世界杯(浪纪闯天涯:德国队连续两届世界杯首战失利)
吕后(关于吕后的介绍)
数据揭秘李梦WNBA价值:离队后神秘人战绩暴跌 官推盼尽快回归
中国驻柬埔寨大使就日本福岛核污染水排海问题阐明中方立场_当前快播