人工智能初创企业OpenAI的董事会将有权否决公司CEO推出新版本模型的决定。
当地时间12月18日,OpenAI在官方网站发布了一份名为“准备框架(Preparedness Framework)”的安全指南,规定了“跟踪、评估、预测和防范日益强大的模型带来的灾难性风险的流程”。
OpenAI解释说,对前沿人工智能风险的研究,远远没有达到需求。为了解决这一差距并使安全思维系统化,OpenAI正在采用“准备框架”的测试版本。
OpenAI“准备框架”测试版本文件截图,来自官网
OpenAI在新闻稿中宣布,“准备(Preparedness)团队”将致力于确保前沿人工智能模型的安全。“准备团队”将持续评估人工智能系统,以了解其在四个不同风险类别中的表现,包括潜在的网络安全问题、化学威胁、核威胁和生物威胁,并努力减少该技术可能造成的任何危害。
具体来看,OpenAI正在监控所谓的“灾难性”风险,它在这份指南中被定义为“可能导致数千亿美元经济损失或导致许多人严重受伤甚至死亡的任何风险”。
据悉,OpenAI在10月份宣布成立“准备团队”,是这家初创公司负责监督人工智能安全的三个独立小组之一。此外还有“安全系统(safety systems)”,着眼于当前的产品,例如GPT-4;以及“超级对齐(superalignment)”,重点关注未来可能诞生的、可能极其强大的人工智能系统。
Aleksander Madry负责领导准备团队。在接受彭博社采访时,Madry表示,他的团队将向新的内部安全咨询小组发送月度报告,该小组将分析Madry团队的工作,并向CEO山姆·奥特曼以及公司董事会提出建议。
Madry 表示,他的团队将反复评估OpenAI最先进的、尚未发布的人工智能模型,针对不同类型的感知风险,将其评级为“低”“中”“高”或“严重”。该团队还将做出改变,以减少他们在人工智能中发现的潜在危险,并衡量其有效性。根据新的安全指南,OpenAI未来仅会推出评级为“中”或“低”的人工智能模型。
值得注意的是,根据安全指南,奥特曼和他的领导团队可以根据这些报告决定是否发布新的人工智能模型,但董事会有权推翻其决定。
近日,奥特曼和董事会之间的宫斗大战吸引了全世界的关注,在这场内斗落幕之后,董事会已经发生了巨大的变化,同时也引发了外界对于人工智能安全的又一次思考。
今年4月,一群人工智能行业领袖和专家签署了一封公开信,呼吁在未来六个月内暂停开发比GPT-4更强大的系统,理由是人工智能对社会有着潜在风险。咨询公司益普索(Ipsos)在今年5月份推出的一项民意调查发现,超过三分之二的美国人担心人工智能可能带来的负面影响,有61%的人认为它可能威胁人类文明。
根据12月13日发表于《自然》上的两项研究,澳大利亚北部和中部地区的土著是地球上基因最独特的群体,他们的基因变异率很高, 今天上午,中国首家公办本科职业学校——南京工业职业技术大学与柬埔寨柬华理事总会合作共建的柬华应用科技大学成立揭牌 2024年度国家自然科学基金委员会与韩国国家研究基金会合作交流与双边研讨会项目指南 根据国家自然科学基金委员会(NS 大学校门要全面敞开吗?开放程度如何把握? 近日,北京大学李植副教授发表文章《从今天与保安比赛跑步说起——北京大学的门卫 中国科协办公厅关于开展2023年度国家科学技术奖提名工作的通知 各全国学会、协会、研究会,各省、自治区、直辖市科 随着人们生活节奏的加快和对便捷食品需求的增加,预制菜产业正呈现强劲的发展势头。2月13日,《中共中央、国务院关于做 。本文链接:OpenAI发布安全指南:董事会有权阻止CEO发布新模型http://www.sushuapos.com/show-11-1754-0.html
声明:本网站为非营利性网站,本网页内容由互联网博主自发贡献,不代表本站观点,本站不承担任何法律责任。天上不会到馅饼,请大家谨防诈骗!若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。
上一篇: 机器学习也许能“算命”
下一篇: 创纪录!2023年1万多篇论文被撤回