今天小编分享的科技经验:OpenAI o1 AI 模型归类为“中等风险”,欢迎阅读。
IT 之家 9 月 14 日消息,科技媒体 The Decoder 昨日(9 月 13 日)发布博文,报道称在 OpenAI 自家的 " 防备框架 "(Preparedness Framework)下,将最新发布的 o1 AI 模型归类为 " 中等风险 "(medium risk)。
防备框架简介
IT 之家曾于 2023 年 12 月报道,OpenAI 成立了新的 " 防备 "(Preparedness)团队,并提出 " 防备框架 " 指导方针。
防备团队将反复评估 OpenAI 最先进、尚未发布的 AI 模型,根据不同类型的感知风险评为四个等级,从低到高依次是 " 低 "、" 中 "、" 高 " 和 " 严重 "。根据新的指导方针,OpenAI 将只推出评级为 " 低 " 和 " 中 " 的模型。
OpenAI o1 模型
OpenAI 公司在官方新闻稿中表示,最终确定 o1 模型归类为 " 中等风险 " 主要有以下两个原因:
类人推理能力
o1 模型展现出类似人类的推理能力,并能在类似主题上产生与人类撰写同样令人信服的论点。
这种说服力并非 o1 独有,先前的 AI 模型也已展示出此能力,有时甚至超越人类表现。
可辅助制作生物武器
评估显示,o1 模型能辅助专家复制已知生物武器威胁。
OpenAI 宣称,o1 模型显著提升数学和科学领網域的能力。
例如,在全美奥林匹克数学队()USA Mathematical Olympiad,简称 USAMO)的预选赛中,新模型的表现能跻身美国前 500 名学生之列,并且在物理、生物和化学问题的基准测试中,准确度超过了人类博士水平。
OpenAI 首次将其模型在化学、生物、放射性和核武器(CBRN)风险方面的评级定为 " 中性 "。这些模型的发布伴随着对其潜在危险的多次警告。