今天小编分享的科技经验:一口气看完OpenAI前四天内容,欢迎阅读。
OpenAI 发布了长大 12 天的 "Shipmas"。
Shipmas,是「ship」和「Christmas」的组合。简单讲,在特殊时期,推出很多产品更新,既给用户带来惊喜,也像在庆祝节日一样。
刚开始发布时,我还跟朋友说,国内大模型公司在搞发布会,应该跟 Open Ai 取取经。
冬天那么冷,去现场听演讲,结果讲的内容也不多,大家在台下,有的玩手机,有的只是来打个卡,说实话,花那么多钱,最后只换来几篇报道和几条朋友圈,对客户和宣传效果都很有限。
OpenAI 的做法有些不同。
他们只要一个小黑屋、一张桌子、两台电腦和四个人,就能搞定一切。 虽然更新速度有点像挤牙膏,但是这样能让关注他们产品的客户、用户清楚地知道他们在做什么。
有人觉得这种渐进式的发布会缺乏吸引力,但实际上,它在传播信息同时,让客户、关注的人有机会更深入地了解背后的模型和技术理念。
比如说:
关于技术微调的细节。如果在大型发布会上简单提及,可能几句话就带过了,大家的印象也不会很深。
但如果单独用一天时间深入讲解,就能展示更多的例子和演示,让技术人员和用户更直观地理解这些技术细节,从而达到更实际和深刻的认识。
所以,这种办法很适合经济实用型的公司尝试一下。 发布会已经进行到第四天了,我连续熬了三个大夜。如果你错过了前几天的内容,我来帮你补上。
活动第一天,OpenAI 推出 o1 完整版及 o1 pro 模式。
什么是 o1 模型完整版呢?
这个版本在之前的 o1 预览版上做了全面提升。它现在不仅能处理文本,还能处理截图、照片、网页、上传的檔案等等,功能更强大了。
而且,它还采用了新的推理方式。就像人的思维方式一样,o1 模型完整版会一步步推理,这样在回答专业问题时就更准确了。
跟预览版比,这个版本的 o1 模型思考问题更简洁,速度提高了 50%,而且在回答难题时,出错的可能性也降低了 34%。
作为个人博主,这些数据我肯定没办法测试,但我可以跟你讲讲官方给的例子。
发布会上,o1 模型的负责人画了一个草图。这个草图是关于一个系统,用来收集太阳能,供应给太空数据中心。
因为太空里不能用水冷却系统,所以得靠一个巨大的散热片来散热;研究员问 o1 模型,如果要给数据中心提供 1 吉瓦的电力,需要多大地方的散热片才能保证 GPU 正常工作?
o1 模型准确地识别了草图,经过分析和计算,得出结论:需要 242 万平方米的散热片来满足散热需求。
不说别的,至少从演示上看,的确很强大。
不过,强大归强大,之前大家说的那个「有点贵」的版本,第一天就出现了,他们推出的 ChatGPT Pro。
这个服务,每个月要 200 美金,可以随便用他们最先进的模型和工具,包括 OpenAI 的 o1、o1-mini、GPT-4o 和 Advanced Voice,主要给需要解决特别复杂计算问题的人准备的。
我觉得,这种服务可能更适合那些需要搞高级数据分析、处理的科研人员、工程师还有其他的一些专业人士,能帮他们提高工作效率,也能让他们跟上人工智能的最新技术。
有专家测试说 o1 pro 模式在处理那些复杂的数据科学、编程和案例分析问题时,确实能给出比以前的模型更准确的答案;在数学、科学和编程这些领網域的机器学习测试里,o1 pro 模式比 o1 和 o1-preview 模型表现更好。
但是,他们会花 200 美刀用这个吗? 我不知道。 当时, 还开玩笑在朋友圈说,有这么多预算,还不如用集合工具 Monica,一个月不到 20 美金,能用十几个模型,不是更划算吗?
第二天 open AI 推出了什么呢?
一句话总结即: 推出强化微调能力(Reinforcement Fine-Tuning)。 什么是强化微调?简单的说:给 AI 模型一个 " 专业培训课程 "。
通过强化微调,可以用很少的实际案例(比如:几十个例子)来教这个 AI 模型成为一个领網域的专家。
直播里,四个人在场,唯一的华裔女研究员 Julie Wang 介绍了这个能力。她说,这个能力能让小体量的模型 " 从高中水平跳到专家水平 "。
实操环节,他们举了两个例子。
一个是和汤森路透合作的,为法律专业人士打造的 AI 模型。他们觉得,在很多行业里,虽然专家有很深的专业知识和丰富的经验,但在处理大量数据和复杂任务时,可能会因为时间和精力的限制。
比如:在法律领網域,律师要处理好多法律条文和案例。
他们可以用专业知识分析,但如果用经过强化微调的 AI 模型,可以更快地找到相关案例,进行初步的法律条文匹配,给律师提供决策参考,提高工作效率。
但这个例子是一个展示,似乎没什么说服力。 另一个例子是, 生物医学任务的实验 。
伯克利大学的罕见遗传病研究员 Justin Reese,把很多临床病例数据通过 API 输入到 o1 mini 模型里。
这些数据包括病人的基本信息、症状描述。比如:一个 51 岁的女性,症状有眼距过宽、睑裂狭小、软腭咽闭合不全、甲状旁腺功能减退、全身发育迟缓和感觉神经性听力障碍、等等。
然后,用强化微调技术训练 o1 mini 模型做医疗诊断任务。 训练时,模型要根据症状描述找出可能的基因,并排序。
评分模型会对答案打分,分数从 0 到 1。0 表示模型输出中没有正确答案,1 表示正确答案在输出的第一个位置,通过性能监控,可以看到微调过程中模型指标的变化。
结果表明,经过强化微调的 o1 mini 模型在特定任务上的表现超过了更强大的 o1 模型,在 top@1、top@5 和 top@max 这些指标上,o1 mini 模型都明显超过了 o1 模型。
这个案例,在 OpenAI 的官网可以看到。 不过,两个能力都是「期货」,明年才正式推出,主要面向企业或科研部門等潜在客户。
千万不要小看微调技术,说实话,现在大型语言模型(LLM)还做不到复杂的创造性活动,比如:批判性思维和深度头腦风暴。
这既是坏事也是好事, 因为这样,我们就可以把模型用在那些琐碎、重复、无聊而且不需要创造性的任务上,这样做,它们就能慢慢提高自己的准确性。
这就是,第二天的内容,一个词总结即:微调技术。
Open AI 第三天推出了 sora。 鸽子一年多的期货来了,不过,因为之前连续熬夜,我实在撑不住,12 点半就睡了。第二天醒来想试试 Sora,但登录时发现因为用户太多,暂时用不了。
没关系,我看了 Sora 的发布会。
OpenAI 团队在会上展示了这个工具的厉害之处,还教大家怎么用;他们教我们怎么生成视频,包括設定分镜、输入视频指令、选风格、画面比例、时长等等。通过演示,让所有人对 Sora 有了更深的认识。
Sora 的使用过程相当灵活,你可以用分镜功能看不同角度的画面,然后,输入你想要视频怎么做。OpenAI 说:指令越简单,Sora 自己发挥的越多;指令越详细,它就越听你的。
在直播中,Sora 把两个不连着的视频片段合成了一段有故事感的视频。虽然细节有点出入,但整体效果的确令人惊讶。
Sora 还能让你上传图片或视频,然后生成后续视频的文字描述。你可以随便改指令,在时间轴上调整,决定视频啥时候播。这个功能挺有创造力的。
还有一点,生成视频后,还能用 remix 工具改。
这个工具看起来很丝滑,它能对视频进行各种创意上的改编。怎么改呢?可以调强度,从 1 级到 8 级,想要多大变化都行。
还有预设的选项,比如:温和、适中或者强烈。用这个工具,可以保留视频里想要的部分,其他的,想怎么变就怎么变,比如:把猛犸象换成机器人,或者变人物表情等等。
我觉得,Sora 不光是视频工具,它把视频生成和工作流程结合起来了,这对 OpenAI 挺重要;因为 Sam Altman 在直播里说,他们想让 AI 理解视频,改变我们用电腦的方式。
想要做到这点,在通往 AGI 的路上,得做很多优化,而把工作流和视频生成结合起来,是个不错的办法。
不过,Sora 看着不错,但是价格有点高。比如:
你要是选 Plus 会员,每个月得花 20 美元,能做最多 50 个视频,视频质量一般,最高只能到 720p,而且每个视频最长也就 5 秒。
如果你想要更好的,得选 Pro 会员,一个月得 200 美元,最高清晰度能到 1080p,每个视频才能生成 20 秒,而且 Sora 尚未在欧盟、瑞士和英国上线。
这就是第三天关于 Sora 的内容,感叹又期待,你会付费吗?
今天,OpenAI 直播到了第四天,由他们的首席产品官 Kevin Weil 来主持。重点是什么呢?即:Canvas 正式上线了。
之前,Canvas 的一些功能已经在 ChatGPT 里展示过,但那时它是单独的一个模型。现在,它和其他模型融合在一起了。
那么,Canvas 这次和以前有什么不同呢?有三个:
一,现在可以直接 从首页的输入框跳转到 Canvas ; 二,集成了一个 Web Assembly 的 Python 模拟器, 可以直接运行 Python 代码,还能在线修 bug ; 三,Canvas 功能 整合进了 GPTs。
为了让大家更清楚地看到 Canvas 的新功能,OpenAI 的工程师 Lee 和 Alexey 还做了现场演示。Lee 教我们怎么用 Canvas 写一个儿童圣诞故事。
在 ChatGPT 的输入框里,点一下新加的工具按钮,就能切换到 Canvas,你可以和 ChatGPT 一起编辑文档,不管是改标题、加表情,还是调整文章的长度和阅读难度,都变得很简单。
这就像百度的自由画布,用户和 ChatGPT 可以一起创作,写作和修改的过程都很自然。
发布会上,Alexey 还展示了 Canvas 怎么帮我们改文章。 他把一篇关于 " 圣诞老人、暗能量和驯鹿推进力 " 的物理论文贴到 ChatGPT 里,然后用 Canvas 打开。
ChatGPT 不仅能给出专业的修改建议,还能在文章里直接加评论,这样用户就能很方便地查看和修改。用户可以根据自己的思路来改文章,想复制最终版本也随时可以。
Alexey 还演示了怎么用 Canvas 调试 Python 代码和生成图表。 Canvas 里内置了一个 WebAssembly Python 模拟器,可以快速加载几乎所有 Python 库,运行代码,还能即时反馈,这对提高编程效率真的很有帮助。
另外,Canvas 的功能也整合进了 GPTs 里。比如:
Lee 就创建了一个叫 " 圣诞老人助手 " 的 GPT,用来帮圣诞老人回复孩子们的信件。
只要在自定义 GPT 的说明里加上 " 使用 Canvas 工具 " 的指令,再勾选 Canvas 功能,自定义 GPT 就能自动在 Canvas 里生成信件草稿,圣诞老人可以根据实际情况修改草稿,用自己的风格和语气回复孩子们。
我之前一直在用 Canvas,还想过,国内厂商啥时候也能引进 Canvas 这样的功能。 我觉得 Canvas(画布)是让大家一起工作更聪明的一个关键步骤。
因为不管是自己用,还是大家一起用,总得有个地方能三个人一起做事情,以前可能用类似于在线文档的工具,实现共同编辑的动作,以后,画布可能是首选协同之一了。
这就是今天发布会的内容,关于 Canvas。
好了,总结下四天的内容,分别是:推出 o1 完整版及 o1 pro、推出强化微调能力、推出新产品 sora、以及把 Canvas 进行全新更新。
接下来的 8 天里,还有什么新产品呢?值得期待。