知名科技媒体theverge消息,OpenAI将在ChatGPT发布两周年之际12月左右,推出传说中的大模型——Orion(猎户座)。
据内部人士透露,Orion会使用o1模型生成的合成数据进行预训练,还会使用一些其他类型的模型混合在一起使用,性能比GPT-4强100倍非常接近AGI。
但发布流程和之前不太一样,OpenAI会先分享给技术合作伙伴,帮助他们开发具有竞争性的生成式AI产品或优先使用权。例如,微软的工程师正筹备在Azure云上提供Orion托管服务,预计11月底就能上线。
该消息发布后,OpenAI首席执行官Sam Altman说这是一个假消息,但没有给出合理的解释。于是遭到了大量网友的质疑。
有网友表示,既然这个是假新闻,那你说它假在哪里?为什么偏偏针对Kylie,而不是其他报道过OpenAI的记者?
好吧,越辟谣,这事就越实锤了。
Sam你不喜欢新闻泄漏是吧,不幸的是船已经开始沉没,四处发散了。
Sam你能说出这个消息假在哪里吗?不是有一个叫Orion的项目存在吗?
有时候刻意的否定消息,更像是变相的肯定它的存在。
每次你辟谣假新闻,最后都成真的了。
你曾经说过GPT-4将是最笨的模型,当媒体说Orion在两年后发布新旗舰模型,比GPT-4强大100倍时,你为啥又说他们是假的了呢?
此外,Sam在这条推文下面的回复也很奇怪,他说了很多无厘头的话与他平时风格不符,让很多人觉得他的账号又被智能体托管了。
如果上面的只是字面的质疑,那下面这个可是实锤的证据,并且还让o1根据Sam的字谜进行了精准解读,最后得出的结论就是在12月发布Orion模型。
今年9月14日,Sam曾发布了一篇推文“我喜欢在中西部的家。夜空真美。很期待冬季星座的升起,它们真是太棒了。”(这是他的习惯,在每次发布重要产品时,都喜欢给个字谜让大家来猜)
英文就是“i love being home in the midwest. the night sky is so beautiful. excited for the winter constellations to rise soon; they are so great.”
当把这段话放到ChatGPT-o1里,然后提问,“这句话里隐藏里哪些内容?”
ChatGPT的回答:这段话隐藏了“Orion”这个词。在最后一句中,很期待冬季星座的升起,它们真是太棒了。这个短语暗示星座很伟大。
将“they are so great”中的字母重新排列,可以形成“Orion”这个词。
所以,隐藏的信息是“猎户座”,一个在冬季天空中可见的星座。
经典的Sam推文,给出谜面让大家猜OpenAI下一个发布的模型是什么。
当时已经有网友想到了这个谜底,认为12月将会发布GPT-5 Orion。
Orion即将到来,OpenAI继续引领技术潮流。
擅长营销的Sam好像这次有点玩脱了,极力的辟谣却引来了反面效果。从9月的暗示到现在的媒体报道以及微软的实际行动,大家更愿意相信12月Orion猎户座的到来。估计让他不爽的就是,这么重磅的消息应该由他或OpenAI爆料而不是第三方。
正如前面网友所说的,船一旦开始漏水沉没时,真真假假已经不重要,人们更喜欢看到他们想要的东西。情绪价值在这一刻犹如洪水猛兽,变得一发不可收拾。
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
微软亚洲研究院开发出革命性的认知启发学习框架,让AI能够像人类一样思考和学习。该技术通过模仿人类的注意力分配、记忆整合和类比推理等认知机制,使AI在面对新情况时能快速适应,无需大量数据重新训练。实验显示这种AI在图像识别、语言理解和决策制定方面表现卓越,为教育、医疗、商业等领域的智能化应用开辟了新前景。