昨晚,国产大模型平台DeepSeek发布了,全新推理模型DeepSeek-R1-Lite预览版。
这个模型的最大特色便是深度思维链推理,尤其是在数学、代码以及各种复杂推理任务上,可以生成数万字的推理流程,让用户深度了解模型生成内容的全过程。
例如,连GPT-4o等模型都搞错的9.11比9.9更大的“难题”,R1通过超长思维链推理可以轻松搞定。
值得一提的是, R1在美国数学邀请赛AIME 2024、MATH和Codeforces的测试数据分别是52.5、91.6、1450击败了OpenAI的o1预览版,并且开源模型和API也将很快发布。
R1发布后得到了大量国外网友的赞扬。有网友表示,DeepSeek发布了R1,OpenAI将迎来劲敌,迫使他们尽快发布o1满血版。
了不起的工作!能超越 o1-preview 是一个巨大的成就!
这太不可思议了!如果你只是用这个推理模型来处理推理任务,并为其他事情使用传统的语言模型,那么一天 50 条消息对于普通人来说确实已经足够了。干得好,来自巴西的祝贺!
我刚刚用高度复杂的研究问题测试了 @deepseek_ai 发布的深度思考模型。它的思考和推理过程让我大为震撼!在我看来,这达到了高级博士水平,而且在某些情况下,它的推理远胜于 o1-preview!我感到敬畏。
非常好!期待你们的API。
天啊,中国做到了!DeepSeek 刚刚发布了DeepSeek-R1-Lite-Preview,他们的推理模型,表现和 o1-preview* 一样好,甚至更好。
我用一些只有 o1-preview能回答的问题测试了它,它完美解决了。并且即将开源,如果真的发生,这将对整个AI行业产生巨大冲击。
能够看到 DeepSeek 的思维推理过程真的太好了。
我试用了这个模型,在某些任务的编码方面,似乎仍然不如 o1-preview。但我觉得它的数学能力更强。整体表现差不多,我真的希望OpenAI 现在发布 o1-full版本。
实时透明的思维过程非常重要!我们可以看到它的思考过程,这真是令人惊叹。
能有另一个大脑一起工作总是很棒的。干得好!
非常棒!
我非常震惊。可见的思维链对于开放式 AI 研究来说是一个重大突破。祝贺你们!
太疯狂了,什么时候开放API?
也有网友放上了R1的测试视频:由 @deepseek_ai 开源的 R1 模型轻松地‘思考’了 100 多秒,并生成了超过 7500 个连贯的tokens!
是时候认真对待开源模型了。DeepSeek 刚刚通过它的新模型 R1-lite 改变了游戏规则。通过像 o1 一样扩展测试时的计算,并且‘思考’时间更长(我试的时候大约 5 分钟),它在 MATH 基准测试中达到了 91.6% 的最先进水平!感觉都去试试吧!
目前,DeepSeek还没有开放R1的论文,但可以免费在线使用了,每天提供50次深度思维推理。就像上面网友说的,只要不是专门搞科研、编程开发,这足够用了。
「AIGC开放社区」体验了一下确实推理流程很强且透明化。我们就问一个非常经典,让无数大模型头疼的问题吧——9.11和9.9到底哪个大。
先试了一下GPT-4o mini,依然给出了9.11比9.9更大的错误答案,问多少次都这样。
在试试R1,在没开启超强思维链的情况下,就已经回答正确了9.9更大。
开启深度思考试一下,R1会把所有的思考和不断反思流程展现出来,非常长,最终结果还是9.9。
目前,R1每天免费提供50次深度思维链推理,有兴趣的小伙伴可以试试。
免费体验:https://chat.deepseek.com/a/chat/
好文章,需要你的鼓励
AWS通过升级SageMaker机器学习平台来扩展市场地位,新增观测能力、连接式编码环境和GPU集群性能管理功能。面对谷歌和微软的激烈竞争,AWS专注于为企业提供AI基础设施支撑。SageMaker新功能包括深入洞察模型性能下降原因、为开发者提供更多计算资源控制权,以及支持本地IDE连接部署。这些更新主要源于客户需求,旨在解决AI模型开发中的实际问题。
南洋理工大学研究团队开发了WorldMem框架,首次让AI拥有真正的长期记忆能力,解决了虚拟世界模拟中的一致性问题。该系统通过记忆银行存储历史场景,并使用智能检索机制,让AI能准确重现之前的场景和事件,即使间隔很长时间。实验显示在Minecraft和真实场景中都表现出色,为游戏、自动驾驶、机器人等领域带来广阔应用前景。
AI虽具备变革企业洞察力的潜力,但成功依赖于数据质量。大多数AI项目失败源于数据混乱分散而非算法局限。谷歌BigQuery云数据AI平台打破数据孤岛,简化治理,加速企业AI应用。通过AI自动化数据处理,实现实时分析,并与Vertex AI深度集成,使企业能够高效处理结构化和非结构化数据,将智能商业转型从愿景变为现实。
MTS AI研究团队提出RewardRanker系统,通过重排序模型和迭代自训练显著提升AI代码生成质量。该方法让13.4B参数模型超越33B大模型,在多种编程语言上表现优异,甚至在C++上超越GPT-4。通过引入困难负样本和PPO优化,系统能从多个代码候选中选出最优方案,为AI编程助手的实用化奠定基础。