今天凌晨2点,OpenAI开启了第八天技术分享直播,对ChatGPT搜索功能进行了大量更新。
新增的功能包括,实时搜索,OpenAI对搜索的算法进行了深度优化,可在用户提出问题后获取实时内容(分钟级别),包括股票、新闻等;高级语音,在高级语音模式下,用户可以与ChatGPT进行更自然的多轮搜索对话,更像是一位语音搜索管家;
移动端优化,用户可以在安卓、iOS、平板等移动端更好地使用搜索功能,效率提升40%以上。
地图集成,现在ChatGPT集成了全新的地图功能,用户可以直接在搜索结果中查看周边地理位置信息,进行路线规划和地点探索。这个功能估计是要朝着商业模式发展,以后会与餐厅、商城一类的进行商务合作。
值得一提的是,现在可以直接ChatGPT搜索中播放视频了,例如,在直播的案例展示中,测试人员直接搜索《狮子王》电影的预告片时,可以直接在ChatGPT中播放这个内容。并且是免费向全球用户开放这些功能。
下面「AIGC开放社区」介绍两个直播中出现的案例,帮助大家更好的理解这些功能。
直接展示源链接,并能播放视频
现在使用ChatGPT搜索可以在获得内容的同时,还可以直接显示源链接,用户只需要点击一下就能直接到达。更重要的一些视频类内容,可以直接在ChatGPT中播放了。
例如,OpenAI的直播人员最初想看《角斗士》这部电影,由于已经看过了,在ChatGPT的引导下,开始考虑其他影片,包括《邪恶女巫》和《狮子王》,最终决定选择《狮子王》,因为它被认为是一部适合全家观看的好电影。
随后提出想看看这个影片的预告片,ChatGPT直接在网络搜索到视频,而用户可以不用去源网站直接在ChatGPT完成观看体验非常强。
高级语音搜索案例——在旅行规划中的应用
在旅行规划方面,ChatGPT的搜索功能展现出了强大的实用性。以一位计划前往瑞士苏黎世度假的用户为例,在ChatGPT中输入“我正在前往瑞士度假,你能告诉我今年12月23日那一周的情况吗?”
ChatGPT迅速启动搜索功能,从众多网络资源中筛选出相关信息并给出了详细且准确的回答。
并告知用户在2024年12月23日那一周,苏黎世将举办丰富多样的节日活动。其中,圣诞市场,特别是主火车站的那个,将一直开放至12月24日,为游客提供了感受浓厚节日氛围、购买特色商品的好去处;
沃德?莫利普拉茨的唱歌圣诞树活动搭配音乐会,持续到12月23日,为人们带来独特的视听享受;马戏团卡内利作为受欢迎的圣诞马戏团,其精彩表演将一直延续到12月31日,适合全家一同观看;
国家博物馆的光影秀则以灯光和音乐表演吸引观众,开放至12月30日。这些丰富的活动信息为用户的度假计划提供了充足的参考。
随后,用户进一步询问主要邮局圣诞市场的开放日期和时间,ChatGPT再次快速搜索并精准回答:该圣诞市场于2024年11月21日开始,至12月24日结束,每天的开放时间为上午11点至晚上9点,周四至周六则延长至晚上10点,而12月24日当天会提前于下午4点关闭。通过这一系列交互,用户能够全面了解苏黎世的节日活动安排,合理规划自己的行程
这次的地图整合做得真的非常出色,而且与AVM的整合非常棒。这真是个令人惊喜的功能![现在只需要给我们o1复杂度的搜索功能就好了 :)]
太好了!非常有用的功能。在接下来的12天,我们只需要ChatGPT的上下文窗口更大一些,这也是大多数AI社区成员所期望的。
这是我最喜欢的直播日之一,非常感谢OpenAI让搜索体验变得更好而且免费。能否努力让o1也能访问网络,就像Google做的那样?
随着OpenAI最新功能的推出,生产力达到了前所未有的高度。是时候告别过时搜索方法,迎接AI搜索了。
目前,为ChatGPT搜索提供服务的是经过微调的GPT-4o模型,未来OpenAI会把o1模型加入到搜索中。
好文章,需要你的鼓励
研究人员正探索AI能否预测昏迷患者的医疗意愿,帮助医生做出生死决策。华盛顿大学研究员Ahmad正推进首个AI代理人试点项目,通过分析患者医疗数据预测其偏好。虽然准确率可达三分之二,但专家担心AI无法捕捉患者价值观的复杂性和动态变化。医生强调AI只能作为辅助工具,不应替代人类代理人,因为生死决策依赖具体情境且充满伦理挑战。
哥伦比亚大学研究团队开发了MathBode动态诊断工具,通过让数学题参数按正弦波变化来测试AI的动态推理能力。研究发现传统静态测试掩盖了AI的重要缺陷:几乎所有模型都表现出低通滤波特征和相位滞后现象,即在处理快速变化时会出现失真和延迟。该方法覆盖五个数学家族的测试,为AI模型选择和部署提供了新的评估维度。
麻省理工学院研究发现过度依赖AI会导致认知债务,削弱基本思维能力。研究表明交替进行无辅助思考和AI支持工作的模式能保持认知敏锐度。这种认知高强度间歇训练模仿体能训练中的HIIT模式,通过短时间高强度思考与恢复期交替进行,可以强化大脑神经回路,防止认知衰退,提升独立思考能力。
这项研究首次发现AI推理模型存在"雪球效应"问题——推理过程中的小错误会逐步放大,导致AI要么给出危险回答,要么过度拒绝正常请求。研究团队提出AdvChain方法,通过训练AI学习"错误-纠正"过程来获得自我纠错能力。实验显示该方法显著提升了AI的安全性和实用性,用1000个样本达到了传统方法15000个样本的效果,为AI安全训练开辟了新方向。