今天凌晨2点,OpenAI开启了第10天的直播技术分享,ChatGPT新增电话功能,并有了专属电话号码——1-800。
目前这个号码仅美国地区,无论你是旧款智能手机还是老掉牙的座机都能打通,极大降低了ChatGPT的使用门槛和应用范围,尤其是对于不懂互联网的老年人来说非常有帮助。同时对电话客服领域会产生很大的冲击,估计大面积应用后很多人饭碗要不保了。
此外,ChatGPT还与超级应用WhatsApp完成了集成,同样是这个号码可以直接发短信咨询各种内容,使用方法和web、移动版本一样。

在美国1-800的全称电话号码是1-800-242-8478,拿起手机直接拨打就行,只要你愿意打多久都行,只不过会产生一些费用。
下面「AIGC开放社区」就为大家解读一下直播演示中的几个案例。
向ChatGPT打电话
在一次从圣荷西前往旧金山的公路旅行中,用户在 280 号高速公路上看到了一栋色彩斑斓、带有圆顶的独特房子,于是向 ChatGPT 打电话询问这个建筑的来历。
通过语音向 ChatGPT 描述了房子的特征,询问其相关信息。ChatGPT 迅速做出回应,根据用户提供的描述,准确判断出这可能是位于旧金山附近希尔斯伯勒著名的弗林特石屋。不仅详细介绍了该建筑以其独特的多彩圆顶建筑风格而闻名,还解释了其被称为弗林特石屋的原因,是因为其外观酷似卡通片中的场景。
用户进一步询问是否现在还允许建造这样风格独特的房子,ChatGPT 给出了专业的解答,指出只要建筑结构符合当地的建筑规范和分区法律,并且不违反任何业主协会的规定,人们在设计自己的房屋时拥有相当大的创造自由。
为了体现ChatGPT电话功能的兼容性,还用翻盖和非常老式的座机给它打电话。
例如,用一部几年前的翻盖手机,想要借助 ChatGPT 学习一些西班牙语日常用语。用户拨通了 ChatGPT 的电话后,表示自己即将去朋友的奶奶家,而奶奶只会说西班牙语,希望 ChatGPT 能教自己如何用西班牙语打招呼,ChatGPT 马上进入教学模式,告诉了他几句日常用语。
接着拿出了红色的老式座机,向ChatGPT提出一个非常有难度的问题,为五岁小朋友解释一下,强化微调的概念。
ChatGPT使用了一种非常巧妙的比喻方式:让小朋友想象有一个机器人朋友,当机器人朋友把房间整理得很好时,每次都会得到一份奖励,通过这样不断获得奖励的方式,机器人就能学会如何更好地完成任务,这就是强化微调的简单原理。
ChatGPT与WhatsApp集成
用户只需在 WhatsApp 的联系人列表中添加 ChatGPT,号码同样是1-800-242-8478。添加完成后,点击该联系人即可开启与 ChatGPT的WhatsApp对话。
在一个晚餐准备场景中,三位用户正为晚餐吃什么而发愁。打开 WhatsApp,找到 ChatGPT 并发起对话,询问是否能提供一份今晚的香蒜酱意大利面食谱。
ChatGPT迅速响应,首先列出了制作香蒜酱所需的新鲜罗勒叶、松子、大蒜瓣、帕尔马干酪等食材,接着详细说明了制作意大利面所需的材料,然后逐步给出制作香蒜酱的具体步骤,包括如何将各种食材巧妙混合以达到最佳口感,以及煮意大利面的正确方法,最后还指导用户如何将制作好的香蒜酱与煮熟的意大利面完美组合成一道美味的最终菜肴并进行装盘上菜
其中一位用户突然决定成为素食主义者,于是向 ChatGPT 提出更新食谱以满足素食要求。ChatGPT 展现出了强大的灵活性和适应性,立即对食谱进行调整,将原本的帕尔马干酪替换为营养酵母,并重新提供了完整的素食香蒜酱制作方法,确保用户在改变饮食偏好后仍能享受到美味的晚餐。
这是一个令人惊叹功能!向所有人开放和可访问的AI迈出了巨大的一步!

功能看起来不错,有点迫不及待了。

这个功能很好,会让更多人接触到与AI互动的机会。这个比我们最初想象的影响更大。

目前,OpenAI 为用户提供了每月 15 分钟的免费通话时长,能够在不产生额外费用的情况下体验 ChatGPT 的电话服务。如果用户在试用后希望进行更长时间的对话,可以直接去源应用体验。
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。