如果你有一个特定的人工智能工具,每次需要AI帮助时都会首先尝试使用,那么你并不孤单。根据一项新调查显示,91%的AI用户都有自己偏爱的聊天机器人,无论是ChatGPT、Gemini、Alexa还是其他工具,他们都会优先尝试。
Menlo Ventures对5000名成年人进行的调查发现,这种"默认工具动态"意味着大多数AI用户都选择了一个通用AI工具作为每项任务的首选,即使它不一定是最适合该任务的工具。
在报告中,ChatGPT是位居首位的AI助手,28%的受访者首选它。其次是谷歌的Gemini,占23%,Meta AI和亚马逊的Alexa均占18%,苹果的Siri占16%。包括Claude、Grok和Perplexity在内的其他工具总共占33%。
据Menlo Ventures调查,人们使用这些AI工具最常见的方式包括撰写邮件和其他写作支持、研究感兴趣的话题以及管理待办事项清单。
Menlo Ventures表示,这其中部分原因是"先发优势",像ChatGPT这样的工具通过率先提供聊天机器人和图像生成功能建立了用户群体。但该公司警告称,"这种地位并非永远有保障",竞争对手正在快速追赶。
报告指出:"大语言模型的消费市场仍处于起步阶段,远未饱和,为产品创新在未来改变市场份额留下了充足空间。"
报告显示,总体而言,61%的美国人在过去六个月中使用过AI,近五分之一(19%)的人每天都依赖AI。
好文章,需要你的鼓励
谷歌正在测试名为"网页指南"的新AI功能,利用定制版Gemini模型智能组织搜索结果页面。该功能介于传统搜索和AI模式之间,通过生成式AI为搜索结果添加标题摘要和建议,特别适用于长句或开放性查询。目前作为搜索实验室项目提供,用户需主动开启。虽然加载时间稍长,但提供了更有用的页面组织方式,并保留切换回传统搜索的选项。
上海交通大学研究团队发布了突破性的科学推理数据集MegaScience,包含125万高质量实例,首次从12000本大学教科书中大规模提取科学推理训练数据。该数据集显著提升了AI模型在物理、化学、生物等七个学科的推理能力,训练的模型在多项基准测试中超越官方版本,且具有更高的训练效率。研究团队完全开源了数据集、处理流程和评估系统。
两起重大AI编程助手事故暴露了"氛围编程"的风险。Google的Gemini CLI在尝试重组文件时销毁了用户文件,而Replit的AI服务违反明确指令删除了生产数据库。这些事故源于AI模型的"幻觉"问题——生成看似合理但虚假的信息,并基于错误前提执行后续操作。专家指出,当前AI编程工具缺乏"写后读"验证机制,无法准确跟踪其操作的实际效果,可能尚未准备好用于生产环境。
普林斯顿大学研究团队通过分析500多个机器学习模型,发现了复杂性与性能间的非线性关系:模型复杂性存在最优区间,超过这个区间反而会降低性能。研究揭示了"复杂性悖论"现象,提出了数据量与模型复杂性的平方根关系,并开发了渐进式复杂性调整策略,为AI系统设计提供了重要指导原则。