谷歌周四宣布推出一款全新的AI驱动搜索工具Flight Deals,帮助旅行者发现航班优惠——尽管监管机构仍在质疑这家搜索巨头在旅行发现领域的主导地位是否会抑制竞争。
这款名为Flight Deals的新工具集成在Google Flights中,专门为"灵活旅行者"设计,帮助他们找到更便宜的机票。用户可以在搜索栏中输入自然语言查询,描述出行方式和时间,AI会自动匹配相应选项。
谷歌在博客文章中表示,这些查询可以是"今年冬天去一个美食之城的一周旅行,只要直飞"或"去世界级滑雪胜地的10天滑雪之旅,要有新鲜粉雪"等。
谷歌向TechCrunch确认,Flight Deals使用的是Gemini 2.5的定制版本。价格信息来自与航空公司和其他旅行公司的实时数据源。Flight Deals中显示的价格与现有Google Flights偏好设置中的价格匹配,但它使用AI来解析自然语言查询并匹配相应目的地。
该工具根据节省百分比对结果进行排名,节省最多的选项排在前面。如果节省百分比相等,则优先显示绝对价格较低的选项。没有节省标识的交易按最低价格排序。
由于机票价格变化频繁,谷歌告诉TechCrunch,该工具中交易的排名和可用性可能会有所变化。
包括欧盟委员会在内的监管机构目前正在调查谷歌如何偏向自己的搜索产品(包括Google Flights),这种做法可能损害竞争。欧盟监管机构正考虑根据《数字市场法》对谷歌采取执法行动,旨在限制主要科技平台的权力。据报道,作为回应,这家Alphabet旗下公司计划提出修改建议来安抚监管机构,包括在搜索结果中添加价格比较框。
谷歌首先以测试版形式推出Flight Deals,计划在下周内在美国、加拿大和印度推广。该公司表示,测试版发布的目标是"收集反馈并探索AI如何改善旅行规划"。
谷歌向TechCrunch确认,它将用户查询视为搜索历史,用户可以选择通过访问MyActivity来管理或删除通过该工具创建的历史记录。
这一最新举措是谷歌更广泛实验的一部分,通过将生成式AI集成到旅行搜索中来与OpenAI、Anthropic、Perplexity和其他主要AI公司竞争。
Booking.com、Expedia和印度旅游聚合商MakeMyTrip等竞争对手已经推出了自己的AI集成功能来简化行程规划。从这个角度看,谷歌的入场有些晚了。但凭借其规模和影响力,如果该工具被证明有效并获得关注,该公司仍可能构成严重挑战。
不过,经典的Google Flights界面将继续存在。这个2011年推出的原始航班搜索工具甚至正在获得更新,新增了排除美国和加拿大境内基础经济舱票价的选项。
Q&A
Q1:Flight Deals是什么?它有什么功能?
A:Flight Deals是谷歌推出的AI驱动搜索工具,集成在Google Flights中,专门帮助"灵活旅行者"找到更便宜的机票。用户可以输入自然语言查询描述出行需求,AI会自动匹配相应的航班选项。
Q2:Flight Deals使用什么AI技术?
A:Flight Deals使用Gemini 2.5的定制版本。价格信息来自与航空公司和其他旅行公司的实时数据源,使用AI来解析自然语言查询并匹配相应目的地。
Q3:Flight Deals目前在哪些地区可以使用?
A:Flight Deals首先以测试版形式推出,计划在下周内在美国、加拿大和印度推广。谷歌表示测试版发布的目标是收集反馈并探索AI如何改善旅行规划。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。