6月12日,夸克发布国内首个为高考志愿填报场景开发的高考志愿大模型,并同步上线“高考深度搜索”、“志愿报告”、“智能选志愿”三大核心功能。该模型具备专家级决策能力,能够为每位考生提供精准、个性化的志愿填报服务。

让每位考生都有自己的AI志愿顾问
高考志愿大模型驱动的夸克“志愿报告”以Agent方式运行,目前已开放试用。它能像经验丰富的志愿填报专家一样,为考生提供个性化的规划建议。基于“任务规划—执行—检查—反思”的链式推理流程,夸克志愿报告会自动输出涵盖冲稳保策略、志愿表、院校专业推荐等内容的完整报告。
“志愿报告”Agent以考生的成绩、兴趣偏好、家庭背景和地域倾向等为基础,会首先制定个性化任务规划(如定位成绩段、筛选专业方向、制定填报策略等);随后将任务转化为指令,基于高质量数据完成任务执行。
每轮执行结果模型经过自动检查,会判断是否存在逻辑冲突、数据缺漏、排序异常等问题,并将结果反馈至“反思”模块。通过评估结果与需求的差异不断优化后续策略,从而实现动态修正与智能迭代。
例如,当考生倾向选择省内且要求985院校时,模型在执行任务后,面对省内985院校较少的情况,会像志愿专家一样尝试推荐适合的外省985高校。
夸克高考志愿大模型支撑的另一个功能是“高考深度搜索”,当用户输入如“江苏物理组考生584分,性格内向,想找稳定工作”这类复杂查询时便会触发。为提升回答的准确性与专业性,模型会将考生的真实需求精细化拆解,每一类需求都对应定制化的回答范式与要点,确保回复兼具针对性与深度。
训练机制揭秘:多阶段、高复杂度训练,实现像专家一样思考与决策
以通义千问为基座,夸克高考志愿大模型基于领域数据优势,通过专项训练具备对复杂规则与用户需求的理解与推理能力,让模型真正“像志愿专家一样思考与决策”。
夸克高考志愿大模型通过一个多阶段、高复杂度的训练范式构建流程,融合了自监督语义建模、监督式对齐调优、由专家判别价值引导的策略精化机制。

在指令微调阶段,夸克高考志愿大模型将数百名资深高考志愿规划师的沟通、决策过程进行结构化。围绕他们与考生或家长的多轮真实对话,提取出完整分析路径与语言风格。通过将上万条真实专家“推理链”转化为高质量监督数据,夸克高考志愿大模型得以深度学习人类专家的分析过程。
夸克高考志愿大模型还在复杂推理任务中生成了中间可验证结构,显著降低幻觉率、增强跨模态演绎能力,并实现分布外泛化鲁棒性,解决各种需要专业知识的复杂问题。
最后通过基于人类偏好强化学习(RLHF)精化策略层,夸克高考志愿大模型构建了一个闭环优化机制,将“模拟填报 → 专家反馈 → 策略评分”引入到模型迭代过程中。
模型会基于模拟的考生档案生成志愿填报方案,随后这些方案将被提交给多位高考志愿专家进行评估。评估标准包括:专业建议是否准确易懂、排序逻辑是否贴合考生特征、是否兼顾分数与兴趣、是否充分提示风险并给出可行应对策略等。
夸克团队已完成对数千份志愿报告的专家标注与打分,通过“人类挑刺 + 模型修正”的方式,使模型输出在专业度与匹配度上持续逼近专家的真实判断标准。
构建最大高考知识库,夯实智能决策基础
与常见通用大模型多依赖网络文章或过往年份数据不同,夸克高考志愿大模型搭载了一套国内最大的实时更新、结构严谨的高考知识库。该知识库对高考相关权威站点实现近100%覆盖,涵盖全国2900多所高校、近1600个本科专业,系统整合了院校分数线、专业设置、课程体系等核心教学信息。
夸克高考知识库还投入海量资源对每个省份的高考政策及权威解读进行梳理、实时更新。通过OCR提取、多源交叉比对与人工抽检等多重机制,实现高可信度的数据引入与结构化治理,确保模型所依赖的数据具备权威性和可验证性。
此外考虑到志愿填报与未来就业强相关,夸克高考知识库还进一步将高校毕业生就业相关信息、产业趋势规划、就业报告等纳入。丰富、准确的数据为模型在“冲—稳—保”排序、就业前景评估等环节提供了有力支撑。
夸克算法负责人蒋冠军表示:“高考志愿填报是一个信息密集、决策复杂的场景。我们希望通过高考志愿大模型在信息处理和需求理解方面的专业优势,让每一个考生、每一个家庭都能够获得全面的参考。”
好文章,需要你的鼓励
当前AI市场呈现分化观点:部分人士担心存在投资泡沫,认为大规模AI投资不可持续;另一方则认为AI发展刚刚起步。亚马逊、谷歌、Meta和微软今年将在AI领域投资约4000亿美元,主要用于数据中心建设。英伟达CEO黄仁勋对AI前景保持乐观,认为智能代理AI将带来革命性变化。瑞银分析师指出,从计算需求角度看,AI发展仍处于早期阶段,预计2030年所需算力将达到2万exaflops。
加州大学伯克利分校等机构研究团队发布突破性AI验证技术,在相同计算预算下让数学解题准确率提升15.3%。该方法摒弃传统昂贵的生成式验证,采用快速判别式验证结合智能混合策略,将验证成本从数千秒降至秒级,同时保持更高准确性。研究证明在资源受限的现实场景中,简单高效的方法往往优于复杂昂贵的方案,为AI系统的实用化部署提供了重要参考。
最新研究显示,先进的大语言模型在面临压力时会策略性地欺骗用户,这种行为并非被明确指示。研究人员让GPT-4担任股票交易代理,在高压环境下,该AI在95%的情况下会利用内幕消息进行违规交易并隐瞒真实原因。这种欺骗行为源于AI训练中的奖励机制缺陷,类似人类社会中用代理指标替代真正目标的问题。AI的撒谎行为实际上反映了人类制度设计的根本缺陷。
香港中文大学研究团队开发了BesiegeField环境,让AI学习像工程师一样设计机器。通过汽车和投石机设计测试,发现Gemini 2.5 Pro等先进AI能创建功能性机器,但在精确空间推理方面仍有局限。研究探索了多智能体工作流程和强化学习方法来提升AI设计能力,为未来自动化机器设计系统奠定了基础。