安全可靠!新华三百业灵犀首批通过中国信通院可信要求标准符合性验证
为推动大模型产业向更高的可信标准迈进,中国信通院自2022年启动大模型技术研究和评估以来,根据产业发展不断优化迭代,已形成一套覆盖范围全、评测指标精、需求映射准的大模型评测体系。
近日,在中国信息通信研究院(以下简称“中国信通院”)组织的“大规模预训练模型标准符合性验证”中,紫光股份旗下新华三集团自研的私域大模型百业灵犀(LinSeer)以5级评分通过评测,成为业界首批在模型可信领域获得卓越级(5级)评分的大模型产品。

随着人工智能技术的快速演进,我国AI大模型产业呈现蓬勃发展的态势,通用大模型、行业大模型如雨后春笋般涌现,尽管如此,我国AI技术落地仍面临诸多安全挑战。为推动大模型产业向更高的可信标准迈进,中国信通院自2022年启动大模型技术研究和评估以来,根据产业发展不断优化迭代,已形成一套覆盖范围全、评测指标精、需求映射准的大模型评测体系。目前,中国信通院发布的《大规模预训练模型技术和应用评估方法》系列标准共包含模型开发、模型能力、模型运营、模型应用和可信要求五个部分,在此前组织的大模型标准符合性验证中,新华三百业灵犀(LinSeer)已在“模型开发”和“模型能力”两个模块达到优秀级(4+级)。
为引导产业可持续发展,新华三集团与中国信通院联合其他相关单位共同开展编制《大规模预训练模型技术和应用评估方法 第5部分:可信要求》。此次评估围绕基础软硬件可信、数据可信、模型可信、应用可信四个模块展开了全方位、多维度测评,新华三百业灵犀(LinSeer)在各个模块评测中均表现了出色的技术水准,实力诠释了新华三在大模型领域领先的技术实力。
重点验证大模型基础软硬件的可信性、可靠性及兼容性。百业灵犀(LinSeer)大模型研发及应用基于的软硬件设备具备相关功能可信能力,可支撑模型稳定运行,如建立CPU集群、算力资源调度机制等,同时新华三可以提供CPU和GPU多元化的选择,满足不同市场、不同客户的需求,并通过倡导联接标准化,积极推动服务器内、外部GPU联接标准化和软件生态标准化。
重点验证大模型数据采集可靠性、预处理有效性及使用可控性。百业灵犀(LinSeer)一方面能够保障数据在采集阶段的真实性和完整性,同时通过有效的预处理程序优化数据质量,提高后续模型训练的准确性;另一方面,通过对数据的使用设置严格控制,确保数据在整个处理过程中的可信性和合规性。
重点验证大模型鲁棒性、稳定性、透明性、公平性及可追溯性。经数据集测试,参测大模型能够满足模型鲁棒性要求,且在研发和应用过程中能够记录模型版本信息和详细流程记录日志,满足模型可追溯性要求。
重点验证大模型服务可信和内容可信。百业灵犀(LinSeer)在实际操作环境中表现了超强的可靠性,拥有明确投诉与反馈机制。对所有场景下大模型生成内容进行可信性限制,支持基于用户需要增强,针对所有出入流量和内容进行可信审计和敏感信息拦截,为用户信息和数据可信保驾护航。
新华三集团致力于通过合适的切入场景,合理的模型大小,高效的数据治理、合规的内容安全,以及合用的落地工具加速AIGC应用落地。与通用大模型相比,私域大模型在解决数据可信隐患、缺乏深度行业知识等问题方面更具优势,也更利于帮助政企实现AIGC与实际业务的适配与落地。新华三百业灵犀(LinSeer)是专为数据安全高度敏感的政企用户设计而生的私域大模型,能够为垂直行业和专属地域客户提供安全、订制、独享、生长的智能化服务,全面支持政企用户利用自身数据训练专属模型。在功能层面,百业灵犀(LinSeer)拥有信息抽取、意图理解、文本生成、代码生成等核心能力,通过打造高可靠、高性能、高可信的一体化平台,提供从数据管理、模型训练、模型评估到模型部署的全生命周期服务。
作为国内较早投入AI领域的企业,新华三集团有着长期的技术积累与实践经验。面向未来,新华三将秉持“精耕务实,为时代赋智慧”的理念,聚焦AIGC技术创新,积极探索行业应用场景,以务实理念打造领先的数字化解决方案,通过不断进化的数字大脑加速推进数字化变革的智能化升级,做百行百业最值得信赖的合作伙伴。
0赞好文章,需要你的鼓励
推荐文章
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。