大模型被喻为人类正在经历的一场科技革命,而横亘在大模型和实际业务场景之间的,是大模型在面对企业复杂业务场景时解决问题的能力,要具备这样的能力,数据是关键。
这其中需要的数据,不是通用大模型训练时用到的那些常见数据,而是与企业业务相关的数据,这些数据是大模型厂商在做模型训练难以触达的。
这就使得,当大模型真正进入实际应用场景中时,往往需要由企业再次提供这些数据进行再训练。
这些由企业提供的数据,往往又会构成一个本地数据库,这个数据库又可以被称为本地知识库。
LlamaIndex就是桥接大模型和本地知识库的一个神奇的框架。
给大模型“补钙”
自2022年11月ChatGPT一鸣惊人后,全球科技巨头都开始部署自己的大模型业务,大模型成了这个时代最性感的名词,也被认为是人类又一次颠覆式的科技革命。
那么大模型究竟从何而来?
众所周知,人类对人工智能技术的研究由来已久,大模型是人工智能技术研究中的一个分支,而大模型的本质是大数据、大算力。
大算力自不必提,就大数据而言,ChatGPT在训练过程中,使用的数据普遍源于互联网上的公开数据,例如维基百科、媒体文章、网上问答、开源社区等中的数据。
OpenAI团队基于这些公开数据对模型进行训练后,就让ChatGPT具备了摘要生成、文本生成、问答对话这些最基本的能力,这也是为什么ChatGPT最早的商用尝试,是被微软集成到了Bing中,用户优化搜索引擎。
不过,这样的通用大模型,只是拥有了互联网意义上的通用,在解决个人或企业遇到的实际问题时,现有大模型的能力依然有些捉襟见肘。
为了解决大模型在进入实际业务场景中的问题,就需要对给大模型“补钙”,目前行业中最流行的有三种方法:
第一种方法是提示词工程,这一方法是在已经训练好的大模型上,通过输入你想要查询内容的上下文,让大模型运行补充一定的语境,然后通过编写高效、准确的prompt,让大模型输出更精确的答案。
这种方法不仅对工程人员编写提示词的要求很高,也要求大模型拥有足够强的长文本输入和解析能力,这也是为什么大模型厂商都在增强自家大模型的长文本能力的原因之一。
第二种方法是微调,也就是我们常说的Fine Tuning,是在已经预训练好的大模型上,使用特定的数据集进行二次训练,使模型适应特定任务或领域。
这种方法目前也存在诸如对计算资源要求高、偏差容易被放大、易遭受对抗性攻击,甚至会导致“灾难性遗忘”等问题。
第三种方法就是RAG,是在原有大模型应用流程中,加入本地知识库,通过本地知识库的引入,补充大模型专业能力上的不足。
LlamaIndex就是通过第三种方法来让大模型具备进入企业实际应用场景中的落地能力。
为大模型加载AI知识库
在LlamaIndex框架下,该团队一共构建了三个关键组件,分别是:数据连接器、数据索引、查询接口。
这三个关键组件也是LlamaIndex将个人或企业的本地知识库“加载”到大模型中的三个主要步骤。
首先,第一步是通过数据连接器(LlamaHub)解决以往机器学习中数据清洗和数据治理的问题。
目前LlamaHub支持160多种数据格式,通过LlamaHub将这些数据形成一个Document对象列表,或是一个Node列表,并将这个列表与大模型关联起来。
第二步是通过数据索引来解决的是为不同应用场景调整数据结构的问题。
通过LlamaHub形成Document对象列表后,通过数据索引组件,构建一个用于补充查询策略、可供大模型查询的索引,例如构建成现在较为常见的向量索引。
值得一提的是,LlamaIndex现在可以将不同类型的数据统一加工成结构化数据,供大模型后续进行调用、训练和学习。
第三步是通过查询接口输入prompt和接收经过知识库后生成的结果。
通过这三个关键组件,LlamaIndex为大模型和本地知识库搭建了一条连通桥梁,为行业大模型或私有大模型提供了一条简单构建路径。
好文章,需要你的鼓励
在Meta Connect大会上,Meta展示了新一代Ray-Ban智能眼镜的硬件实力,配备神经腕带支持手势控制,电池续航翻倍,摄像头性能提升。然而AI演示却频频失败,包括Live AI烹饪指导、WhatsApp通话和实时翻译功能都出现问题。尽管Meta在智能眼镜硬件方面表现出色,但AI软件仍远未达到扎克伯格提出的"超级智能"目标。文章建议Meta考虑开放AI生态,允许用户选择其他AI服务商,这可能帮助Meta在AI硬件市场获得优势。
DeepSeek-AI团队通过强化学习技术开发出DeepSeek-R1系列推理模型,无需人工标注即可自主学习复杂推理。该模型在数学、编程等领域表现卓越,在AIME 2024中达到79.8%准确率,编程能力超越96%人类选手。研究团队还通过知识蒸馏技术将推理能力传递给小模型,使7B参数模型也能超越GPT-4o。这项突破为AI推理能力发展开辟新路径。
英伟达同意以50亿美元收购英特尔股份,双方将合作开发多代数据中心和PC产品。英伟达将以每股23.28美元的价格收购约4%的英特尔股份,成为其最大股东之一。两家公司将通过NVLink接口整合各自架构,实现CPU和GPU间的高速数据传输。英特尔将为英伟达AI平台定制x86处理器,并开发集成RTX GPU的x86系统级芯片,用于消费级PC市场。
微软研究院推出rStar-Math系统,通过创新的"深度思考"训练方法,让小型AI模型在数学推理能力上达到甚至超越OpenAI o1水平。该系统采用代码验证、过程偏好模型和四轮自进化训练,将70亿参数模型的数学能力从58.8%提升至90.0%,在美国数学奥林匹克竞赛中达到前20%水平,证明了精巧方法比模型规模更重要,为AI发展开辟了新路径。