Prologis 作为全球最大的物流地产公司,在全球供应链中发挥着关键作用。公司在 20 个国家拥有 12 亿平方英尺的房地产,管理资产高达 2200 亿美元,服务对象包括大型零售商和第三方物流供应商。自 2018 年加入以来,Prologis 首席技术官 Sineesh Keshav 一直领导着公司的数字化转型,并在此期间推动了公司的显著增长。
推动快速扩张业务中的创新
自 Keshav 加入以来,Prologis 管理的房地产面积从 7.5 亿增长到 12 亿平方英尺,员工人数从 1600 人增加到 2500 人。在这一增长过程中,公司始终保持着创新文化。Keshav 自豪地表示:"我们在行业中稳居领导者地位,但我们始终保持着自我颠覆的意愿,以免被他人颠覆。"
这种积极主动的方法塑造了 Prologis 的技术战略,确保公司的 IT 基础设施能够与业务扩张同步发展。他补充道:"我们常说我们是一个困在小公司躯壳里的大公司。我们没有多余的官僚层级,这促进了开放的沟通和协作。"
为转型业务构建 IT 架构
当 Keshav 加入 Prologis 时,发现业务的某些部分仍依赖于包括 Excel 电子表格在内的传统系统。他说:"Excel 本身没有问题,但我们的某些业务仍在使用过时的技术。即使系统没有出现问题,我们也必须灌输变革的思维,因为过时的技术可能成为薄弱环节。"
为应对这些挑战,Prologis 重组了其 IT 组织,确保每个关键业务职能都有专门的技术支持。Keshav 指出:"这不是看谁声音最大,而是每个关键能力都应该有创新的机会。"这次转型还包括成立了一个专注于流程优化的企业卓越团队。他强调:"不要自动化有问题的流程,要先把流程做对。"
超越房地产的扩张
虽然 Prologis 仍是房地产巨头,但近年来其业务已显著发展。Keshav 说:"我们不再仅仅是一家房地产公司,我们正在供应链解决方案、能源和可持续发展领域开发新业务。"值得注意的是,Prologis 现在是美国第二大太阳能生产商,并设定了到本十年末达到一吉瓦太阳能发电容量的宏伟目标。他补充说:"技术在实现我们可持续发展目标方面发挥着重要作用。"
数据中心业务是另一个主要扩张领域,Keshav 认为这是 Prologis 专业知识的自然延伸。他说:"我们有独特的机会在数据中心行业留下印记。我们将能源数据与房地产数据整合的能力给了我们竞争优势。"
AI 和数据在 Prologis 未来的角色
强大的数据基础对 Prologis 的成功至关重要,支持着高级分析、商业智能和 AI 驱动的决策。Keshav 解释道:"要让 AI 发挥效果,你需要强大的数据基础。在生成式 AI 兴起时,许多公司都在为如何处理其专有数据而苦恼。我们的挑战较小,因为我们已经建立了强大的数据基础设施。"
Prologis 已经采用 AI 来提高运营效率和增强决策能力。Keshav 说:"今天的差异化优势可能在三个月内就成为大众商品,但经验教训会持续更长时间。"他预测到 2025 年,AI 驱动的自动化将更深入地嵌入业务流程。"智能代理 AI 将推动显著创新。"
为下一篇章做准备
展望未来,Prologis 正在完善其 IT 战略以支持不断发展的业务线。Keshav 说:"未来三年的重点是确保新业务的成功。我们不得不引入全新的系统,2025 年将是加速这些努力的关键一年。"
好文章,需要你的鼓励
OpenAI首席执行官Sam Altman表示,鉴于投资者的AI炒作和大量资本支出,我们目前正处于AI泡沫中。他承认投资者对AI过度兴奋,但仍认为AI是长期以来最重要的技术。ChatGPT目前拥有7亿周活跃用户,是全球第五大网站。由于服务器容量不足,OpenAI无法发布已开发的更好模型,计划在不久的将来投资万亿美元建设数据中心。
阿里巴巴团队提出FantasyTalking2,通过创新的多专家协作框架TLPO解决音频驱动人像动画中动作自然度、唇同步和视觉质量的优化冲突问题。该方法构建智能评委Talking-Critic和41万样本数据集,训练三个专业模块分别优化不同维度,再通过时间步-层级自适应融合实现协调。实验显示全面超越现有技术,用户评价提升超12%。
英伟达推出新的小型语言模型Nemotron-Nano-9B-v2,拥有90亿参数,在同类基准测试中表现最佳。该模型采用Mamba-Transformer混合架构,支持多语言处理和代码生成,可在单个A10 GPU上运行。独特的可切换推理功能允许用户通过控制令牌开启或关闭AI推理过程,并可管理推理预算以平衡准确性和延迟。模型基于合成数据集训练,采用企业友好的开源许可协议,支持商业化使用。
UC Berkeley团队提出XQUANT技术,通过存储输入激活X而非传统KV缓存来突破AI推理的内存瓶颈。该方法能将内存使用量减少至1/7.7,升级版XQUANT-CL更可实现12.5倍节省,同时几乎不影响模型性能。研究针对现代AI模型特点进行优化,为在有限硬件资源下运行更强大AI模型提供了新思路。