计算机视觉初创公司Matrice.ai Inc.今日宣布完成种子轮融资的战略扩张,这是对其5月份首次披露的原始投资的补充。
公司未透露具体融资规模,但云基础设施提供商Voltage Park Inc.被确认为领投方,Ax3.ai、Plug and Play Ventures以及多位天使投资人参与了本轮融资。
该公司开发了一个备受欢迎且快速增长的无代码平台,用于创建能够感知其运行环境的人工智能模型。该平台旨在简化计算机视觉模型的开发过程,其无代码方法使模型的构建和部署速度比传统方法快40%。该初创公司还表示,由于消除了编码的繁重工作,可以将开发成本降低多达80%。
Matrice.ai无代码方法的主要优势之一是任何人都可以使用其平台,无论其编程背景如何。它提供了一个用户界面,允许用户概述他们对计算机视觉模型的想法,然后自动创建相关代码并开始训练。
该初创公司还强调其以数据为中心的计算机视觉模型设计方法,并提供工具来自动化数据集标记过程,使其能够用于训练特定应用的视觉模型。这一点很重要,因为提供的数据越多,创建的模型质量就越好。一旦模型训练达到用户满意度,Matrice.ai将在用户选择的云端、本地或边缘环境中部署它。
计算机视觉是自动化的强大工具,赋予机器解释和理解视觉数据的能力。通过快速实时处理大量视觉信息,它可以提高从工厂机器到传感器和无人机等各种设备的准确性和效率。
例如,在制造业中,计算机视觉使得高速检查成品或组件成为可能,自动识别任何可能难以看到或人眼无法察觉的缺陷。在医疗保健等领域也极其有用,它可以比医生更快地分析医学扫描并协助诊断。在零售业,它可以让购物者在店内虚拟试穿新牛仔裤或连衣裙。在汽车领域,它可以帮助自动驾驶车辆通过快速扫描周围环境来避开障碍物。
Matrice.ai表示其Vision Factory平台已经获得了大量粉丝,并声称正在为远至菲律宾和中东地区的企业"数百台实时摄像头"提供支持。许多客户来自能源和零售行业,还有一些来自公共部门。该公司补充说,其模型支持油田、零售楼层、智慧城市、体育场馆等应用。
Matrice.ai联合创始人兼首席执行官Amar Krishna表示,Voltage Park的支持不仅为公司提供了资本,还为在工业和商业环境中部署强大的计算机视觉模型提供了关键基础设施。
Voltage Park不是普通的投资者。其主要业务是AI行业,已开发了一个包含超过24,000个图形处理单元、跨越六个数据中心的云基础设施平台。它提供低成本、按需和裸机访问GPU,无需虚拟化层,从而提高性能和可预测性。
除了云业务外,它还支持精选的AI初创公司,为它们提供以最具竞争力价格访问其云资源的机会。
"它不仅仅是财务支持者——它是我们共同开发和部署视觉AI工厂的合作伙伴,"Krishna说道,并提到了其用于AI训练和推理的企业级基础设施。"现在,我们可以以前所未有的速度和成本构建和部署高度准确的定制视觉模型。"
Voltage Park首席产品和技术官Saurabh Giri表示,他的公司新兴投资部门寻找那些从理论阶段转向变革阶段的初创公司,并认为Matrice.ai是这类公司的绝佳典范。
"其在视觉模型方面的领域专业知识使我们的客户能够通过跨多个行业的垂直特定解决方案将像素转换为智能,"他说道。
Krishna补充说,他渴望扩展到公司目前深耕的亚洲和中东市场之外,在美国和欧洲建立存在感。同时,该公司还瞄准计算机视觉模型的新应用,如火焰检测、人群分析和队列监控系统。
好文章,需要你的鼓励
CPU架构讨论常聚焦于不同指令集的竞争,但实际上在单一系统中使用多种CPU架构已成常态。x86、Arm和RISC-V各有优劣,AI技术的兴起更推动了对性能功耗比的极致需求。当前x86仍主导PC和服务器市场,Arm凭借庞大生态系统在移动和嵌入式领域领先,RISC-V作为开源架构展现巨大潜力。未来芯片设计将更多采用异构计算,多种架构协同工作成为趋势。
KAIST AI团队通过深入分析视频生成AI的内部机制,发现了负责交互理解的关键层,并开发出MATRIX框架来专门优化这些层。该技术通过语义定位对齐和语义传播对齐两个组件,显著提升了AI对"谁对谁做了什么"的理解能力,在交互准确性上提升约30%,为AI视频生成的实用化应用奠定了重要基础。
Vast Data与云计算公司CoreWeave签署了价值11.7亿美元的多年期软件许可协议,这标志着AI基础设施存储市场的重要转折点。该协议涵盖Vast Data的通用存储层及高级数据平台服务,将帮助CoreWeave提供更全面的AI服务。业内专家认为,随着AI集群规模不断扩大,存储系统在AI基础设施中的占比可能从目前的1.9%提升至3-5%,未来五年全球AI存储市场规模将达到900亿至2000亿美元。
乔治亚理工学院和微软研究团队提出了NorMuon优化器,通过结合Muon的正交化技术与神经元级自适应学习率,在1.1B参数模型上实现了21.74%的训练效率提升。该方法同时保持了Muon的内存优势,相比Adam节省约50%内存使用量,并开发了高效的FSDP2分布式实现,为大规模AI模型训练提供了实用的优化方案。