谷歌云在人工智能领域再次发力,今天宣布了两项面向数据科学家和医疗专业人士的重要新功能。
对于数据科学家,谷歌推出了一个新的 AI 代理,承诺将为数据科学和机器学习项目的数据分析提供强大支持。而医疗专业人士则将获得扩展的多模态搜索功能,以协助患者诊断和治疗规划。
首先,谷歌实验性项目孵化器 Google Labs 宣布在 Google Colab 中推出新的数据科学代理,以帮助软件开发者分析数据。
Google Colab 是一个免费的基于云的 Jupyter Notebook,开发者可以用它来编写和执行基于 Python 的代码,用于数据科学和机器学习任务。公司表示,通过在 Colab 中集成的数据科学代理,开发者可以将原本需要数周的数据研究和分析时间缩短至数分钟,从而大大加快应用程序的开发速度。
该功能由谷歌最先进的大语言模型 Gemini 2.0 驱动,旨在消除数据分析中繁琐的设置任务,如导入库、加载数据和编写样板代码。用户只需用自然语言描述想要进行的分析,然后静待 AI 驱动的数据科学代理呈现所需的洞察。
"今天,我们很高兴向所有 Colab 用户推出数据科学代理," Google Labs 在博客文章中写道。"这项功能允许用户通过简单的自然语言描述生成完整的、可运行的 Colab notebook。"
Google Labs 解释了使用方法的简便性。用户只需打开一个空白的 Colab notebook,上传数据,然后在 Gemini 侧边栏中描述他们想要进行的分析或想要构建的原型。比如简单地说"可视化趋势"或"构建并优化预测模型"即可。
完成后,数据科学代理将生成一个功能完整、可执行的 Colab notebook,其中的代码可以轻松定制以满足特定需求。
根据 Google Labs 的说法,数据科学代理已从早期测试者那里获得了很好的反馈。其中包括劳伦斯伯克利国家实验室的一位数据科学家,在研究全球热带湿地甲烷排放的项目中,他估计这个工具帮助将近一周的数据分析工作压缩到仅仅 5 分钟。
面向医疗专业人士的多模态搜索
在其他 AI 新闻方面,谷歌云宣布为其医疗平台的 Vertex AI Search 工具更新了一项名为视觉问答 (Visual Q&A) 的新功能,使用户能够更轻松地搜索表格、图表和图示,并询问其中的数据。
该公司解释说,Vertex AI Search 医疗版本中的新多模态搜索功能将通过提供更全面的患者健康视图来帮助医生、护士和其他医疗专业人士。
Vertex AI Search 医疗版是为医疗行业量身定制的 AI 搜索工具,旨在帮助临床医生从复杂的健康记录中检索信息。多模态 AI 指的是能够处理和整合来自不同来源的信息的技术,包括图像、视频和文本。
谷歌指出,这在医疗领域尤为重要,因为近 90% 的医疗数据都以图像形式存在,如 X 光片、扫描和照片。通过将图像数据与传统医疗文件中的书面记录和文本相结合,Vertex AI Search 医疗版可以帮助做出更准确的诊断,并帮助提出更个性化的治疗计划,改善患者预后。
谷歌云全球医疗战略与解决方案总监 Aashima Gupta 表示,新的多模态功能旨在帮助临床医生更高效地工作。"多模态分析处理多样化的患者数据来源,如医学图像和基因信息,以实现更全面的理解和改进决策制定,"她说。
好文章,需要你的鼓励
尽管全球企业AI投资在2024年达到2523亿美元,但MIT研究显示95%的企业仍未从生成式AI投资中获得回报。专家预测2026年将成为转折点,企业将从试点阶段转向实际部署。关键在于CEO精准识别高影响领域,推进AI代理技术应用,并加强员工AI能力培训。Forrester预测30%大型企业将实施强制AI培训,而Gartner预计到2028年15%日常工作决策将由AI自主完成。
这项由北京大学等机构联合完成的研究,开发了名为GraphLocator的智能软件问题诊断系统,通过构建代码依赖图和因果问题图,能够像医生诊断疾病一样精确定位软件问题的根源。在三个大型数据集的测试中,该系统比现有方法平均提高了19.49%的召回率和11.89%的精确率,特别在处理复杂的跨模块问题时表现优异,为软件维护效率的提升开辟了新路径。
2026年软件行业将迎来定价模式的根本性变革,从传统按席位收费转向基于结果的付费模式。AI正在重塑整个软件经济学,企业IT预算的12-15%已投入AI领域。这一转变要求建立明确的成功衡量指标,如Zendesk以"自动化解决方案"为标准。未来将出现更精简的工程团队,80%的工程师需要为AI驱动的角色提升技能,同时需要重新设计软件开发和部署流程以适应AI优先的工作流程。
这项由德国达姆施塔特工业大学领导的国际研究团队首次发现,当前最先进的专家混合模型AI系统存在严重安全漏洞。通过开发GateBreaker攻击框架,研究人员证明仅需关闭约3%的特定神经元,就能让AI的攻击成功率从7.4%暴增至64.9%。该研究揭示了专家混合模型安全机制过度集中的根本缺陷,为AI安全领域敲响了警钟。