本周早些时候,OpenAI推出了一种新方式,允许开发者在ChatGPT内构建应用程序,用户可以直接通过对话提示来执行任务并获得与参与应用相关的问题答案。
包括Spotify在内的多家公司已经上线了互动体验功能,让用户可以要求ChatGPT创建播放列表、推荐歌曲等。
连接与使用方法
当你在ChatGPT提示中提到Spotify时,系统将显示连接账户的选项。页面底部会出现一个"使用Spotify回答此问题"的按钮。连接账户后,AI可以访问你的数据,如喜好和收听历史记录,提供相关背景信息,帮助生成更好的答案。
从那里开始,你可以要求它根据你的品味推荐曲目、艺术家、播放列表或播客节目。
你的提示可以尽可能详细。例如,你可以创建一个带有特定情绪的播放列表,选择播放列表的使用场合,或要求只包含你最常听的艺术家、你最喜欢的流派等等。它还会询问你的首选长度,这对规划长途旅行播放列表很有帮助。
在我们的测试中,我们要求它创建一个遛狗播放列表,但所有歌曲的标题中都需要包含"Dog"。
点击建议的曲目或播客节目将打开Spotify应用,让你可以直接在那里收听或观看。
强大的控制功能
ChatGPT还能代表你在Spotify内执行操作,包括控制播放;在你的音乐库中添加和删除项目;创建、编辑和关注私人播放列表;以及管理你的关注列表。
隐私与安全考虑
需要注意的是,当你连接Spotify账户时,你同意应用程序的隐私政策。
该政策包含有关数据共享和安全的重要信息,声明如果ChatGPT遭遇安全漏洞,你的数据可能面临被未授权方访问的风险。除了让ChatGPT访问数据——如你正在播放的歌曲和播客、Spotify音乐库中保存的内容以及你关注的人——你还会提供你的IP地址和大致位置。
不过,你可以随时断开Spotify账户连接。
此外,Spotify在博客文章中解释说,它不会与OpenAI共享艺术家和创作者的内容用于训练目的。平台上的所有音乐、播客或任何其他音频或视频内容都受到保护。
可用性与扩展
该功能在145个国家以英语提供,适用于网页端和移动端的所有ChatGPT免费版、Plus版和Pro版用户。
免费和付费Spotify用户都可以使用这一集成功能;但该公司表示,付费用户可以获得更加定制化的体验。
其他公司也已将其应用集成到ChatGPT中,包括Booking.com、Canva、Coursera、Expedia、Figma和Zillow。这些集成功能允许你,例如,要求Coursera教你某些知识,或在Zillow上搜索你所在地区特定价格范围内的公寓。
Q&A
Q1:如何在ChatGPT中连接Spotify账户?
A:当你在ChatGPT提示中提到Spotify时,页面底部会出现"使用Spotify回答此问题"的按钮,点击即可连接。连接后AI可以访问你的音乐喜好和收听历史,提供更个性化的推荐服务。
Q2:连接Spotify到ChatGPT有什么隐私风险?
A:连接后ChatGPT将访问你的播放记录、音乐库内容、关注列表以及IP地址和大致位置。如果ChatGPT遭遇安全漏洞,这些数据可能被未授权方访问。不过你可以随时断开连接,且Spotify不会与OpenAI共享艺术家内容用于训练。
Q3:ChatGPT的Spotify功能具体能做什么?
A:ChatGPT可以根据你的音乐品味创建播放列表、推荐歌曲和播客,还能控制播放、管理音乐库、创建和编辑私人播放列表、管理关注列表等。你可以详细描述需求,比如特定情绪、场合或只包含特定艺术家的播放列表。
好文章,需要你的鼓励
尽管全球企业AI投资在2024年达到2523亿美元,但MIT研究显示95%的企业仍未从生成式AI投资中获得回报。专家预测2026年将成为转折点,企业将从试点阶段转向实际部署。关键在于CEO精准识别高影响领域,推进AI代理技术应用,并加强员工AI能力培训。Forrester预测30%大型企业将实施强制AI培训,而Gartner预计到2028年15%日常工作决策将由AI自主完成。
这项由北京大学等机构联合完成的研究,开发了名为GraphLocator的智能软件问题诊断系统,通过构建代码依赖图和因果问题图,能够像医生诊断疾病一样精确定位软件问题的根源。在三个大型数据集的测试中,该系统比现有方法平均提高了19.49%的召回率和11.89%的精确率,特别在处理复杂的跨模块问题时表现优异,为软件维护效率的提升开辟了新路径。
2026年软件行业将迎来定价模式的根本性变革,从传统按席位收费转向基于结果的付费模式。AI正在重塑整个软件经济学,企业IT预算的12-15%已投入AI领域。这一转变要求建立明确的成功衡量指标,如Zendesk以"自动化解决方案"为标准。未来将出现更精简的工程团队,80%的工程师需要为AI驱动的角色提升技能,同时需要重新设计软件开发和部署流程以适应AI优先的工作流程。
这项由德国达姆施塔特工业大学领导的国际研究团队首次发现,当前最先进的专家混合模型AI系统存在严重安全漏洞。通过开发GateBreaker攻击框架,研究人员证明仅需关闭约3%的特定神经元,就能让AI的攻击成功率从7.4%暴增至64.9%。该研究揭示了专家混合模型安全机制过度集中的根本缺陷,为AI安全领域敲响了警钟。