ChatGPT 刚刚推出了一项新功能,这项功能与 OpenAI 突破性的 Operator 代理一起,预示着 AI 未来的能力将远超当前水平。
定时任务功能允许用户安排将来或定期执行的操作。虽然 Operator 可以主动浏览网页并独立完成复杂任务,但定时任务专注于自动化的、基于时间的交互。
这个想法很简单,但却与 OpenAI 在代理型 AI 方面的更广泛努力相辅相成——这种 AI 能够在无需人工输入的情况下完成复杂的多步骤目标。通过 OpenAI 的 Operator 代理,这一愿景已经开始成形,它可以独立浏览网站并代表用户完成任务。
不过目前,ChatGPT 用户可以先习惯使用定时任务功能,即使我们不在线,它也能帮助我们处理日常活动。
什么是 ChatGPT 定时任务?
这个概念非常直观——定时任务让我们可以安排将来或定期执行的提示,比如每天执行一次,然后通过通知或邮件等待结果反馈。
令人兴奋的是,这是 OpenAI 创建真正自主 AI 助手更广泛计划的一部分。Operator 处理实时网络交互,而定时任务管理基于时间的自动化——两者都代表了 AI 代表我们独立工作的不同方面。
如何使用定时任务
目前,定时任务功能仅向付费的 ChatGPT Plus、Pro 或 Teams 订阅用户开放。
要开始使用,只需点击您的个人头像并选择"任务",或从模型下拉菜单中选择"带定时任务的 ChatGPT"。OpenAI 在其网站上创建了一个包含更详细说明的页面,包括如何设置推送通知等。
今天就可以尝试的五种实用定时任务方式
以下是五个简单的提示示例,可用于获取日常活动的定期持续帮助:
个性化晨间天气和交通简报
这个提示在您出门前发送有用的每日更新:
"每天早上 7 点,为我提供 [我的位置] 的天气报告以及当天本地道路或交通网络中断情况的交通报告。"
为企业创建时事社交媒体帖子
如果您是一个人经营企业,寻找社交媒体帖子的想法可能会占用宝贵的时间:
"每天早上 9 点,请为我的 [插入企业类型] 生成一条社交媒体帖子文本。内容应与我的业务相关的时事话题有关,应该推广我们提供的产品和服务的重要性,或者教育、告知客户他们感兴趣的内容。"
创建个性化待办事项清单及提醒
这将帮助您安排一天的工作并跟踪需要完成的任务:
"每天早上 8 点,询问我有什么新任务需要添加到清单中。生成所有正在进行的任务清单,并提供帮助我完成这些任务的建议。当我告诉您已完成任务时,从清单中删除这些任务。"
及时了解您关心的主题
任何主题的新闻简报:
"每天早上 7 点,向我发送有关 [插入主题] 的最新新闻和内容。"
膳食计划
创建定制的每周膳食计划:
"每周一上午 9 点,为 [插入家庭人数] 人的家庭发送一周健康晚餐计划,并提供所需所有食材的购物清单,按类别分类。"
走向 AI 代理?
我们已经看到 OpenAI 的代理型 AI 愿景正在成形。定时任务处理基于时间的自动化,而 Operator 展示了更高级的功能——主动浏览网络、做出决策并独立完成复杂任务。
虽然定时任务功能仍处于测试阶段,但结合 Operator,我们可以看到 OpenAI 的发展路线图。未来版本可能会整合这些功能——想象一下,安排 Operator 任务自动为您每周五预订喜欢的餐厅,或者监控价格并在商品降价时自动购买。
这种整合将使 OpenAI 的技术远远超越简单的问答和建议。随着 Operator 已经处理基于网络的任务,定时任务管理基于时间的自动化,我们正在见证 AI 向真正有用的日常助手的演变,它们能够代表我们独立工作。
好文章,需要你的鼓励
B&H近期对多款M5 Pro MacBook Pro机型推出300美元优惠。14英寸M5 Pro版本(48GB内存+1TB固态硬盘)现售价2299美元,较原价2599美元节省300美元,且该配置在亚马逊无法购买,折扣机会更为难得。此外,16英寸M5 Pro版本(64GB内存+1TB固态硬盘)同样享有300美元折扣。B&H在多款高配MacBook机型上的定价已低于亚马逊,是近期可找到的最优价格。
FORTIS是专门测量AI代理"越权行为"的基准测试,研究发现十款顶尖模型普遍选择远超任务需要的高权限技能,端到端成功率最高仅14.3%。
Insta360推出GO 3S复古套装,将现代4K运动相机与胶片时代美学结合。套装核心仍是仅重39克的GO 3S,新增复古取景器、胶片风格滤镜、NFC定制外壳及可延长录制时长至76分钟的电池组。复古取景器模仿老式腰平相机设计,鼓励用户放慢节奏、专注构图。相机内置11种色彩预设及负片、正片等滤镜,同时保留FlowState防抖、4K拍摄及10米防水能力,面向热衷复古影像风格的年轻创作者。
荷兰Nebius团队提出SlimSpec,通过低秩分解压缩草稿模型LM-Head的内部表示而非裁剪词汇,在保留完整词汇表的同时将LM-Head计算时间压缩至原来的五分之一,端到端推理速度超越现有方法最高达9%。