Canva 对开发者求职者的要求有新变化——这家澳大利亚 SaaS 类图形设计服务公司现在规定,在面试过程中,候选人必须使用 AI 编程助手。
Canva 成立于 2012 年,最初是一个面向个人 DIY 设计师的在线工具,之后迅速成长为企业界中 Adobe 一个更严肃的竞争对手。据报道,这家仍然为私有公司的企业目前每月服务用户超过 2.2 亿,并在 2024 年的年经常性收入达到 30 亿美元。
此前,Canva 的招聘流程中有一场侧重于计算机科学基础的面试,当时要求候选人仅凭自己的大脑编写代码。
现在,Canva 期待前端、后端以及机器学习工程岗位的候选人在技术面试过程中,展示他们使用 Copilot、Cursor 和 Claude 等工具的能力,Canva 平台负责人 Simon Newton 在周二的一篇博客中写道。
他解释说,AI 工具对于在现代软件开发中保持高效和竞争力至关重要。他的理由是,Canva 几乎一半的前端和后端工程师每天都在使用 AI 编程助手,这已经成为一种预期的工作方式,这些工具“对于保持生产力和在现代软件开发中的竞争力是必不可少的。”
然而,Newton 承认,Canva 以往的面试过程“要求候选人在解答编程问题时不使用他们在工作中实际使用的工具。”他补充说,“这种在面试过程中排斥 AI 工具的做法意味着我们无法真正评估候选人在实际岗位上的表现。”
事实上,候选人已经开始在面试任务中使用 AI 助手——有时甚至还会偷偷使用以隐藏这一事实。
Newton 写道:“我们没有抗拒这一现实,也没有试图限制 AI 的使用,而是选择拥抱透明度,接受这一全新的现实。” “这种做法使我们更清楚地了解到候选人加入我们团队后实际的工作表现。”
不过,Canva 的现有工程师并不看好这种改变。
Newton 写道:“最初的反应是担心我们只是用一位工程师所说的‘氛围式编程’来取代严谨的计算机科学基础。”
Canva 针对此担忧表示,将继续以不同的方式测试基础的计算机科学技能。
公司试行了一种招聘流程,要求候选人使用他们偏好的 AI 工具来解决 Newton 所描述的“即使使用 AI 辅助也需要真正工程判断的挑战。”
“这些问题不能仅靠一次提示就解决;它们要求进行反复思考、需求澄清和良好的决策。”
试点过程中对候选人的以下技能进行了测试:
- 理解在何时以及如何有效地利用 AI
- 分解复杂、模糊需求的能力
- 在利用 AI 作为效率倍增器时,做出合理的技术决策
- 识别并修正 AI 生成代码中的问题
- 确保 AI 生成的解决方案符合生产标准
Newton 表示,成功的候选人“并不仅仅是给 AI 下指令然后接受它生成的结果”,而是展示了能够选择性地使用编程助手以优化输出的能力。
Newton 说:“有趣的是,那些缺乏 AI 经验的候选人往往会遇到困难,不是因为他们不会编码,而是因为他们缺乏引导 AI 发挥最佳效果或能判断 AI 建议何时不够理想的判断力。”
Newton 补充道:“我们相信,未来属于那些能够将人类创意与判断力与 AI 能力无缝结合的工程师。”
他将 Canva 新招聘流程的早期测试评价为“充满希望”。
Newton 写道:“我们借助 AI 的面试对候选人和面试官来说都更具吸引力,而且这些面试为我们提供了关于候选人表现的重要预测信号。最重要的是,它们帮助我们甄别出那些能够深思熟虑、有效利用 AI 的工程师,正是我们希望构建视觉沟通未来的人才。”
这无疑表明,至少在 Canva,拥有 AI 编程助手使用经验已经成为开发者的重要技能。
好文章,需要你的鼓励
研究人员正探索AI能否预测昏迷患者的医疗意愿,帮助医生做出生死决策。华盛顿大学研究员Ahmad正推进首个AI代理人试点项目,通过分析患者医疗数据预测其偏好。虽然准确率可达三分之二,但专家担心AI无法捕捉患者价值观的复杂性和动态变化。医生强调AI只能作为辅助工具,不应替代人类代理人,因为生死决策依赖具体情境且充满伦理挑战。
哥伦比亚大学研究团队开发了MathBode动态诊断工具,通过让数学题参数按正弦波变化来测试AI的动态推理能力。研究发现传统静态测试掩盖了AI的重要缺陷:几乎所有模型都表现出低通滤波特征和相位滞后现象,即在处理快速变化时会出现失真和延迟。该方法覆盖五个数学家族的测试,为AI模型选择和部署提供了新的评估维度。
麻省理工学院研究发现过度依赖AI会导致认知债务,削弱基本思维能力。研究表明交替进行无辅助思考和AI支持工作的模式能保持认知敏锐度。这种认知高强度间歇训练模仿体能训练中的HIIT模式,通过短时间高强度思考与恢复期交替进行,可以强化大脑神经回路,防止认知衰退,提升独立思考能力。
这项研究首次发现AI推理模型存在"雪球效应"问题——推理过程中的小错误会逐步放大,导致AI要么给出危险回答,要么过度拒绝正常请求。研究团队提出AdvChain方法,通过训练AI学习"错误-纠正"过程来获得自我纠错能力。实验显示该方法显著提升了AI的安全性和实用性,用1000个样本达到了传统方法15000个样本的效果,为AI安全训练开辟了新方向。