Canva 对开发者求职者的要求有新变化——这家澳大利亚 SaaS 类图形设计服务公司现在规定,在面试过程中,候选人必须使用 AI 编程助手。
Canva 成立于 2012 年,最初是一个面向个人 DIY 设计师的在线工具,之后迅速成长为企业界中 Adobe 一个更严肃的竞争对手。据报道,这家仍然为私有公司的企业目前每月服务用户超过 2.2 亿,并在 2024 年的年经常性收入达到 30 亿美元。
此前,Canva 的招聘流程中有一场侧重于计算机科学基础的面试,当时要求候选人仅凭自己的大脑编写代码。
现在,Canva 期待前端、后端以及机器学习工程岗位的候选人在技术面试过程中,展示他们使用 Copilot、Cursor 和 Claude 等工具的能力,Canva 平台负责人 Simon Newton 在周二的一篇博客中写道。
他解释说,AI 工具对于在现代软件开发中保持高效和竞争力至关重要。他的理由是,Canva 几乎一半的前端和后端工程师每天都在使用 AI 编程助手,这已经成为一种预期的工作方式,这些工具“对于保持生产力和在现代软件开发中的竞争力是必不可少的。”
然而,Newton 承认,Canva 以往的面试过程“要求候选人在解答编程问题时不使用他们在工作中实际使用的工具。”他补充说,“这种在面试过程中排斥 AI 工具的做法意味着我们无法真正评估候选人在实际岗位上的表现。”
事实上,候选人已经开始在面试任务中使用 AI 助手——有时甚至还会偷偷使用以隐藏这一事实。
Newton 写道:“我们没有抗拒这一现实,也没有试图限制 AI 的使用,而是选择拥抱透明度,接受这一全新的现实。” “这种做法使我们更清楚地了解到候选人加入我们团队后实际的工作表现。”
不过,Canva 的现有工程师并不看好这种改变。
Newton 写道:“最初的反应是担心我们只是用一位工程师所说的‘氛围式编程’来取代严谨的计算机科学基础。”
Canva 针对此担忧表示,将继续以不同的方式测试基础的计算机科学技能。
公司试行了一种招聘流程,要求候选人使用他们偏好的 AI 工具来解决 Newton 所描述的“即使使用 AI 辅助也需要真正工程判断的挑战。”
“这些问题不能仅靠一次提示就解决;它们要求进行反复思考、需求澄清和良好的决策。”
试点过程中对候选人的以下技能进行了测试:
- 理解在何时以及如何有效地利用 AI
- 分解复杂、模糊需求的能力
- 在利用 AI 作为效率倍增器时,做出合理的技术决策
- 识别并修正 AI 生成代码中的问题
- 确保 AI 生成的解决方案符合生产标准
Newton 表示,成功的候选人“并不仅仅是给 AI 下指令然后接受它生成的结果”,而是展示了能够选择性地使用编程助手以优化输出的能力。
Newton 说:“有趣的是,那些缺乏 AI 经验的候选人往往会遇到困难,不是因为他们不会编码,而是因为他们缺乏引导 AI 发挥最佳效果或能判断 AI 建议何时不够理想的判断力。”
Newton 补充道:“我们相信,未来属于那些能够将人类创意与判断力与 AI 能力无缝结合的工程师。”
他将 Canva 新招聘流程的早期测试评价为“充满希望”。
Newton 写道:“我们借助 AI 的面试对候选人和面试官来说都更具吸引力,而且这些面试为我们提供了关于候选人表现的重要预测信号。最重要的是,它们帮助我们甄别出那些能够深思熟虑、有效利用 AI 的工程师,正是我们希望构建视觉沟通未来的人才。”
这无疑表明,至少在 Canva,拥有 AI 编程助手使用经验已经成为开发者的重要技能。
好文章,需要你的鼓励
微软近年来频繁出现技术故障和服务中断,从Windows更新删除用户文件到Azure云服务因配置错误而崩溃,质量控制问题愈发突出。2014年公司大幅裁减测试团队后,采用敏捷开发模式替代传统测试方法,但结果并不理想。虽然Windows生态系统庞大复杂,某些问题在所难免,但Azure作为微软核心云服务,反复因配置变更导致客户服务中断,已不仅仅是质量控制问题,更是对公司技术能力的质疑。
Meta研究团队发现仅仅改变AI示例间的分隔符号就能导致模型性能产生高达45%的巨大差异,甚至可以操纵AI排行榜排名。这个看似微不足道的格式选择问题普遍存在于所有主流AI模型中,包括最先进的GPT-4o,揭示了当前AI评测体系的根本性缺陷。研究提出通过明确说明分隔符类型等方法可以部分缓解这一问题。
当团队准备部署大语言模型时,面临开源与闭源的选择。专家讨论显示,美国在开源AI领域相对落后,而中国有更多开源模型。开源系统建立在信任基础上,需要开放数据、模型架构和参数。然而,即使是被称为"开源"的DeepSeek也并非完全开源。企业客户往往倾向于闭源系统,但开源权重模型仍能提供基础设施选择自由。AI主权成为国家安全考量,各国希望控制本地化AI发展命运。
香港中文大学研究团队开发出CALM训练框架和STORM模型,通过轻量化干预方式让40亿参数小模型在优化建模任务上达到6710亿参数大模型的性能。该方法保护模型原生推理能力,仅修改2.6%内容就实现显著提升,为AI优化建模应用大幅降低了技术门槛和成本。