Canva 对开发者求职者的要求有新变化——这家澳大利亚 SaaS 类图形设计服务公司现在规定,在面试过程中,候选人必须使用 AI 编程助手。
Canva 成立于 2012 年,最初是一个面向个人 DIY 设计师的在线工具,之后迅速成长为企业界中 Adobe 一个更严肃的竞争对手。据报道,这家仍然为私有公司的企业目前每月服务用户超过 2.2 亿,并在 2024 年的年经常性收入达到 30 亿美元。
此前,Canva 的招聘流程中有一场侧重于计算机科学基础的面试,当时要求候选人仅凭自己的大脑编写代码。
现在,Canva 期待前端、后端以及机器学习工程岗位的候选人在技术面试过程中,展示他们使用 Copilot、Cursor 和 Claude 等工具的能力,Canva 平台负责人 Simon Newton 在周二的一篇博客中写道。
他解释说,AI 工具对于在现代软件开发中保持高效和竞争力至关重要。他的理由是,Canva 几乎一半的前端和后端工程师每天都在使用 AI 编程助手,这已经成为一种预期的工作方式,这些工具“对于保持生产力和在现代软件开发中的竞争力是必不可少的。”
然而,Newton 承认,Canva 以往的面试过程“要求候选人在解答编程问题时不使用他们在工作中实际使用的工具。”他补充说,“这种在面试过程中排斥 AI 工具的做法意味着我们无法真正评估候选人在实际岗位上的表现。”
事实上,候选人已经开始在面试任务中使用 AI 助手——有时甚至还会偷偷使用以隐藏这一事实。
Newton 写道:“我们没有抗拒这一现实,也没有试图限制 AI 的使用,而是选择拥抱透明度,接受这一全新的现实。” “这种做法使我们更清楚地了解到候选人加入我们团队后实际的工作表现。”
不过,Canva 的现有工程师并不看好这种改变。
Newton 写道:“最初的反应是担心我们只是用一位工程师所说的‘氛围式编程’来取代严谨的计算机科学基础。”
Canva 针对此担忧表示,将继续以不同的方式测试基础的计算机科学技能。
公司试行了一种招聘流程,要求候选人使用他们偏好的 AI 工具来解决 Newton 所描述的“即使使用 AI 辅助也需要真正工程判断的挑战。”
“这些问题不能仅靠一次提示就解决;它们要求进行反复思考、需求澄清和良好的决策。”
试点过程中对候选人的以下技能进行了测试:
- 理解在何时以及如何有效地利用 AI
- 分解复杂、模糊需求的能力
- 在利用 AI 作为效率倍增器时,做出合理的技术决策
- 识别并修正 AI 生成代码中的问题
- 确保 AI 生成的解决方案符合生产标准
Newton 表示,成功的候选人“并不仅仅是给 AI 下指令然后接受它生成的结果”,而是展示了能够选择性地使用编程助手以优化输出的能力。
Newton 说:“有趣的是,那些缺乏 AI 经验的候选人往往会遇到困难,不是因为他们不会编码,而是因为他们缺乏引导 AI 发挥最佳效果或能判断 AI 建议何时不够理想的判断力。”
Newton 补充道:“我们相信,未来属于那些能够将人类创意与判断力与 AI 能力无缝结合的工程师。”
他将 Canva 新招聘流程的早期测试评价为“充满希望”。
Newton 写道:“我们借助 AI 的面试对候选人和面试官来说都更具吸引力,而且这些面试为我们提供了关于候选人表现的重要预测信号。最重要的是,它们帮助我们甄别出那些能够深思熟虑、有效利用 AI 的工程师,正是我们希望构建视觉沟通未来的人才。”
这无疑表明,至少在 Canva,拥有 AI 编程助手使用经验已经成为开发者的重要技能。
好文章,需要你的鼓励
Warp成立于2021年,致力于通过技术赋能的物流网络优化企业供应链。该公司现计划使用机器人自动化其仓储网络,进一步提升供应链效率。公司在洛杉矶测试仓库安装摄像头,利用计算机视觉技术创建数字孪生环境进行实验。经过测试,Warp成功部署改装后的现成机器人处理货物装卸和存储。公司刚完成1000万美元A轮融资,计划今年开始在核心网络城市部署机器人技术。
斯坦福大学研究团队开发出SynthesizeMe方法,能让AI通过观察用户的选择自动学习个人偏好,无需填写复杂资料。该方法通过三步流程分析用户互动,生成个性化画像,在理解用户偏好方面准确率提升4.4%。研究还构建了PersonalRewardBench测试平台,为AI个性化能力评估提供标准。这项技术有望应用于智能客服、教育和内容推荐等领域。
Continuity Software研究发现,企业存储和数据保护设备在信息安全方面存在严重盲点,使公司数据面临危险暴露。调查涵盖300个环境中超过1万台设备,发现平均每台设备存在10个漏洞,其中一半为高风险。最常见漏洞涉及身份认证管理和未修复的CVE。许多设备仍使用出厂默认密码,缺乏多因素认证。研究还发现勒索软件防护功能未启用或配置错误的情况。
普渡大学研究团队首次提出AI模型免疫技术,通过条件数理论让模型能够抵抗恶意训练。该方法在保持正常功能的同时,显著增加恶意微调的难度,实验显示免疫效果可达40倍以上。这项突破性研究为AI安全提供了"预防胜于治疗"的新思路,开创了模型免疫这一全新技术方向。