作为一个曾经干了快10年的老设计狗,现在听到最多的就是:
设计师要完蛋啦~
今天是视觉完蛋了,明天是原画完蛋了,后天是平面完蛋了。
反正听那意思,管你是个啥,但凡粘个设计两字,在AI时代,那你就都得完蛋。
不过在这反反复复听了一年多的完蛋的历史中,啥设计分支职业都听到要完蛋了,唯独有一个分支,却很少听到有朋友跟我说。
那个职业,叫UI设计师。
嗯,恰好就是我的职业。至于UI这玩意具体是设计啥的,我贴个百度百科的截图吧。
注意这句话:
就怎么说呢,大家开心就好。
狭义的UI设计,就是画你我手上的各种APP、网页等等的视觉界面的;至于广义的UI设计,就是得会UI、交互、用研、产品,最好还能手撸个前端代码,别问为啥广义的UI要会这么多,问就是时代变了。
然后昨天,好几个UI朋友跑来疯狂的跟我说:
卧槽,UI设计完球了。
我说你慌个球,什么情况,淡定的说。
“你去看一眼Figma”
于是我就去看了一下Figma的更新。
淦。
Figma在UI设计界是啥地位呢,大概就等于平面设计的PS、大雄的哆啦A梦、金融人的冰美式,简单的说,就是没他干不了活的程度。曾经还有个Sketch能跟他掰掰手腕,现在已经不知道飞哪去了。
现在,憋了一整年,Figma终于把他们的AI给憋出来了。
在没AI之前,UI设计们是怎么干活的呢?
用一个词描述就是工匠,每一个按钮,每一条线,每一个图标,都需要设计师亲自动手去画,活脱脱一个数字时代的打铁匠人。
大一点的UED团队,会有一个设计规范和组件库的东西,在画一些界面的时候,直接挨个拖组件,在画布上搭乐高。
在视觉、插画这些工种被AI武装了一年丢失了50%的兄弟的情况下,Figma终于带着他们的AI来了,要来武装我们的UI设计兄弟了。
难怪我的朋友们说,UI设计要完蛋了。行业完不完我不知道,但是时代的一粒灰,落在个人头上就是一座山,谁也不知道自己是不是那被丢失了50%的兄弟中的一员。
Figma的AI这次最拿得出手的功能,可能就是用一句话生成UI界面。
生成好以后,是带有图层的,设计师都懂这意味着什么,你可以进行后续的二次编辑和修改了!同时你也可以再选中某些特定元素,再用嘴,进行一些修改。
正儿八经的实现了很多老板们梦寐以求的,用嘴做设计。
除了用嘴生成UI设计稿,Figma AI还给你造了一个视觉搜索。
以前我经常拿着一个界面问同事:这你画的不?同事瞄了几眼,说:是啊。
我说你把源文件发我下,他说行,你等我一会,我找找。
然后就是a long long ago,半小时以后,终于给我发了个链接,哥们欣喜的喊着,找到了找到了。感觉他不是从仓库里淘出来了源文件,是从屎山里掏出了一公斤重的大金砖。
现在好了,找到那个设计的截图,往Figma里一丢,嘭!它立马就能帮你找到那个文件。
虽然看着有点像淘宝“找同款”。。。
除了这两个,Figma AI还整了几个花里胡哨的小功能:
自动命名图层:还记得那些命名混乱的图层吗?
以前设计师们纠结得要死,要不要给每个破图层都起个名字,起了吧累死人,不起吧找起来跟瞎子摸象似的。
“图层1”、“图层2”...简直就像是给多胞胎起名叫熊大、熊二、熊三一样。
现在好了,Figma AI直接给这些图层用AI结合上下文和图层内容,自动起个像样的名字,让你的设计文件不再像个名字大杂烩。
以上这些,就是Figma AI的所有内容了。
你没听错,没了。
只能说,如果Figma早发布半年,甚至是早三个月,没准都能引起一场轰动。
从去年6月的Config大会上,宣布收购Jordan Singer的Diagram团队开始表明全力进军AI。经过一年时间整出来的这些功能,说实话,我觉得有点敷衍了事。
并不是不实用,只是,没有任何想象力和惊喜可言,都是所有人都能预期到的存在,就是四处缝,要是都能做得特别牛逼也行,就正式版一发布怕做成个四不像。
Figma找到了自己的AI创新之路吗?我觉得还远没有,现在感觉还是在被动防御。
那架势就是你们都做了我不能不做啊,然后捣鼓半天,终于掏出个玩意,到处给大家看,说,你看你看,我真的有,还挺大的,赶紧来试试啊。
但是我们又不得不承认,他们也确实在努力拓展自己的版图。这次除了AI,还搞出来个Figma Slides,Slide如果不熟悉,那他还有个中文名,叫PPT。
Figma的首席产品官Yuhki Yamashita说,用户们一直想在Figma里搞PPT,去年一年,用户们硬是在Figma里整出了将近350万个PPT。
现在,我们看不下去了,我们直接给你们整了个标准的PPT制作流程。从设计到演示,你都不用离开Figma这个地方了。
说没有冲击,那是不可能的,因为Figma+AI这玩意儿一出来,UI设计的下限,现在被远远拉高了。
同时对设计师的专业素养和创意脑洞的要求又拉高了一个档次。
好文章,需要你的鼓励
这项研究介绍了VisCoder,一个经过专门微调的大语言模型,用于生成可执行的Python可视化代码。研究团队创建了包含20万样本的VisCode-200K数据集,结合了可执行代码示例和多轮修正对话。在PandasPlotBench基准测试中,VisCoder显著优于同等规模的开源模型,甚至在某些方面超越了GPT-4o-mini。研究还引入了自我调试评估模式,证明了反馈驱动学习对提高代码可执行性和视觉准确性的重要性。
这项研究提出了"适应再连续学习"(ACL)框架,一种创新的方法解决预训练模型在连续学习中的稳定性-可塑性困境。通过在学习新任务前先对模型进行适应性调整,ACL使模型既能更好地学习新知识(提高可塑性),又能保留已有知识(维持稳定性)。实验证明,该框架能显著提升各种连续学习方法的性能,为解决人工智能系统中的"灾难性遗忘"问题提供了有效途径。
这篇研究首次关注了CLIP模型文本编码器的对抗鲁棒性问题,提出了LEAF方法(Levenshtein高效对抗性微调)来增强文本编码器的稳健性。实验表明,LEAF显著提高了模型在面对文本扰动时的性能,在AG-News数据集上将对抗准确率从44.5%提升至63.3%。当集成到Stable Diffusion等文本到图像生成模型中时,LEAF显著提高了对抗噪声下的生成质量;在多模态检索任务中,它平均提高了10个百分点的召回率。此外,LEAF还增强了模型的可解释性,使文本嵌入的反演更加准确。
BenchHub是由韩国KAIST和Yonsei大学研究团队开发的统一评估平台,整合了38个基准中的30万个问题,按技能、学科和目标类型进行精细分类。研究显示现有评估基准存在领域分布偏差,而BenchHub通过自动分类系统和用户友好界面,让用户能根据特定需求筛选评估数据。实验证明模型在不同领域的排名差异巨大,强调了定制化评估的重要性。该平台支持多语言扩展和领域特化,为研究人员和开发者提供了灵活评估大语言模型的强大工具。