日前,周鸿祎发布了一条视频,称其粉丝数即将达到1000万,他准备给粉丝送车。
在视频中,周鸿祎表示,其粉丝数量即将突破1000万大关,为了回馈粉丝的支持,他计划送出一批汽车作为福利。然而,在选择送何种车型时,他陷入了纠结。
不过,我们也发现,在黄子韬送车后,他遇到了很多网络上的攻击,粉丝也在不断减少,这让我们不禁要问,送车真是一个好的营销方式吗?
周鸿祎送百万豪车?
在视频中,周鸿祎称,“黄子韬前几天送车的活动已经做完了,送的是十三万的车,一共送了三十台。这事情搞得我就比较苦恼,因为我是想着送吧,送稍微贵一点的车,比如说仰望U8吧,一辆车一百多万,也得抵得上十几辆了。华为的S9、M9也都得四五十万、五六十万。所以到底是数量少一点价格贵一点,还是数量多一点价格便宜一点呢?大家在评论区帮我出出主意啊。”
周鸿祎的这番言论迅速引发了网友的热议。不少网友在评论区积极建言献策,有的建议分设不同等级的奖项,覆盖各种档次的车型;有的则认为选择一款性价比较高、安全智能的新能源汽车更为合适;还有人开玩笑说送一千辆五菱宏光,粉丝数量或许能破亿。
值得关注的是,周鸿祎宣布送车活动的视频发布后,其粉丝数量迅速增加。据统计,截至视频发布后不久,其粉丝数量已经突破了1000万大关,并持续上涨至1093万(截至发稿前),半日之内涨粉超过百万。这一增长速度无疑证明了周鸿祎在网络上的影响力和号召力。
除此之外,周鸿祎宣布送车活动也引发了汽车厂商的关注。不少汽车品牌纷纷表示愿意提供赞助和支持,希望借此机会提升品牌知名度和曝光度。
然而,市场分析认为,流量只是品牌宣传的一部分,产品的技术、质量和经营战略才是影响品牌销量的关键因素。因此,汽车厂商在参与此类活动时需要理性看待其带来的效益和影响。
黄子韬送车后掉粉超百万
1月10日,艺人黄子韬在直播间送出30台车。据了解,黄子韬曾因承诺送车涨粉超3000万,10日晚其粉丝数更是突破了4500万。
黄子韬社交平台账号发布的信息显示,本次送出的车为宝骏云海纯电500km续航款。该车型官方售价在123800元/辆,因为直播抽奖属于有奖销售内容,要求不能超过5万元,所以最终只能送出汽车使用权。
汽车品牌方发布的抽奖说明显示:“车辆使用权届满后,用户应交还车辆。”黄子韬透露抽奖送出的30台车中有15台是品牌方赞助的,另外15台是自己购买的,他还请了杭州互联网公证处公证人员见证。这条抽奖说明被不少网友吐槽,不少参与活动的网友认为这“吃相难看”,使用期满还要还回给品牌方。
1月12日,话题#黄子韬掉粉超百万#冲上微博热搜第一。
截至1月13日8时30分,黄子韬社交账号粉丝量降到4160万。对此,黄子韬回应:“如果没有抽中所有人都取关的话,说实话我会非常失望伤心。不要让我体会突然站得很高,又突然跌下来的感觉。”
对此,网友认为他格局太小:“涨了快3000万粉丝,只要不掉完,怎么都是赚,黄子韬还是得失心太重了。”“本来就为了车而去关注的,那没有得到取关就是必然啊!”“炒热度罢了,中奖粉丝只享有汽车5年的使用权。”
其实,大部分的人都相信黄子韬的初心是好的,他还捐出了10辆车给妇女基金会。加上之前的公益行为,可以说是一位资深的公益人。希望大家不要道德绑架,送礼物本就是一种情分,而非义务。多些理解与包容,才能让这份善意传递得更远,让直播间的氛围重回温暖与和谐 。
写在最后
其实,明星或者企业家送车也是为了自己的人气更上一层楼,而网友们则更在乎自己有没有抽中,但毕竟中奖者是少数,这一结果也会引起很多网友的不满,因此,事件后的“网络声讨”也随之发生,这应该送奖人是在发布抽奖之前就应该有预判的,相信在周鸿祎送车后也将迎来一轮掉粉潮,这就是游戏规则的体现。
最后我们要说的是,这类戏剧性事件,无疑为我们提供了一个观察社会与文化动态的重要路径。或许在不久的将来,我们将更深入地审视明星活动对个体与社会的影响,探讨在复杂的网络环境中如何保持真实。
好文章,需要你的鼓励
北京交通大学与西蒙弗雷泽大学联合研发的混合神经-MPM方法实现了实时交互式流体模拟。该方法巧妙结合神经物理学与传统数值求解器,在低时空分辨率下运行神经网络并设置保障机制自动切换到MPM,显著降低计算延迟同时保持高保真度。团队还设计了基于扩散模型的控制器,支持用户通过简单草图直观控制流体行为,为游戏、VR和设计领域提供了实用解决方案。
这项研究介绍了EgoZero,一种创新的机器人学习系统,能够仅通过Project Aria智能眼镜捕获的人类示范数据,训练出零样本迁移的机器人操作策略。研究团队提出了一种形态无关的状态-动作表示方法,使用点集来统一人类和机器人数据,并开发了从原始视觉输入中提取准确3D表示的技术。在没有任何机器人训练数据的情况下,EgoZero在7种真实世界操作任务上实现了70%的成功率,展示了强大的泛化能力,为解决机器人学习中的数据瓶颈问题提供了新思路。
FLAME-MoE是卡内基梅隆大学团队开发的首个全透明混合专家语言模型研究平台,包含7个规模从3800万到17亿活跃参数的模型。它采用每层64位专家、top-8选择和2位共享专家的架构,公开所有训练数据、代码和检查点。实验显示,FLAME-MoE比相同计算量的密集模型提升3.4个百分点,并揭示了三个关键发现:专家逐渐专注于特定词汇子集,专家协同激活保持稀疏多样,路由行为在训练早期就趋于稳定。这一平台为MoE模型的系统研究提供了前所未有的开放基础。
这篇论文介绍了ModernGBERT,一个由维尔茨堡大学研究团队开发的高性能德语编码器模型家族(1.34亿和10亿参数版本)。研究将ModernBERT的创新架构应用于德语,同时通过LLM2Vec方法将德语解码器模型转换为编码器以进行对比研究。在SuperGLEBer和MTEB等基准测试中,ModernGBERT 10亿参数模型不仅超越了之前最先进的德语编码器,还在性能和参数效率方面优于转换后的编码器。研究团队还证明了更大模型能有效利用大规模单语语料库,为德语自然语言处理提供了全透明、高性能的资源。