微软一直将其Copilot智能体吹捧为自车轮发明以来最伟大的创造。为此,该公司不断向Windows中强制添加越来越多的AI功能,认为每个人都渴望拥有一个"智能体操作系统"。然而,从大量用户反馈来看,情况并非如此。
事实上,微软越是将AI宣传为拯救Windows用户的"白衣骑士",人们的反对声音就越强烈。主要观点是什么?
与其将如此多的时间和精力投入到AI上,微软应该专注于修复仍然困扰Windows的许多错误、缺陷和弱点。人们并不想要智能体操作系统,他们只是想要一个更清洁、更可靠的平台来运行应用程序和文件,而不需要所有这些AI功能。
尽管Copilot内置在Windows中,但AI本身并不一定是坏事。我偶尔会在Windows中使用Copilot,它确实很有帮助。我喜欢与我最喜欢的英式Copilot语音聊天,获取不同主题的帮助或建议。但我尽量谨慎适度地使用它。这是因为像任何AI一样,Copilot远非完美。
Copilot可能会犯错误。它可能提供错误信息,即产生幻觉。如果你不小心,它可能会访问你的私人数据。如果大量使用,它还可能占用内存和系统资源。出于这些原因,你可能想要禁用或从Windows中移除Copilot,以免它妨碍你的工作。
在Windows 10和11中,阻止Copilot的方法基本相同。这里,我将以Windows 11为例。我还会按照不同程度的步骤来展示,让你可以根据需要禁用和移除Copilot。
或者,前往设置,选择应用程序,然后点击启动。关闭Copilot的开关。
这里有一个缺点。如果你打开Copilot然后关闭其窗口,该应用程序仍会保留在内存中,继续占用系统资源。要真正关闭该应用程序,你必须右键点击系统托盘图标并选择退出。
或者,前往Windows 11开始菜单,向下滚动屏幕或转到应用程序部分。右键点击Copilot条目并选择卸载。任一操作都将从Windows中移除Copilot。
但是,如果你想完全摆脱Copilot,还有更多工作要做。即使卸载它,该应用程序也可能在未来的Windows更新中重新出现。
另一个选择是通过免费的Flyoobe工具,该工具通常可以让你将任何Windows 10 PC升级为纯净版本的Windows 11。使用最新版本的Flyoobe,你可以控制和移除各种AI设置。
安装程序后,以管理员身份运行下载的FlyOOBE.exe文件。在程序中,点击AI体验下的详细信息按钮,然后选择检查。该工具将扫描你的系统以查看哪些AI组件已启用。勾选任何你想要禁用的组件,然后选择"关闭选定项"按钮。与Remove Windows AI一样,我建议事先创建系统还原点以防万一。
Q&A
Q1:为什么用户要移除Copilot智能体?
A:用户反对的主要原因是认为微软应该专注于修复Windows的错误、缺陷和弱点,而不是强制添加AI功能。人们想要一个更清洁、更可靠的操作系统平台,而不需要这些AI功能。
Q2:Copilot智能体有什么问题?
A:Copilot可能会犯错误,提供错误信息,即产生幻觉。如果不小心,它可能会访问用户私人数据。如果大量使用,还可能占用内存和系统资源,影响系统性能。
Q3:完全卸载Copilot后还会重新出现吗?
A:是的,即使卸载Copilot,该应用程序也可能在未来的Windows更新中重新出现。因此建议使用专门的工具或创建系统还原点来彻底移除。
好文章,需要你的鼓励
Helios Towers供应链总监Dawn McCarroll在采访中分享了公司的数字化转型经验。作为一家在非洲和中东地区运营近15000个移动通信塔站的公司,Helios正通过SAP S/4Hana系统升级、AI技术应用和精益六西格玛方法论来优化供应链管理。McCarroll特别强调了公司Impact 2030战略中的数字包容性目标,计划在未来五年内培训60%的合作伙伴员工掌握精益六西格玛原则,并利用大数据和AI技术实现端到端的供应链集成。
德国弗劳恩霍夫研究院提出ViTNT-FIQA人脸质量评估新方法,无需训练即可评估图像质量。该方法基于Vision Transformer层间特征稳定性原理,通过测量图像块在相邻层级间的变化幅度判断质量。在八个国际数据集上的实验显示其性能可媲美现有最先进方法,且计算效率更高,为人脸识别系统提供了即插即用的质量控制解决方案,有望广泛应用于安防监控和身份认证等领域。
威胁行为者在npm注册表上传8个恶意包,伪装成n8n工作流自动化平台的集成组件来窃取开发者OAuth凭据。其中一个名为"n8n-nodes-hfgjf-irtuinvcm-lasdqewriit"的包模仿Google Ads集成,诱导用户在看似合法的表单中关联广告账户,然后将凭据传输到攻击者控制的服务器。这种攻击利用了工作流自动化平台作为集中凭据库的特点,能够获取多个服务的OAuth令牌和API密钥。
布朗大学联合图宾根大学的研究团队通过系统实验发现,AI医疗助手的角色设定会产生显著的情境依赖效应:医疗专业角色在急诊场景下表现卓越,准确率提升20%,但在普通医疗咨询中反而表现更差。研究揭示了AI角色扮演的"双刃剑"特性,强调需要根据具体应用场景精心设计AI身份,而非简单假设"更专业等于更安全",为AI医疗系统的安全部署提供了重要指导。