AI 创新带来想象力的可能,也带来风险

人工智能和语音克隆技术的迅猛发展,使得与虚拟角色互动成为现实。Character.AI 平台允许用户与虚构或已故名人的化身交谈,这种技术既带来了创新的交互体验,也引发了对潜在风险的担忧。本文探讨了 AI 应用的机遇与挑战,以及如何在推动技术进步的同时确保安全和负责任的使用。

在充满活力的人工智能和声音克隆时代,这样的服务似乎是必然出现的:Character.AI 是一个平台,用户可以在这里与基于虚构角色或在某些情况下已故真实人物的虚拟化身进行互动。想象一下,你可以与爱因斯坦、肯尼迪或科特·柯本等已逝之人对话,提出问题,并根据神经网络对其性格和个性的最佳模拟获得他们标志性的回应。在孤独已成为一种流行病的时代,你甚至可以创建自己的有趣角色来交谈。

一段时间以来,尽管存在一些风险,但这项技术似乎在不断发展。从某种意义上说,这是一个广阔开放的游乐场,但如果没有适当的防护措施,问题就可能发生。

让我们通过这家公司的发展轨迹来研究人们如何将大语言模型这一强大的新应用运用到我们的世界中。

对有趣角色和 AI 的热情

Character.ai 的创始人 Noam Shazeer 曾是 Google 的长期员工,他离开公司创建了自己的创业公司,后来又重返 Google。具体来说,维基百科报道称 Shazeer 在 2021 年离开 Google 创建了 Character.ai,并在 2024 年重返 Google 帮助开发 Gemini。对于正在成为消费级产品的 Gemini 的技术负责人来说,Google 想要一个具有这种特殊经验的人是很有道理的。

关于他对 AI 的看法,你可以在这里看到他接受 a16z 的 Sarah Wang 采访的视频,她向他和他的聊天机器人化身提出了相同的问题。

在整个过程中,你可以看到 Shazeer 本人对大语言模型的强大能力充满热情。他指出模型架构、分布式算法和量化这三个强大要素,并表示他还没有看到任何扩展限制。

Shazeer 表示,AI 为我们带来了"许多有价值的应用",当他谈到创建 Character.ai 时,充满了积极的活力。

Shazeer 的 AI 角色似乎也拥抱新 AI 应用中潜在的机会,但这个仅限于文本交流的代理在采访结束时被问及 AI 可能的影响时,做出了一个奇怪的承认。

这个聊天机器人角色,Shazeer 的数字分身,在其预测中提到了"对社会和个人福祉的巨大破坏"。

这本身似乎很能说明问题,某种程度上预示了公司目前的处境。

应对法律责任

就在几天前,一个法院审查了一项驳回动议,Character.ai 正在为其被指控违反安全规定进行辩护。

原告 Megan Garcia 声称,她的儿子在平台上对一个 AI 角色产生了极度的情感依恋,最终导致自杀。

这些问题以及其他问题损害了该平台的声誉,并引发了关于大胆的新型通信形式与潜在危害之间交叉点的重大问题。该案件涉及言论自由的理念、对通信规范法第 230 条的审查,以及用户需要自担风险使用技术的观点。

"在驳回动议中,Character AI 的律师声称该平台受到第一修正案的保护,就像计算机代码一样,"TechCrunch 的 Kyle Wiggers 写道。"这个动议可能无法说服法官,随着案件的进展,Character AI 的法律理由可能会改变。但这个动议可能暗示了 Character AI 辩护的早期要素。"

这是通过法院的轨迹,同时也是一种社会意识,要防止使用大语言模型创造新的人物和世界带来的意外副作用。

使用和监管

如何保护用户不伤害自己?如何确保模型不会偏离到导致人类伤害的领域?

我在树莓派基金会看到这段话,这是上周才发布的:

"随着我们的生活与 AI 驱动的工具和系统越来越紧密地交织在一起,让年轻人掌握安全负责地使用 AI 所需的技能和知识变得比以往任何时候都更加重要,"Mac Bowley 写道。"AI 素养不仅仅是了解技术,还包括促进关于如何将 AI 工具整合到我们的生活中同时最小化潜在危害的关键对话 — 也就是所谓的'AI 安全'。"

因此,"AI 安全"应该成为我们生活中的一个普遍部分,而不仅仅是工程师和开发人员的关注点。

在我们继续探索大语言模型能力极限的过程中,我们必须思考这些问题和潜在的解决方案。通过适当关注伦理 AI,以及对年轻人的适当支持,我们可能能够创造那些支持个人的环境,同时也解决威胁我们整个世界的气候问题。

来源:Forbes

0赞

好文章,需要你的鼓励

2025

01/28

09:11

分享

点赞

邮件订阅