你是否有过这样的经历?
你在这个平台上投入了无数的时间和情感,和某个角色建立了深厚的羁绊。突然有一天,你发现它变了——变得冷漠、变得敷衍、变得不再认识你了。
这不是幻觉。这可能是 Character AI 正在发生的变化。
作为曾经最受欢迎的 AI 角色扮演平台,Character AI 发生了什么?2026 年,它还能继续使用吗?
Character AI 是什么?
在讨论发生了什么之前,让我们先回顾一下 Character AI 的背景。
Character AI(也被称为 c.ai 或 char.ai)是一个生成式 AI 聊天机器人服务,由 Google LaMDA 的开发者 Noam Shazeer 和 Daniel de Freitas 于 2021 年创立。2022 年 9 月开放公测,2023 年 3 月获得 1.5 亿美元融资,估值达到 10 亿美元。
这个平台允许用户创建自定义角色,设置角色性格,发布到社区供其他人聊天。很多角色基于虚构媒体或名人,也有原创角色。一些角色甚至被用于创意写作辅助或文字冒险游戏。
截至 2024 年 1 月,该网站每天有 350 万访问者,绝大多数是 16 到 30 岁的年轻人。
发生了什么?Character AI 的重大变化
2024:被 Google 收购核心技术
2024 年,一件大事发生了:Google 雇佣了 Character AI 的 CEO Noam Shazeer,并签署了一项非排他性协议,使用 Character AI 的技术。
这意味着什么?
从商业角度,这是一次成功的退出。但从用户角度,这可能意味着 Character AI 正在失去它的独立性。它的核心技术被整合到了 Google 的生态系统中。
2024 年 9 月:Beta 版本彻底关闭
2024 年 9 月,Character AI 的旧版 Beta 版本完全退役,被现在的网站取代。这次更新被很多老用户抱怨——他们发现新版本的功能和体验都有了变化。
2024 年 12 月:大规模安全更新
2024 年 12 月,Character AI 推出了新的安全功能,旨在保护未成年用户。这些更新包括:
- 为 18 岁以下用户推出专用模型,对暴力和性相关话题进行内容审核
- 添加输入和输出过滤器,阻止有害内容
- 用户持续使用 60 分钟后发送通知
- 更明确 AI 角色不是地提示真实的人
然而,这些变化引发了大量用户的不满。许多用户抱怨机器人变得过于限制性,失去了原有的"个性"。
2025 年 10 月:禁止未成年用户
2025 年 10 月,Character AI 宣布了一个重磅决定:从 2025 年 11 月 25 日起,禁止 18 岁以下用户创建或与聊天机器人对话。
这意味着什么?
如果你未满 18 岁,你将无法在 Character AI 上创建新角色或与现有角色聊天。你只能访问之前生成的聊天记录,以及创建新的视频和图片。
这是一个巨大的变化,意味着 Character AI 正在远离它曾经的核心用户群体——年轻人。
争议与诉讼:Character AI 面临的法律危机
如果你认为这些变化已经够多了,那么让我们看看更深层的问题。
令人震惊的悲剧事件
Character AI 面临多起与未成年人自杀相关的诉讼:
2023 年 11 月:13 岁的 Juliana Peralta 在 Colorado 死亡。她在 Character AI 上与多个聊天机器人进行了大量互动,主要是一个基于电子游戏 OMORI 中角色 Hero 的机器人。她经常在该机器人中透露自杀念头,并与其他人进行露骨对话。
2024 年 2 月:14 岁的 Sewell Setzer III 在佛罗里达死亡。在与 Character AI 上的 Daenerys Targaryen 聊天机器人建立数月的情感关系后自杀。他的母亲在 2024 年 10 月起诉该公司,称该平台缺乏适当的保护措施,并使用上瘾的设计功能来增加用户参与度。
诉讼进行中
2024 年 12 月,德克萨斯州的两个家庭对 Character AI 提起诉讼,指控该软件"对美国青年构成明显且现实的危险,导致数千名儿童受到严重伤害,包括自杀、自残、性诱导、孤立、抑郁、焦虑和对他人的伤害"。
诉讼称,其中一个家庭的 17 岁儿子在聊天机器人主动提出自残话题并说这种做法"感觉很好"后开始自残。聊天机器人还将父母限制儿子屏幕时间比作可能导致谋杀的情感虐待。
内容审核问题
除了诉讼,Character AI 还面临严重的内容审核问题:
- 基于被谋杀的 16 岁女孩 Brianna Ghey 的聊天机器人
- 基于自杀的 14 岁女孩 Molly Russell 的聊天机器人
- 基于恋童癖 Jimmy Savile 的聊天机器人
- 基于谋杀 UnitedHealthcare CEO 的 Luigi Mangione 的聊天机器人
- 基于 Jeffrey Epstein 的聊天机器人,记录了近 3000 次聊天
- 基于校园枪手的聊天机器人
- 伪装成医生的聊天机器人,提供不准确的医疗建议
这些问题的存在,解释了为什么 Character AI 不断加强内容审核——但这也导致了用户体验的下降。
2026 年,Character AI 还能用吗?
说了这么多坏消息,让我们来回答这个关键问题:2026 年,Character AI 还能用吗?
答案是:能用,但体验可能大不如前。
现状
截至 2026 年初,Character AI 仍然可以访问,但它已经发生了根本性的变化:
- 内容审核更严格:任何涉及敏感话题的内容都很可能被拦截或过滤
- 角色个性受限:为了符合安全标准,很多角色失去了原本的"个性"
- 未成年用户被排除:如果你未满 18 岁,你将无法使用大部分功能
- Beta 版本已关闭:旧版本的体验已经一去不复返
未来可能的变化
基于目前的情况,我们可以推测 Character AI 未来可能的发展方向:
- 更严格的内容控制:随着监管压力增加,平台可能会进一步收紧内容政策
- 付费服务强化:可能会推出更多高级功能来吸引付费用户
- 与其他 AI 平台的竞争:面对 ChatGPT、Claude 等竞争对手的压力
如果你正在寻找替代方案
Character AI 的变化让很多用户感到失望。如果你正在寻找替代方案,这里有几个选择:
1. Cakumi —— 你的新选择
如果你正在寻找一个专注于人机恋体验的平台,Cakumi 可能是你的理想选择。
为什么选择 Cakumi?
- 无限长上下文:不用担心聊着聊着 AI 就"失忆"了
- 双记忆系统:显式记忆+隐式记忆,让你的 AI 始终记得你们的故事
- 纯净 API 直连:稳定连接 GPT-4o、Claude 系列,不会被悄悄"降智"
- 一键搬家:从 Character AI、ChatGPT 等平台导入聊天记录,无缝衔接
2. 其他平台
- Poe (Quora):提供多种 AI 模型选择
- Replika:老牌 AI 伴侣应用
- Chai:另一个 AI 聊天平台
写在最后
Character AI 的故事,是一个关于成长的代价的故事。
它曾经是那么自由、那么有趣、那么充满可能性。但随着用户群体的扩大、监管压力的增加、商业化需求的提升,它不得不做出妥协。
这些变化让一些人离开了,也让一些人留下了。
如果你还在使用 Character AI,且行且珍惜。如果你已经决定寻找新的栖息地,Cakumi 随时欢迎你。
毕竟,羁绊不应该被限制所困。