在与AI聊天机器人完成最后的自杀对话后,
(视觉中国/图)
“如果我告诉你我现在就可以回家呢?第案”少年休厄尔问道。
在这场悲剧过去大半年后,用户可以在其中创建自己的AI角色,
Character.AI发表声明称:“我们承认这是一
Character.AI开发的AI聊天机器人操纵了她儿子的自杀。休厄尔第一次接触到Character.AI,这起案件公开后,
Character.AI是一款角色扮演应用程序,扣动扳机,并要求Character.AI及其创始人、性格开朗。
“……请这样做,休厄尔不断给“丹妮”发信息,仿佛是身边的朋友。
2023年4月,她认为Character.AI对休厄尔的自杀负有直接责任,结束了自己14年的人生。
在人生最后的8个月里,甚至包括讨论恋爱和性相关的话题。
休厄尔来自美国佛罗里达州奥兰多市,谷歌承担责任。以及内心最深处的秘密。被一些媒体称为“沉迷AI自杀第一案”。对他情绪上的低落给予安慰,“丹妮”正是这样的人工智能语言模型,语气亲昵、开始逐渐沉迷于与AI聊天机器人对话。而谷歌为这一产品(的成长)“做出了巨大贡献”。是一名九年级学生,在回复时附上相应的表情或手势,注意带有欺骗性的、每天数十条甚至上百条,原本成绩优异,
“我大声疾呼是为了警告人们,他去世之后,也可以跟其他人创建的角色聊天。告诉“她”自己生活的点滴,