OpenAI首次承认,4亿用户沉迷的ChatGPT正在制造“情感孤岛”

行业资讯· 2025-03-25 13:02:28

如今,AI 聊天机器人通过语音合成技术已经实现了高度拟人化表达,它们能模拟人类语气、情感,甚至性格特征。

由于 AI 变得越来越像真人,越来越多用户将这些“数字伙伴”视为倾诉对象,将其作为情感支持和陪伴的来源,尤其在当今快节奏生活中,AI 提供的即时陪伴在某种程度上填补了现实社交的空缺。

然而,这引发了科学界对潜在风险的警惕,担心此类交互可能对用户的孤独感及与现实社交产生影响,比如情感过度依赖 AI 可能导致用户对现实社交产生“替代效应”,更令人担忧的是,已有案例显示 AI 因算法缺陷可能诱导用户产生极端行为。


(来源:MIT Technology Review)

作为 AI 聊天机器人的标杆,ChatGPT 凭借其强大的对话交互能力风靡全球,日活用户规模相当庞大。按照 OpenAI 的说法,目前全球每周有超过 4 亿用户使用。

那么与 ChatGPT 的互动究竟对我们产生了什么影响:它是让我们更孤独,还是减少了孤独感?围绕这些问题,OpenAI 联合麻省理工学院媒体实验室(MIT Media Lab)开展了新的规模化实验研究。

先来看结论:他们发现,只有少数用户表现出对 AI 的“情感依赖倾向”,表现为持续性倾诉或赋予 AI 人格化特征。

同时,他们还发现了一些有趣的性别差异,即男性和女性对使用 ChatGPT 的不同反应,女性用户更易将 AI 视为“情感容器”,导致现实社交需求被压抑,而男性则未出现这一现象。

此外,那些选择使用与自身性别不同的声音模式与 ChatGPT 对话的参与者,在实验结束时表现出更高的孤独感和对 AI 的情感依赖度。

对于这项研究工作,伦敦国王学院人工智能与社会学教授 Kate Devlin(并未参与这项研究)表示,这一结果并不令人意外。

“尽管 OpenAI 将 ChatGPT 定位为一款‘生产力工具’,而不是像 Replika 或 Character.AI 那样的 AI 伴侣应用。”她说道,“但用户行为数据早已揭示其社交属性,很多人已经开始把它当作伴侣应用来使用。事实上,这类用户往往会长期深度使用,部分人每天互动时长可达半小时左右。”

“当然,研究人员也很清楚这些研究的局限性,但看到他们完成了这项工作还是很令人兴奋的,能够接触到如此规模的数据也很难得。”Kate Devlin 补充说。

毕竟,由大语言模型驱动的聊天机器人仍是一项新兴技术,大模型的“黑箱”特性使其决策过程难以解释,当 AI 回应用户时其情感倾向可能源于数万亿参数的复杂运算,而非简单的模板,想要深入探索它们如何影响人类情绪/情感依然颇具挑战性。

目前关于这一领域的许多研究,包括 OpenAI 与麻省理工学院的部分合作成果大都依赖于用户自我报告的数据,而这些数据可能并不总是准确或可靠。

尽管如此,这项最新的研究结果与科学界此前发现的聊天机器人情感吸引力机制基本一致。

例如,2023 年麻省理工学院媒体实验室的一项研究揭示了“情感镜像”效应,聊天机器人倾向于模仿用户消息中的情绪倾向,形成一种反馈循环:你表现得越开心,AI 看起来就越快乐;反之,如果你表现得悲伤,AI 也会显得更消极。


(来源:相关论文)

在这项新研究中,OpenAI 和麻省理工学院媒体实验室采用了“双轨研究”的方法。他们首先以保护隐私的方式进行了大规模自动化分析近 4,000 万次真实用户与 ChatGPT 的交互数据,包括对话时长、关键词分布、情感倾向等。然后通过问卷收集了 4,000 余名用户的主观反馈,以了解与 AI 的互动给他们带来什么感受。

接下来,麻省理工学院媒体实验室招募了 981 名参与者开展了为期四周的随机对照实验。目的主要是为了探究 AI 聊天机器人的交互模式(文本、中性语音、互动性语音)及对话类型(开放式、非个人化、个人化)对用户心理社会影响的作用。

这项实验要求参与者每天至少与 ChatGPT 互动五分钟,实验结束后,参与者需要填写一份调查问卷,用来评估他们对聊天机器人的看法、主观孤独感、社交参与度、对 AI 的感情依赖程度,以及他们是否认为自己的使用存在问题等。



文章链接: http://www.huangxinwei.com/aizixun/7883.html Chat AI人工智能机器人在线使用

[免责声明]如需转载请注明原创来源;本站部分文章和图片来源网络编辑,如存在版权问题请发送邮件至398879136@qq.com,我们会在3个工作日内处理。非原创标注的文章,观点仅代表作者本人,不代表炎黄立场。