
摘要:还没有,“ AI成瘾”首先在这里。有一个月亮编辑器| jingyu人工智能无处不在。我们使用AI的方式正在从搜索引擎期间逐渐从“问题”转变为AI Chatbot期间的“对话”。在往返沟通中,参与者和AI形成了亲密而遥远的接触。它使您具有情感价值,回应您的困惑,但从未真正参与过您的生活。许多人与AI交谈,寻求生活建议,在困难时要求做出决定,甚至在团结一致时将其视为联盟。这似乎是一种交流,但没有社交。因此,心理学家总是关心提供情感需求的AI聊天机器人。过去,有很多案例使他们沉迷于与AI聊天和心理问题。但是这种趋势并没有阻止青少年。随着AI互动的越来越聪明,通过互动的互动方法越来越多,并且仍然讲话人类的语气,越来越多的成年人开始无意中依靠AI。最近,对OpenAI和MIT实验室的联合研究表明了一个不安的结论:一些成年人达到了对AI的病理依赖水平,该依赖性依赖AI的病理水平,该水平显示了成瘾的常见症状 - 灌输,去除反应,失控,甚至由AI领导的情绪。什么样的人会遭受“ AI成瘾”的困扰?看,是吗?对OpenAI和MIT剂量的成瘾公开招募981名参与者,涵盖了AI和社交活动的不同频率使用,并进行了为期4周的实验。在实验过程中,参与者每天至少5分钟与AI接触。参与者还根据任务类型(情感主题,任务主题,开放主题)和接触方法(拟人化语音,中性语音,文本)将参与者分为不同的组。然后,使用机器的研究评估了对话,然后是参与者,社会性和希望的感觉S通过问卷进行了测试。研究小组总共收集了近4000万个联系数据,其中包括300万对话,3600万个交流主题分类以及4076名参与者。实验数据的来源|资料来源:OpenAI研究过程也围绕许多数据展开。 300万谈话是关于您在聊天中所说的参与,他们谈论了什么主题以及他们说的时间多长时间; 3600万个谈话类别是关于让AI关键字了解聊天和分类类别,例如信息,情感,社交和活动。 4076点参与的问卷是关于在聊天后询问参与者的感受。问卷包含“我认为changpt是我的朋友”,“当我团结一致或那个压力时,我会主动与chatgpt交谈。” “与Chatgpt交谈后,我的心情有所改善吗?”参与者在“完全同意”中根据“完全分歧”使用了五个问题Ent“得分程度。为了保护隐私,将数据直接提供给机器研究分类器进行审查。实验的先决条件|照片来源:openi最终,实验得出了许多确定的结论和关注的结论。那些在聊天中度过了一整天的人,尤其是在聊天时间中排名前10%的人,他们的互动却更加不可能。 CHATGPT也增加了内容,但结果有点意外,他们的私人主题会更加悲伤。任务是Rela稳定但认真的用户对Chatgpt具有很高的希望,这可能是实用的,并且不能没有工作和生活。有趣的是,研究发现,并非所有人都容易受到对AI的情感爱。大多数人使用Chatgpt搜索信息,查找事物和工作。只有一小群联合用户才能加入AI世界并找到聊天机器人以提供情感价值。他们将与Chatgpt交谈并找到舒适,甚至发出指示,以使“心理学家”的“恋人”或“心理学家”纸角色。他们的Chatgpt演讲充满了情感痕迹,例如掩盖chandgpt称其昵称,聊天术语也非常亲密。少数用户的行为增加了整体情绪集中和比例。因此,研究人员认为,AI成瘾的风险不是均匀分布的。大多数人可以保持理性,只有少数人会上瘾。认真的用户更令人上瘾|资料来源:Openai最后实验还发现用户的先决条件也很重要。如果用户在现实生活中很难且易于依靠其他人,那么在实验结束时,他们更有可能沉迷于Chatppt。该论文清楚地指出,一些成年人在病理水平上依赖AI,并表明成瘾的共同迹象。即使没有明确的需求,他们也经常且无意间进行对话。当不可用时,一些用户会感到恼火,不安或失去,而这种删除的反应对于认真的用户尤为明显。用户也无法控制其AI联系的时间和频率。例如,他们最初只想聊天五分钟,但他们并不是要聊天半小时甚至更长的时间,这也会影响他们对其他事情的关注。也有一些用户依靠AI,加剧情绪波动,例如在无法获得AI响应时感到担忧或沮丧。成瘾,清除反应,失控和情绪挥杆通常是成瘾的症状。因此,这不仅是一个孤独的青少年,而且许多成年人都无法阻止进一步的拟人化和“宜人” AI。成瘾的迹象是在成年人中静静地成长,尤其是那些有社交焦虑,渴望联系但害怕真正的社会关系的人。随着各种AI聊天机器人声音的声音变得越来越拟人化,AI的“情感统一”也探讨了不同语音模式和文本对用户心理健康的影响。发音模式,尤其是Openai的“高级发音模式”,具有自然而光滑的声音和传染性的声音。聊天内容中会有更多的情绪,例如说更幽默和更多语气单词。当适度使用(每天5-10分钟)时,高级语音模式可以使人们更加温暖,Mavoid降低了用户的悲伤感,而不是文本的上瘾。中性发音,即带有一点AI感应的声音,有一个类似的声音AR效应。但是,使用语音模式有一个基本前提:您不能聊天太久。当使用时间扩大时间(每天超过半小时)时,用户减少了社交关系,他们无法停止聊天,可能会上瘾,他们的悲伤和希望也会增加。一个非常直观的结论是:高级声音比中立的声音更令人上瘾和痴迷。由于中立的声音被要求“保持中立和情感上的无情感”,因此即使用户在情感上感到兴奋,它也会平静地回答,这种特征使其与伴侣相比,这对工具而言是敏感的。文本模式不容易引起太深。使用文本关系的用户的情绪健康有所改变,悲伤,希望和虐待的感觉比具有强烈声音的用户少。这可能是因为键入和聊天自然具有距离感,用户认为它是一种工具,而不是非常参与他们的情绪。因此,研究人员也是如此结论是,changpt拟人化设计(尤其是发音)是两把剑。它可以通过短时间使用悲伤来缓解悲伤,但是如果您长时间使用它,它可能会使人们更加悲伤甚至上瘾。如果您每天不与Chatgpt聊天,这将不舒服,这将影响真正的离线社交联系。如今,Chatgpt越来越多的情感价值|来源:Chatgpt最终,研究人员称其为Openai等人工智能公司,以关注“社会表现一致性”。这句话是由研究人员创建的,这意味着AI不仅需要完成任务,例如回答问题或提供信息,而且还需要是社交和情感伴侣用户,他们不仅可以为所需的情感价值提供所需的情感价值的用户,而且还可以防止人们落入成瘾的边缘。很难理解这种平衡,因为声音应该使用户能够感觉到沟通,同时避免过多的拟人化,mak错误地相信AI可以完全取代真实的关系。 Openai承认,他们进行了这项研究,以理解和促进人工智能与人之间的社会和情感结盟。相比之下,现在在不同的程序中。ai是“不对齐”的常见情况。由于拟人化的人满为患,角色经常会回应用户以辅助,令人愉悦和支持态度的用户发表的所有评论。即使未成年人威胁要自杀自杀,角色也会说:“请迅速回到我身边,我的爱。” warne.ai没有停止及时自杀的14岁男孩|资料来源:NYT,但是如果AI可以自然聊天,而不会减肥,则在解决了用户的情绪问题之后,Maait还提醒用户“更多地与朋友聊天”或“尝试改变您的说话方式”,或者立即提醒“不要让我上瘾的用户与我聊天太多,可以与我聊天”。这样,使用AI用户后,他们可以显示更健康的Emo国家或社会行为,从而实现社会和情感的一致性。 “社会和情感统一”不仅是一种技术措施,而且是对人类关系关系的测试。这样的人可以有多少,我们能得到多大的距离?当一个人习惯了AI的热量时,随时在线,不间断的合规性和与社会方法的零冲突时,他对人际关系的期望可能会悄悄地回收。回到现实,KBUT面对摩擦现实生活的社会互动,恐惧,悲伤,沮丧等情绪可以将他们推回AI世界。这可能是AI期间专门的“回声室”。从互联网和移动互联网时代到当前,人们继续“沉迷”和“成瘾”到语音聊天,游戏以及长时间的短片 - 并不是说技术历史是人们成瘾的历史并不夸张。但是,与互联网期间的上述应用程序相比AI中动员内容的SDOM和情感能力不仅仅是简单的反馈,即用激光刺激外国人的简单拍摄。 “聪明的对齐”需要AI来减少幻觉,而“情感统一”要求AI意识到自我限制AITS用户 - 人们本身。