首页[欧陆注册]平台登录
关于我们 | 联系我们
当前位置:欧陆平台 > 新闻中心 > 新闻资讯 >
热门排名
新闻资讯

人工智能的“人性化”交互正在重塑我们的认知与情感

新闻来源:未知   发布时间:2025-07-16  点击:194次

  2025年3月,美国依隆大学(Elon University)“畅想数字未来中心”(Imagining the Digital Future Center)发布了调研报告《人工智能的近距离接触:人与语言模型日益人性化的交互方式》(Close encounters of the AI kind: The increasingly human-like way people are engaging with language models)。该报告基于对全美500名大语言模型(LLM)用户的代表性调查,深刻揭示了自ChatGPT问世以来,人工智能在美国社会惊人的渗透速度、多元化的应用场景,以及由此引发的人们在认知、情感与行为层面的深刻变革。研究不仅精准量化了大语言模型对用户生产力、创造力的影响,更深入剖析了人机交互中浮现的“拟人化”特质、相伴而生的伦理隐忧与其他负面效应。启元洞见编译整理了其中的核心内容,以供读者参考。

  报告首先指出,在美国成年人中大语言模型的普及率已高达52%,其被接纳速度之快,在现代科技史上堪称罕见。用户群体也呈现出显著多样性,尽管年轻、高学历和在职群体的使用更为普遍,但技术已广泛触及不同族裔背景与收入的人群。特别值得注意的是,西班牙裔(66%)和非裔(57%)的接纳率已超过白人(47%)。

  在应用层面,个人化、非正式学习(51%)成为首要驱动力,其比例是工作用途(24%)的两倍有余。人机关系正呈现出日益“拟人化”的趋势:65%的用户曾与大语言模型进行过口头对线%)用户认为大语言模型比自己更聪明。

  尽管用户满意度高达76%,且超过半数(54%)的人认可其对生产力的提升,但技术带来的光环与阴影并存。50%的用户承认使用大语言模型滋生了惰性,35%的用户认为带来了“作弊感”与挫败感。更值得警惕的是,23%的用户因依赖错误信息而出现过重大失误,21%的用户感到被模型操纵。这些发现揭示了人类与人工智能深度互动背后的复杂心理与社会效应。

  大语言模型的崛起,堪称一场历史性的技术普及浪潮。在短短两年半内,半数美国成年人已成为其用户。

  如图1数据所示,18岁至29岁年轻群体的接纳率高达77%,而不同收入阶层的用户比例差异微小,表明大语言模型已跨越了早期技术接纳者的范畴,开始全面融入不同社会经济背景的群体之中。其在少数族裔中的高普及率,也预示着其在弥合数字鸿沟方面可能扮演的角色。

  图1 半数美国成年人使用如ChatGPT、Gemini、Copilot或Claude等人工智能大语言模型(按人口统计特征划分)

  在市场格局(图2)中,ChatGPT凭借72%的渗透率占据绝对优势,谷歌的Gemini(50%)和微软的Copilot(39%)紧随其后。过半(58%)用户曾尝试两种以上模型,反映出市场竞争激烈,用户乐于探索。

  在用户粘性方面,图3显示,已有三分之一(34%)的用户将大语言模型在日常生活中每日使用。尽管如此,用户整体仍处于学习曲线的初级阶段,仅16%的调查者自评为“高级”用户,显示出巨大的技能提升空间。

  个人探索是驱动大语言模型使用的核心引擎。无论是用于获取知识(68%)、激发灵感(55%),还是纯粹为了娱乐(60%),个人化需求均远超工作(52%)与学业(36%)等功利性目的。

  具体的应用场景(图4)从信息检索(68%)到内容创作(42%创建邮件,38%撰写演示文稿)再到生活规划(34%),几乎无所不包。一个值得关注的现象是,已有近四分之一(23%)的用户利用大语言模型查询熟人信息,18%的用户查询自身信息,这在个人数据隐私与信息真实性方面敲响了警钟。

  报告还深入探讨了用户在与大语言模型互动时所感知的“类人性”特质,这些发现是理解人机关系演变的关键。

  用户对模型的看法呈现出有趣的分化情形,但总体倾向于高估模型的智能水平。近半数(49%)的用户认为大语言模型“至少比自己聪明一点”,其中26%的用户甚至认为“聪明得多”。这种认知上的“仰视”,可能深刻影响用户对模型输出结果的批判性思维能力。

  大语言模型的拟人化特征在对话交互中体现得淋漓尽致,65%的用户曾与模型进行过逼真的语音对话。甚至更进一步的话,用户开始从模型中感知复杂的人格特质。

  如图6所示,模型更多被认为展现了自信(57%)、乐于助人(52%)等专业且积极的形象。同时,用户也感知到了幽默(32%)、同情(22%)乃至希望(24%)等情感信号。虽然讽刺(17%)、愤怒(8%)等负面特质占比较低,但其存在本身已值得警惕。

  用户不仅将大语言模型视为工具,更在潜意识中赋予了其社会属性。如图7所示,合计高达81%的用户认为模型能提供个性化答案,69%的用户认为模型能从互动中学习。尤为引人注目的是,近七成(69%)的用户认为模型展现了“思考和推理能力”,另有43%的用户认为其在进行“道德判断”。这种将随机模型输出解读为意向性行为的倾向,是未来人机关系研究的核心课题。

  大语言模型在提升效率方面表现卓越。54%的用户称生产力得到改善,50%的用户认为其增强了学习新技能的能力。在重大生活决策上,大语言模型也开始扮演顾问角色,尤其是在职业发展(41%)和健康咨询(37%)方面。

  然而,赋能的背后是深刻的隐忧。如图8所示,半数用户体验到“懒惰或走捷径”的心理,超过三分之一的用户感到“作弊”或“过度依赖”。更为严峻的是,这种依赖带来了切实的风险,23%的用户因错误信息做出过错误决策,21%的用户感到被操纵或隐私受损。

  面对人工智能带来的伦理与社会挑战,用户将主要责任指向了技术的创造者。在透明度(58%)、偏见控制(49%)和隐私保护(43%)等核心议题上,多数人认为模型开发者应负首责。然而,在环境影响等新兴议题上,公众意见分散,对政府监管的呼声(33%)与对企业自律的期望(30%)并存,体现出治理框架的缺位。

  用户对未来的预期充满了矛盾,恰如一枚硬币的两面。如图10所示,他们既对技术突破满怀期待——62%的用户预见其将带来重大科学与医疗进步,又对社会失业(59%)、社会孤立(63%)、智能超越(53%)乃至人工智能失控(40%)等潜在危机深感不安。

  这些复杂且矛盾的预期,清晰地勾勒出公众在迎接一个与人工智能深度共存的未来时,既兴奋又审慎的集体心态。如何最大化其益处,同时构建有效的护栏以规避风险,已成为整个社会必须共同面对的紧迫议题。



上一篇:注重细节以人为本人性化服务鞍山胃康医院怎么样的温馨角落

下一篇:2024产品开发薪酬趋势调研报告

Copyright © 2012-2025 欧陆注册注册 版权所有HTML地图 XML地图
联系QQ:123456
公司官网:http://www.szrxmy.com