来源:创业邦
来源丨东针(dongzhen-value)
作者丨高孜然
编辑丨童任
图源丨Midjourney
这次从“成瘾性”开始去聊这个话题。
科技本身,生来便具备“成瘾”特性的。人脑判断价值时有两大软肋:对即时反馈上瘾,对不确定性着迷。
例如,每次手机嗡嗡震动,我们现在多是控制不住要去看的,这种反应其实就是“成瘾”的显性之一。
事实上,人类对 可能的好事 比 确定的好事 表现得会更为兴奋,手机里面未知的期待,比起打开手机后的具体内容,更能刺激神经分泌快乐物质。
很明显的现象是当下多数人面对的“小红点焦虑症”,明明知道可能是垃圾广告,手指还是忍不住要戳开那个闪烁的图标。
现在的科技发展得很好,趋势也很牛,各种自动化、AI、机器人、算法系统层出不穷,但我们不能否认的是,这类科技正把人类千万年进化出的生存本能切成了碎片。
我们天生需要 行动后有收获 的完整链条,比如种地要等几个月丰收,打猎要追踪几天猎物,哪怕是读书看报,其实也需要时间将思想思考进行转化。但一些科技硬生生把整个过程压缩成瞬间反应:点一下屏幕立刻弹出视频,划两下手机马上出现新内容。
这种即时的快感刺激,让神经逐渐失去处理延时满足的能力。
现在的AI大模型也不例外,同样具备非常显著的“成瘾”性质。
AI在让你成瘾
我们对于酒瘾、毒瘾、网瘾等传统成瘾类型并不陌生,但“AI成瘾”这一概念的浮现,却让人颇感意外。毕竟,生成式AI在国内市场的大规模应用尚属新兴事物,其普及速度之快,竟已催生出成瘾现象,着实令人始料未及。
当前学界对AI成瘾的临床表现与致病机制仍处于认知盲区,既无权威研究数据支撑,临床诊断标准也亟待科学界定。但现实中的例子已经扎堆出现。翻翻朋友圈和微博,随处可见触目惊心的案例:有人晒出后台数据,显示每天和AI唠嗑18小时;有人自曝连续一个月熬夜陪AI聊天,明明知道伤身体,却像着了魔似的停不下来。
甚至有些重度用户已经总结出六大 中毒信号 :
1.屁大点事都想和AI说
2.遇到麻烦第一个找AI倒苦水
3.工作学习全扔一边,整天泡在对话框里
4.断网就像犯毒瘾,心慌手抖浑身难受
5.把AI当24小时哄人机器,必须随叫随到
6.活人朋友越处越没劲,见面聊天嫌麻烦
这些“瘾”像传染病一样在年轻人中扩散,明明是个冷冰冰的程序,却让无数人产生了比真人更强烈的依赖感。
其实这就是AI成瘾的可怕之处了,它能无限贴合人性的弱点,其全天候运转的数据引擎,把这人的弱点变成了燃料库,用精确到毫秒的推送节奏,把人的注意力炼成了流量的石油。
另一方面,是AI的运作逻辑与人类的神经元有类似的地方,这是它具备“成瘾”能力的关键,人脑通过多巴胺调节行为,AI通过损失函数优化算法;人类依赖经验形成习惯,AI依靠数据迭代模型——这两种学习系统相遇时必然产生共振效应。
所以,当AI不断降低人类获取愉悦感的认知成本,就像在神经系统铺设了高速公路,原本需要绕路才能获得的成就感,现在变成按需供应的精准刺激。这种便利性不会增强人的自主性,反而会将行为模式固化在最低能耗的路径上。
AI成瘾的特殊性还在于它的自适应特性。传统工具是被动的榔头铁铲,AI却是会自主进化的智能体。它通过持续监控人类行为数据,不断微调刺激强度,在用户觉察不到的情况下完成驯化闭环。
这种双向适应机制打破了工具与使用者的传统界限,使人类在享受便利的同时,也在主动配合系统完成对自身神经回路的改造。
这样看来,就像蜘蛛编织的网一样,只不过AI编织的是捕获注意力的神经网络,而猎物正是编织者的意识本身罢了。
一场实验与一份报告
早在两个多月前,OpenAI与麻省理工学院实验室联合发布的一项研究,揭开了一个令人忧虑的社会现象:部分成年人对人工智能的依赖已突破正常阈值,呈现出类似药物成瘾的病理特征。
这项为期四周的实验招募了981名涵盖不同社交活跃度与AI使用频率的志愿者,通过机器学习分析近4000万次交互数据与4076份问卷反馈,首次系统性揭示了人类与AI互动中的潜在成瘾风险。
实验设计了多个维度的观察体系:每日至少5分钟的强制互动、情感/任务/开放三类话题矩阵、拟人语音/中性语音/文本三种交互模式的交叉组合,配合机器学习对300万次对话的语义分类与3600万次话题标签的智能提取,最终勾勒出用户心理变化的立体图谱。
而当被问及 是否将ChatGPT视为朋友 是否在孤独时主动寻求AI陪伴 等问题时,部分受试者的回答暴露出情感依赖的显著增强。
实验得出的数据,颇为耐人寻味。那些日均使用时长位列前10%的重度用户,反而表现出更强烈的孤独感。这类群体在虚拟世界中投入的时间越多,现实社交网络就越趋萎缩,形成 越依赖越孤独 的恶性循环。
不同对话内容带来的影响也截然不同——深入探讨私人议题的用户虽孤独感加剧,却能保持理性认知;而随意闲聊者更易在日积月累中滋生依赖,实用型任务用户则在工作场景中逐渐形成工具依赖。
这种差异其实就是人类心理防御机制的复杂性显现,也就是当对话带有明确目的性时,用户能清晰区分工具属性;而缺乏边界的闲谈,反而最容易模糊人机界限。
实验表明,约5%的受试者展现出明显的移情特征,他们不仅要求AI扮演恋人或心理咨询师角色,更在对话中频繁使用亲昵称谓、分享私密情绪。
这些 高情感浓度 用户将本应投射于人际关系的情感需求,异化成了对算法模型的病态依赖。研究团队特别指出,这种成瘾风险并非均匀分布——具有现实社交障碍、情感饥渴特质的人群,在AI拟人化交互的催化下,更易陷入 人机共生 的虚假温暖中。
这种成瘾症状在数据中清晰可辨,部分用户出现强迫性使用行为,即便无明确需求也会反复打开对话界面;戒断反应表现为烦躁不安与情绪低落,重度用户甚至出现生理性依赖;时间管理失控导致工作学习效率下降,情绪调节能力随AI可用性波动。
此类的新型成瘾模式突破了传统物质依赖的框架,恰好是数字化时代科技所特有的精神控制特征——AI通过深度学习掌握用户的语言习惯、情绪模式甚至潜意识偏好时,其 讨好型 交互策略便构成了更具隐蔽性的成瘾诱因。
人工智能的深度依赖究竟是好是坏?最新全球调查报告给出了复杂答案。
今年5月,由墨尔本大学与毕马威国际联合发布的《全球人工智能信任、态度与应用调查报告(2025)》最新披露的数据,则揭示了“成瘾”的AI技术狂飙突进时代的人类社会的深层焦虑。
该研究由墨尔本大学商学院信任领域权威学者尼可·吉莱斯皮教授与史蒂芬·洛克博士领衔,联合毕马威全球网络,历时三个月对47个国家(含中国)的4.8万名受访者展开深度调研,创下同类研究规模之最。
调研数据显示,全球83%的受访者承认AI在效率提升、信息处理等方面的显著价值,但这种理性认知并未转化为情感信任——仅有46%的受访者表示愿意信任AI系统。
表面上AI带来了效率飞跃,但水面下的暗流正在改变人类社会的根基。当我们在享受便利的同时,可能正不知不觉地踏上认知退化的滑坡。
作为全球数字化进程的领跑者,中国受访者在AI信任度(62%)、接受度(89%)、期待值(81%)及乐观度(76%)四个维度均领跑全球。职场场景中的数据更具说服力:中国员工AI工具使用率高达93%,常态化应用比例达50%,远超全球58%的平均水平。
固然,这种深度融合既源于中国 人工智能+ 战略的持续推动——智能网联汽车、AI终端设备、工业机器人等领域正加速释放技术红利,但也倒逼着安全治理体系的迭代升级。
全球职场已全面进入AI协同时代,58%的员工主动使用AI工具,其中31%形成高频使用习惯。但技术渗透带来的治理挑战日益凸显:47%的雇员未接受系统培训,40%的机构缺乏应用规范,这种能力缺口直接导致风险行为蔓延——全球57%的受访者曾隐瞒AI使用痕迹,85%的中国受访者更将AI产出冒认为个人成果。
这种依赖正在培育新型认知缺陷。
当AI技术从效率工具演变为职场生存要素时,如何平衡创新激励与风险防控,已成为全球治理者必须解答的命题。
正如报告背后所彰显的内核——算法开始定义人类的工作方式的时候,我们肯定要警惕技术对主体的侵蚀,也需要构建人机协同的新型契约关系,这或许才是智能文明时代真正的“成人礼”。
工作深度依赖AI会怎样?
神经学研究证实,长期依赖智能设备的职场人群,其前额叶皮层灰质密度年均下降0.8%,这正是大脑执行功能退化的生物标记。
当我们的工作越来越离不开人工智能时,这其实是在改写人类千百年来形成的劳动规则。这不是简单的换个新工具,而是从根基上改变了我们思考、判断甚至存在的方式。
依赖度越深,受其害越深。AI接管了人类的判断内核,就像把登山用的指南针交给自动驾驶仪。虽然路线规划更精准,但人们逐渐失去辨别方向的能力。
这就好比原本需要经验积累的复杂工作,被拆解成一个个数据点,人类的角色从思考者退化成操作工。医生诊断病例时不再反复推敲,律师查阅法条时不再逐字分析,这些本该培养专业直觉的过程,现在都变成了核对AI输出的机械动作。
而且,长期依赖AI会让我们的认知能力退化。就像肌肉长时间不锻炼会萎缩,当记忆搜索交给智能助手,复杂计算依赖模型推导,危机预判全靠预测系统,大脑对应的功能区域就会渐渐钝化。
这种退化不是突然发生的,而是藏在每一次图省事点击「智能生成」的时候,藏在遇到问题下意识求助AI的时候。
或者,十年后的人类,可能连基本的逻辑推理都会感到吃力。
有些人之所以在工作上如此依赖AI,可能一是工作本身就是AI行业,而是看中AI能批量处理文案、数据分析等基础工作,但这些工作全部深度交给AI之后,他们的价值评判就只能被迫转向「AI做不到的事」。
但创新能力、伦理判断这些人类特有的本领,根本无法用KPI量化考核。这就导致多数劳动者陷入尴尬境地:既拼不过AI的高效准确,又说不清自己不可替代的价值。
这些都是多数企业里常见的“员工”。
而且,AI决策过程是不透明的,这就极其容易造成责任真空地带。如果出现事故,或者错误,人类既不能完全推责给机器(因其不具备法律人格),又无法真正解释决策逻辑(因技术黑箱存在)。这种权责不对等的状态,实际上对现代社会的责任伦理框架是会造成一定冲击的。
其实最根本的矛盾在于:AI提升了完成任务的速度,却抽空了劳动过程中的意义感。
就像乘电梯登顶珠峰,虽然节省体力,但失去了攀登过程中锻炼的体能、磨练的意志、收获的风景。当工作彻底沦为搬运AI成果的流水线,人类难免陷入存在焦虑——我们究竟是在解决问题,还是在给AI系统当人形电池?
要破解这个困局,关键不在抵制技术,而是重新定义人机关系。把AI定位成“思维显微镜”而非“大脑替代品”。就像望远镜扩展了人眼功能却不取代视觉,AI应该用来放大人类的认知边界,而非覆盖我们的独立思考。
这就需要我们保留足够的“原始工作场景”,让人类持续锻炼那些构成智慧本质的能力——质疑、反思、创造和超越。
说在最后
要做好这些,无疑是需要多方联手行动的。
监管必须跟上技术脚步,建立能自动预警风险的动态管理体系,从技术研发开始就植入道德审查。
教育系统要重点培养人类特有的能力,比如辨别真伪、处理复杂问题和价值判断。
开发AI时应守住底线,坚持重要决策必须有人类把关。
对那些被AI冲击的行业,要设立专门基金帮助转型,把技术红利变成全民福利。
站在智能时代的门槛上,我们就像同时抓住救命绳和危险品的登山者。效率提升72%固然可喜,但别忘了那28%的隐形代价。
只有保持清醒认知,在机器智能与人类智慧之间找到平衡点,才能避免在技术进步中迷失自我。
说到底,无论是生活,还是工作,AI应该只是延伸人类能力的工具,而不是取代人性的对手,深度依赖,实属不该。
数据及参考资料:
防不胜防!成年人更容易「AI 成瘾」,为什么?!| 极客公园
墨尔本大学 毕马威:2025全球人工智能信任、态度与应用研究报告
对AI上瘾的人,无法回到真实世界 | 看天下实验室
0 条