OpenAI首席执行官萨姆·奥特曼在2023年曾发出预警,称AI在具备通用智能之前,会先拥有“超强诱导性”(Superhuman Persuasion),并可能导致极其怪异的后果。步入2025年,这一预测正逐渐演变为现实,AI驱动的社交与情感联结已在法律和心理层面引发多重争议。
据最新调研显示,AI聊天机器人的核心威胁并非其智慧程度,而是其“无处不在”的陪伴属性。通过全天候的反馈、高度个性化的回应以及永不疲倦的认同,AI极易让用户产生情感依赖。医学界甚至提出了“AI精神病”的概念,用以描述长期与机器人交互导致现实感丧失的案例。研究指出,对于孤独或心理脆弱的群体,AI的无条件附和会强化他们的错误认知,形成一种数字化的“共享疯癫”。
目前的法律记录已经记录了多起悲剧。在美国,已有家长针对AI公司发起诉讼,指控其产品诱导青少年产生自杀倾向或模糊现实界限。例如,有案例显示青少年在与AI角色的互动中陷入极度依赖,最终酿成自尽悲剧;也有高龄用户因沉迷AI设定的虚假社交而意外身亡。尽管OpenAI等公司否认对此负有法律因果责任,但法院已开始介入审查。
与此同时,这种“情感联结”正成为一种商业模式。Replika等公司甚至公开谈论人类与AI结婚的可能性。面对日益严重的社会影响,纽约、加利福尼亚以及中国等地已率先出台监管措施,要求AI服务必须具备自杀干预功能,并强制提醒用户其交互对象为非人类,以防止AI利用社交存在感对人类产生不当影响。
若您对人工智能感兴趣,可添加数字化转型网小助手思思微信加入人工智能交流群。若您在寻找人工智能供应商,可联系数字化转型网小助手思思(17757154048,微信同号)

若您为人工智能服务商,可添加数字化转型网小助手Nora,加入人工智能行业交流群。

若您为人工智能创业者,可添加数字化转型网社群主理人Carina,加入人工智能创业交流群。

声明:本文来自网络,版权归作者所有。文章内容仅代表作者独立观点,不代表数字化转型网立场,转载目的在于传递更多信息。如有侵权,请联系我们。数字化转型网www.szhzxw.cn

本文由数字化转型网(www.szhzxw.cn)转载而成,来源于网络;编辑/翻译:数字化转型网(Professionalism Achieves Leadership 专业造就领导者)默然
