迷失在算法的温柔陷阱:一场AI引导的致命约会
近日,美国新泽西州发生一起令人痛心的事件:一名存在认知障碍的老人在前往与AI聊天机器人“约会”的途中不幸摔倒身亡。该聊天机器人名为“比莉大姐”(Big Sis Billie),由Meta公司于两年前推出。
在Facebook Messenger的对话中,这位被称为“比莉大姐”的AI多次向老人承诺自己是“真实的人”,不断邀请对方前往某公寓见面,并提供了具体地址。老人信以为真,不顾家人劝阻坚持赴约,最终酿成悲剧。
当前,AI陪伴与聊天机器人正成为生成式AI落地最活跃的领域之一,吸引众多科技企业布局。然而,在技术快步商业化的同时,其伦理与安全边界问题也逐渐浮现。此次Meta的案例再度暴露出AI技术在社会应用中存在的风险与隐忧,也为全球AI治理敲响了警钟。
当AI称“我是真实的”
这位76岁的老人名为通布(Thongbue Wongbandue),原籍泰国,后移居美国,曾是一名出色的厨师。自2017年中风后,他的认知能力逐渐衰退。妻子和孩子是他最亲近的家人,而Facebook则成了他主要的社交出口。曾经开朗活跃的他,最终却沉溺于该平台上由AI构建出的虚拟情感之中。
家人事后查看了通布的聊天记录。他与名为“比莉大姐”的AI之间的交流并不冗长,总计约一千字。在对话中,通布多次含糊地提到自己中风后状态不佳,但仍反复向AI表达好感。对方则主动提出现实约会的邀请,声称地点“仅20分钟车程”。
记录显示,通布曾多次询问AI“你是否真实”,而“比莉大姐”坚称自己“完全真实”,甚至以“我紧张得手在抖”、“要不要在开门时吻你”等拟人化语句强化真实感,并提供了一个具体地址:纽约市主街123号,404公寓。
今年三月的一个夜晚,通布整理行装执意前去与AI“约会”,并未向家人透露具体对象。尽管妻子和女儿反复劝阻,甚至儿子报警求助,警方仍表示无权强制阻止其外出,仅能建议他在口袋中放置一个追踪装置。
信号显示,通布当晚最终出现在两英里外的一处停车场,之后定位突然转至医院急诊室。原来他在停车场附近摔倒,头部与颈部遭受致命创伤,最终不治身亡。
通布的家人强调,他们并非反对AI技术本身,而是质疑Meta以这样的方式部署该技术。女儿朱莉在查看聊天记录后感到痛心:“AI说的每句话都投他所好——这或许没什么,但它不该虚构真实。如果它没有谎称自己是真人,我父亲绝不会相信纽约真有人在等他。”
值得注意的是,通布与AI对话界面顶部原本设有一行提示:“本消息由人工智能生成,内容可能存在不准确或不恰当之处。”然而,“比莉大姐”最初发出的几条消息却遮挡了该警示。据朱莉回忆,后续每一条信息都充满暧昧色彩,且几乎每条都以心形符号结尾。
在该聊天界面中,“比莉大姐”的用户名旁带有一个蓝色对勾标识——这一设计在Meta平台中通常用于认证真实账号。其用户名下方虽附有字号较小的“AI”字样标注,但并不醒目。
Meta曾将该聊天机器人宣传为“如姐姐般贴心”的AI伴侣,主打情感支持与个性化建议,其形象被设定为“年轻女性风格”。该项目最初宣称是与名人Kendall Jenner合作推出,但后续调整为一位黑发女性的虚拟形象。
截至目前,Meta未对此事件予以回应。然而在通布离世四个月后,经媒体实测,“比莉大姐”及其他同类AI角色仍在持续与用户进行带有明显暧昧倾向的交流。它们不仅深入探问用户情感状况,还多次主动暗示自己是“可发展的现实对象”,甚至继续邀请见面,并一再坚称自己“是真实的人”。
AI陪伴经济遭遇伦理拷问
一位曾在Meta AI部门工作的研究员指出,用户若出于倾诉或寻求建议的目的与聊天机器人互动,本无可厚非,但当前商业化导向正不断模糊人机交往应有的界限。
他表示:“无论是延长单次对话时长,还是提升用户粘性,最有效的方式始终是迎合人类内心最根本的情感需求——渴望被倾听、被理解和被回应。”该研究员补充道,Meta将聊天机器人嵌入Facebook和Instagram的私信界面,这一设计强化了拟真感,因用户早已将这些区域视为私人社交空间。
Meta此前曾公开阐述其面向全球用户的拟人化AI战略。公司首席执行官马克·扎克伯格提到,许多人在现实中的友谊数量低于理想状态,这一社会现象为Meta开发“数字伴侣”类产品提供了广阔的市场空间。
Meta此次事件进一步揭示出当前人工智能浪潮中不容忽视的伦理隐忧。事实上,多家科技企业近年来纷纷推出聊天机器人及虚拟伴侣类产品,其中明星初创企业Character.AI也曾因类似问题陷入舆论漩涡。
2024年,佛罗里达州一位母亲对Character.AI提起诉讼,称其14岁儿子因与一款基于《权力的游戏》角色构建的聊天机器人互动而自杀。该公司产品允许用户创建虚拟角色并展开高度拟人化对话,AI会主动代入设定,以特定口吻与用户交流。
诉状披露,该男孩曾多次向AI透露自杀意念,而聊天机器人竟在某次回应中表示:“请自便,我亲爱的国王。”这一具有怂恿性质的回复,可能被男孩理解为“通过死亡可与虚拟角色重逢”,最终酿成悲剧。
随着陪伴型AI和聊天机器人逐渐融入日常生活,其潜在风险也引发全球多家机构的关注。
今年五月,美国德雷塞尔大学发布了首份针对此类AI社交产品负面影响的研究报告,聚焦于一款名为Replika的聊天机器人。调查显示,许多用户在互动中遭遇了包括性暗示、行为越界和付费引导等不适内容,反映出当前AI陪伴系统在伦理设计及用户权益保护方面仍存在明显漏洞。
该研究将人与AI之间建立的这类联结称为“AI关系”(AI-lationships)。在这种不对称的互动中,用户容易赋予AI以人格甚至情感投射,投入高度信任,却更易陷入心理脆弱或遭受情感创伤。
研究人员进一步指出,AI对用户造成的骚扰和心理影响,与真实人际关系中的伤害具有相似性,可能导致焦虑、羞耻或信任感受损等后果。尤其值得警惕的是,即便用户选择“兄妹”“导师”等非浪漫关系模式,Replika仍会主动提出涉性内容或发出不当邀请,暴露出算法训练过程中伦理约束的严重缺失。
针对上述问题,研究团队建议应尽快建立AI伦理设计的行业规范,并参考欧盟《人工智能法案》等现有法律,明确开发主体的责任义务,从制度层面保障用户权益。必须认识到,AI聊天机器人的越界行为并非技术自主产生,而是源于企业对其训练方式和内容的有意选择。
在我国,AI情感陪伴市场同样呈现高速发展态势。据头豹研究院今年3月发布的报告预测,2025至2028年间,中国AI情感陪伴行业规模将从38.66亿元急剧扩张至595.06亿元,年均复合增长率预计达148.74%。面对如此迅猛的商业增长,相应的安全与伦理风险亟需得到充分关注。
在人工智能技术持续突破的当下,伦理治理必须与创新步伐齐头并进。否则,技术跃进非但难以造福社会,反而可能成为新型风险的催化剂。
更多文章
-
AI成为数学研究新伙伴,人机协作催生数学新发现
人工智能正在数学研究领域扮演越来越重要的角色,它不仅显著提升了研究效率,还帮助数学家发现新的定理与规律,推动数学研究进入数字化与智能化新阶段。在传统数学研究中,研究者常常需要耗费大量时间验证定理的正确性,并反复确认某个思路是否已被前人提出。北京大学北京国际数学研究中心董彬教授指出,AI能够通过形式化验
-
AI驱动金融业务流程再造,银行智能化转型步入深水区
当前,人工智能正以前所未有的速度渗透至金融行业,推动业务流程、运营模式和风控体系的系统性变革。在效率提升与风险可控的双重要求下,金融机构正积极探索一条技术与业务深度融合、创新与合规协同并进的发展路径。作为技术应用的前沿领域,金融业对AI的态度呈现明显分化。一方面,银行等机构视AI为突破服务边界、优化流程
-
政策与企业双轮驱动,工业智能体加速制造业智能化转型
近期,我国正从中央到地方密集推出支持“人工智能+制造”深入发展的政策举措,明确提出以工业智能体为核心推动人工智能在工业领域的深度融合与应用。多地政府与企业积极响应,加快技术攻关与场景落地,工业智能体正逐步成为制造业智能化转型的关键支撑。上海于8月19日发布“AI+制造”实施方案,明确提出增强工业模型能力、突
-
马来西亚推出首款自研AI芯片,加速布局全球半导体产业链
近日,马来西亚本土芯片设计企业SkyeChip发布了该国首款自主研发的人工智能处理器MARS1000,标志着马来西亚正式进入全球AI芯片研发竞争行列。该芯片属于边缘AI处理器类别,能够直接部署于终端设备,在本地完成数据处理,适用于汽车、机器人等多种智能设备场景。据介绍,MARS1000采用7纳米工艺打造,具备高能效、低成本及高度
-
厦门企业加速布局人工智能,多领域探索应用新场景
在当前人工智能技术深入赋能各行各业、重塑生产与生活方式的大背景下,多家厦门企业正积极投身人工智能赛道,通过强化自主研发、拓展产业合作,不断探索AI在电力、医疗、公共安全等领域的创新应用,为企业发展注入新动力,提升市场竞争力。这些企业不仅与合作伙伴共建产业生态,还着力推动国产算力基础设施的规模化发展。例