揭示AI恋爱聊天机器人的真相

艾玛麦戈温 2024年2月14日

Mozilla 最近的一份报告指出,浪漫AI聊天机器人的迅猛发展正在引发全新的隐私担忧。

梯子加速器

自1960年代以来,AI浪漫伙伴已经成为流行文化的一部分。从《我生活中的娃娃》中全功能的安卓机器人“Rhoda Miller”,到2013年电影《她》中斯嘉丽约翰逊配音的无形声音,我们已经集体梦想著人工智慧能满足我们所有的情感需求。而现在,随著生成式AI的发展与推出,这个梦想似乎终于要变成现实。

但这真的是梦想吗?还是我们正在无意中走向一场隐私噩梦?这正是Mozilla研究团队在其最新的 浪漫AI聊天机器人的隐私报告 中所探讨的问题。

报告的发现让人震惊,11个测试的聊天机器人中有10个未能达到Mozilla的最低安全标准。(这意味著,其中一些聊天机器人不要求用户设定强密码,也没有处理安全漏洞的方式。) 根据估算,在Google Play商店的下载量已超过1亿,随著OpenAI应用商店的开放,最近也涌现出很多浪漫聊天机器人,这个大问题只会继续扩大。

但是,该报告不仅仅是数字的堆砌;它也探讨了这些发现的重大潜在隐私影响。以Replika AI为例。根据Mozilla的说法,人们在这款应用上与他们的“AI灵魂伴侣”分享了自己最私密的思想、感受、照片和视频,而该应用不仅记录这些资讯,还可能将其出售给数据经纪商。它还允许用户使用像“111111”这样的弱密码创建帐户,让所有敏感信息面临被骇的风险。

Calder表示,尽管这些隐私和安全缺陷已经很“肮脏”,但一些机器人还声称可以帮助用户的心理健康。她以Romantic AI为例,指出其条款和条件这样说:

揭示AI恋爱聊天机器人的真相

“Romantic AI既不是医疗服务的提供者,也不提供医疗护理、心理健康服务或其他专业服务。只有您的医生、治疗师或任何其他专家才能做到这一点。Romantic AI不对提供治疗、医疗或其他专业帮助做出任何声明、陈述、担保或保证。”

然而,他们的网站上却说“Romantic AI在这里以维护您的心理健康”强调是他们的说法。虽然我们没有确切的数字来显示有多少人阅读条款与条件与多少人阅读网站内容,但可以肯定的是,很多人更容易接收到网站上的信息,而非免责声明。

在这些心理健康声明和客户愿意与数位“灵魂伴侣”分享的个人、私密资讯之间,Calder担心这些机器人很容易会操纵人们做出他们本不会做的事情。

“有什么可以阻止不法分子创建聊天机器人,让其了解他们的灵魂伴侣,然后利用这种关系操纵这些人做可怕的事情、接受可怕的意识形态,或者伤害自己或他人呢?”Calder说。“这就是为什么我们迫切需要在这些AI应用中增强透明度和用户控制。”

因此,虽然AI聊天机器人承诺带来伴侣关系,但我们距离她的水准尚远:目前的现状显示,使用者隐私的代价依然很高。现在是时候让使用者、开发者和政策制定者在AI关系领域要求透明度、安全性以及对个人界限的尊重。只有这样,我们才能安全地探索这些数字伴侣的潜力,而不危害我们的数位自我。

给我们留言