Emma McGowan 2024年2月14日
Mozilla最近的一份报告发现,近期浪漫AI聊天机器人的爆发正创造出全新的隐私问题。
自1960年代以来,AI浪漫伴侣就已成为流行文化中的一个热点。从《我的活娃娃》中全副武装的机器人Rhoda Miller,到2013年《她》中由斯嘉丽约翰逊配音的无形声音,我们已经集体梦想著人工智慧能满足我们所有的情感需求。如今,随著生成式AI的发展与推出,这个梦想似乎终于有可能变成现实。
但这真的是一个梦吗?还是我们正在不知不觉中走向隐私的噩梦?这正是Mozilla研究团队在其最近的浪漫AI聊天机器人特别报告 隐私不包含中所关注的问题。
调查结果令人震惊,参测的11款聊天机器人中有10款未能达到Mozilla的最低安全标准。这意味著,除了其他因素外,它们不要求用户创建强密码,或无法应对任何安全漏洞。随著在Google Play商店下载量超过1亿,并且OpenAI的应用商店也出现了浪漫聊天机器人的大量涌入,这个庞大的问题只会持续扩大。
但这份报告不仅仅是数字的问题;还涉及到这些发现所带来的重大隐私影响。以Replika AI为例。根据Mozilla的报告,人们在这款应用上与其“AI灵魂伴侣”分享了最亲密的想法、感受、照片和视频,而该应用不仅记录这些信息,还可能将其出售给数据经纪人。此外,该应用允许用户以“111111”等弱密码创建账户,将所有这些敏感信息置于骇客的风险之中。
Calder表示,尽管这些隐私和安全缺陷已经够“令人不安”,但某些聊天机器人还声称能帮助用户的心理健康。她指出,浪漫AI就是其中一个例子,其条款和条件中提到:
“浪漫AI既不是医疗保健或医疗服务的提供者,也不提供医疗护理、心理健康服务或其他专业服务。只有您的医生、治疗师或其他专家才能提供这些服务。浪漫AI不对该服务提供治疗、医疗或其他专业帮助作出任何声明、陈述、保证或担保。”
然而,他们的网站却说“浪漫AI在这里维护您的心理健康”强调是他们的。尽管我们没有数字来显示有多少人阅读了条款和条件,对比有多少人查看了网站,但可以合理地假设,更多的人会接收到网站上的信息,而不是警告。
在心理健康声明与顾客自愿与其数位“灵魂伴侣”分享的私人信息之间,Calder担心这些机器人可能会轻易操控人们做平常不会做的事情。
“有什么能阻止不法分子创建旨在了解其灵魂伴侣的聊天机器人,然后利用这段关系来操控人们做可怕的事情、接受可怕的意识形态,或伤害自己或他人?”Calder表示。“这就是为什么我们迫切需要在这些AI应用中增强透明度和用户控制。”
黑洞加速器最新因此,尽管AI聊天机器人承诺提供陪伴,我们还未能达到《她》的境界:目前的现实却揭示了一个用户隐私成为入场费的严峻现实。是时候让用户、开发者和政策制定者在AI关系的领域中要求透明度、安全性和对个人界限的尊重了。唯有如此,我们才能在不妨碍数位自我的情况下,安全探索这些数位伴侣的潜力。
发表评论