揭示 AI 关系聊天机器人的真相

![Emma McGowan](https://486579.fs1.hubspotusercontent- na1.net/hub/486579/hubfs/image%20(3) .png?width=48&height=48&name=image%20(3).png)
2024年2月14日

最近,Mozilla的一份报告发现,浪漫AI聊天机器人的爆炸性流行给隐私问题带来了全新的挑战。

自1960年代以来,AI浪漫伴侣在流行文化中已经成为一种现象。从《我的人形娃娃》中的全身仿生人「RhodaMiller」到2013年电影《她》中斯嘉丽·约翰逊所配音的无形声音,我们几代人都在共同梦想著人工智慧 能满足我们的所有情感需求。现在,随著生成性AI的发展和发布,这个梦想似乎终于有可能变成现实。

但这真的是一个梦吗?还是我们正在无意中走向隐私噩梦?这正是Mozilla研究团队在其最新的 __中所探讨的问题。

结果令人震惊,11款测试的聊天机器人中有10款未达到Mozilla的最低安全标准。(这意味著,除了其他要求外,它们不要求用户创建强密码,亦没有处理安全漏洞的方式。)随著在GooglePlay商店上估计超过1亿次的下载,OpenAI最近开设的应用商店也出现了 __ ,这一巨大的问题只会愈演愈烈。

但这份报告不仅仅是关于数字;它还探讨了这些结果可能带来的重大隐私影响。以ReplikaAI为例,根据Mozilla的报告,人们在一款不仅会记录资讯,甚至可能会将其出售给数据经纪人的应用中,与他们的「AI灵魂伴侣」分享著最私密的思想、情感、照片和视频。该应用还允许用户创建弱密码账号,例如「111111」,使所有这些敏感信息面临被黑客攻击的风险。

Calder指出,尽管这些隐私和安全缺陷已经“非常可怕”,但是一些聊天机器人还声称能帮助用户改善心理健康。她以RomanticAI为例,其中表示:

“浪漫AI既不是医疗卫生服务提供者,也不提供医疗、心理健康或其他专业服务。只有您的医生、治疗师或其他专业人士才能这样做。浪漫AI不对服务提供治疗、医疗或其他专业帮助的声明、陈述、担保或保证。”

然而,他们的网站却写著“浪漫AI旨在维护您的心理健康”(强调为他们所加)。尽管我们无法获知有多少人阅读了条款和条件以及有多少人浏览了网站,可以合理猜测,更多 人会接收到网站的信息,而非免责声明。

在心理健康的声称与用户自愿分享的个人和私密信息之间,Calder担心这些机器人可能会轻易操控人们,让他们做出平时不会做的事情。

“有什么能阻止坏人制造设计出来的聊天机器人,以便了解其灵魂伴侣,然后利用这段关系操纵人们做卑劣的事,接受可怕的意识形态,或伤害自己或他人?”Calder说。“这就是为什么我们迫切需要在这些AI应用中提升透明度和用户控制权。”

因此,尽管AI聊天机器人承诺提供伴侣关系,但我们还未达到《她》的境界:当前的情况显示,用户隐私是入场的代价。现在是时候让用户、开发者和政策制定者要求在AI关系领域内实现透明、安全和尊重个人界限。只有这样,我们才能希望安全地探索这些数位伴侣的潜力,而不会侵害到我们的数位自我。

Leave a Reply

Required fields are marked *