连ChatGPT的创始人都警告:最好不要用AI聊天机器人当心理治疗师

或许,在与ChatGPT聊天时,不该把你所有的秘密都倾泄而出。这并非危言耸听,而是来自OpenAI首席执行官萨姆·奥特曼(Sam Altman)本人的忠告。他认为,他的公司在法律诉讼中未必能保护您的聊天记录隐私,而这是一件“非常糟糕”的事情。

核心问题:AI对话缺乏“法律特权”

奥特曼在近期的播客访谈中指出,用户与AI的对话,理应像和医生或律师的交谈一样,受到同等的隐私保护。然而,现实并非如此。

“人们,特别是年轻人,把它当作治疗师、生活教练,”奥特曼说,“但现在,如果你和治疗师、律师或医生谈论这些问题,你的谈话内容是享有法律特权的。”

这种特权意味着,在法律程序中,专业人士不能被迫透露你们的谈话内容。但AI聊天机器人目前没有任何类似的保密规定,这些对话记录究竟会如何被处理,机制也惊人地不明确。

最直接的风险:法律诉讼中的数据呈交

奥特曼最担心的是,像OpenAI这样的公司,缺乏足够的法律保护来拒绝在诉讼中交出用户的私人对话记录。事实上,在与《纽约时报》的版权诉讼中,OpenAI就曾反对过交出用户对话记录的要求。

“如果你去和ChatGPT谈论最敏感的事情,然后发生了诉讼或其他情况,我们可能会被要求提供这些对话记录,”奥特曼坦言,“我认为这非常糟糕。我认为我们应该让你与AI的对话,享有和与治疗师对话时同等的隐私概念。”

更隐蔽的风险:模型的“记忆”与信息复述

除了法律风险,卡内基梅隆大学的研究员William Agnew也指出了另一个关键问题:模型本身可能会“复述”你的信息。

“即使这些公司试图小心处理你的数据,但众所周知,这些模型很可能会复述信息,”Agnew说,“人们真的应该更多地考虑隐私问题,并且要明白,他们告诉这些聊天机器人的几乎所有事情都不是私密的。这些信息将被用于各种各样的地方。”

这意味着,如果你曾与ChatGPT讨论过敏感的个人健康或财务问题,这些信息碎片有可能在未来的某个时刻,当其他人(甚至是你的保险公司)向同一个模型查询相关信息时,被无意中泄露出来。

未经允许不得转载:主机格调 » 连ChatGPT的创始人都警告:最好不要用AI聊天机器人当心理治疗师

评论

2+8=