Signal总裁警告:自主AI或威胁用户隐私安全,如同赋予“root权限”

Signal总裁警告:自主AI或威胁用户隐私安全,如同赋予“root权限”

知行看点 2025-03-10 热点资讯 44 次浏览 0个评论

Signal总裁警告:自主AI或威胁用户隐私安全,如同赋予“root权限”

Signal总裁梅雷迪思·惠特克(Meredith Whittaker)日前在SXSW 2025大会上发出警告,她认为具有自主能力的AI(Agentic AI)对用户安全构成严重威胁。这种AI能够无需人工干预,自主进行推理并执行任务,看似便利,实则暗藏风险。

什么是自主AI?

自主AI,也被称为AI代理,指的是那些能够代表人类进行推理和执行任务的AI系统,无需人类持续输入指令。它们被宣传为如同“魔法精灵”,能够预判用户需求并主动完成任务,仿佛可以让人们“解放大脑”。

惠特克以一个生活化的场景为例,说明了自主AI可能带来的潜在风险。假设用户希望查找一场演唱会,购买门票,并通知朋友。自主AI可以自动完成这些步骤,例如搜索演唱会信息、预订门票、打开Signal应用发送消息给朋友。然而,在整个过程中,AI代理需要访问大量用户数据,而这些数据可能涉及用户的个人隐私。

自主AI如何威胁用户隐私?

为了完成上述任务,自主AI需要获取以下权限:

  • 访问用户的浏览器,并操控它进行搜索
  • 获取用户的信用卡信息,以便支付门票费用
  • 访问用户的日历,了解用户的日程安排和人际关系
  • 访问Signal应用,打开应用并发送消息

惠特克指出,这种AI代理需要“看起来像root权限”的访问权限,以便在用户的整个系统中运行,访问所有数据库,而且很可能以明文形式访问,因为目前还没有模型能够以加密形式完成这些任务。这意味着用户的敏感信息,如信用卡号、行程安排、聊天记录等,都将暴露在AI代理面前。

更令人担忧的是,惠特克认为,如此强大的AI代理“几乎肯定”会将数据发送到云服务器进行处理,然后再返回给用户设备。这进一步增加了数据泄露的风险。

“自主AI的炒作背后存在着深刻的安全和隐私问题,”惠特克强调,“它有可能打破应用层和操作系统之间的血脑屏障,将所有这些独立的服务结合在一起,混淆它们的数据,并做出破坏Signal消息隐私等事情。”

AI领域专家也表达了担忧

惠特克并非唯一对自主AI风险感到担忧的人。加拿大研究科学家约书亚·本吉奥(Yoshua Bengio),被誉为人工智能领域的“教父”之一,也在今年1月达沃斯世界经济论坛上向《商业内幕》发表了类似的警告。

本吉奥表示:“如果拥有自主AI,那么所有关于通用人工智能(AGI)或超级智能的灾难性情景都可能发生。”他所指的通用人工智能,是指机器能够像人类一样进行推理的临界点。

本吉奥呼吁:“我们可以推进安全和可靠的人工智能科学,但我们需要承认风险,从科学角度理解风险的来源,然后进行技术投资,在为时已晚之前解决这些问题,以免我们构建出能够毁灭我们的东西。”

总而言之,惠特克和本吉奥等专家的警告提醒我们,在追求人工智能便利性的同时,必须高度重视潜在的安全和隐私风险。我们需要在技术发展和用户权益保护之间找到平衡,避免让自主AI成为威胁我们个人信息的潜在隐患。

  • 随机文章
  • 热门文章
  • 热评文章

转载请注明来自知行看点,本文标题:《Signal总裁警告:自主AI或威胁用户隐私安全,如同赋予“root权限”》

百度分享代码,如果开启HTTPS请参考李洋个人博客
每一天,每一秒,你所做的决定都会改变你的人生!
Top