近期,人工智能初创公司 Scale AI 陷入了一场严重的数据安全风波。这家估值不菲、并被 Meta 以148亿美元收购49% 股份的公司,被曝出竟然使用公共的 谷歌文档 来存储包括 Meta、谷歌和 xAI 在内的众多客户的绝密信息。
谷歌文档是一款便捷的协作工具,但其“邀请或完全公开”的共享方式,显然与任何公司的严格安全标准格格不入。据报道,任何知道 Scale AI 文档链接的人,都可以轻易访问这些包含绝密项目、电子邮件地址和付款信息等敏感内容的谷歌文档。
Scale AI 的一位发言人对此回应称,公司正在进行彻底的调查,并且已经禁止任何用户公开分享 Scale AI 管理系统中的文档。然而,谷歌和 xAI 尚未对此事发表评论,而 Meta 则选择拒绝置评。
“大门常打开”:广泛使用的谷歌文档成安全隐患
据五名 Scale AI 的承包商透露,谷歌文档在 Scale AI 内部被广泛使用。网络安全专家指出,尽管目前尚无迹象表明这些公开文件已导致实际的数据泄露,但这种存储方式无疑让 Scale AI 极易受到黑客攻击。
调查显示,在 Scale AI 采取措施之前,人们可以查看多达85份、数千页的项目信息,其中详细记录了 Scale AI 与大型科技客户之间的敏感合作。例如,这些文档揭示了谷歌如何利用 OpenAI 的 ChatGPT 来微调自己的聊天机器人。
更令人震惊的是,至少有七份被标记为机密信息的谷歌项目手册向公众开放,其中包括如何改进其聊天机器人 Bard 的具体建议。此外,公开的谷歌文档中甚至包含了埃隆·马斯克 “木琴计划”(Project Xylophone)的详细内容,比如用于训练 xAI 人工智能模型的 700个对话提示。
承包商们还透露,尽管这些项目通常有秘密代号,但他们仍然能清晰辨别自己为哪个客户工作。在使用人工智能产品时,聊天机器人有时在被询问时甚至会直接透露客户信息。
员工信息与薪资细节也被曝光
除了客户的机密项目信息,Scale AI 的谷歌文档中还赫然披露了该公司数千名员工的姓名和私人联络方式。更甚者,有些文件甚至详细列出了个体承包商的工资数额,包括有关工资纠纷和差异的详细说明。
这些信息无疑充分暴露了 Scale AI 在数据安全性上的严重纰漏,并可能引发法律纠纷。值得注意的是,就在 Meta 入股 Scale AI 后不久,业内便有传言称包括谷歌在内的大客户已经与 Scale AI 进行了业务上的切割,以防止 Scale AI 向 Meta 透露敏感内容。此次谷歌文档事件,无疑将进一步加剧客户对 Scale AI 数据安全能力的担忧。