企业级安全 AI
内置 Gemini 的 Google Workspace 可赋能团队实现更高成效,并保障数据的机密性、合规性与安全性。
什么是生成式 AI 隐私保护和安全?
生成式 AI 已成为日常生活中不可或缺的工具,帮助人们提高工作效率、激发创造力并提供便利。无论是规划度假行程、研究某个主题、撰写营销简报,还是与全球团队保持联系,
借助内置 Gemini 的 Google Workspace,确保业务数据的机密性、安全性与合规性
机密
未经许可,我们不会对您的数据进行人工审核,也不会在您的网域之外使用这些数据来
安全
Gemini 内置了间接提示注入
合规
Gemini 已获得安全和隐私
如何最大限度降低生成式 AI 工具的相关风险
保护您的数据
Gemini 与 Workspace 中现有的数据安全措施集成,有助于防范未经授权的数据访问和渗漏。
了解 AI 使用情况
Workspace 为 Gemini 活动提供全面的日志记录和导出功能。
灵活部署 AI
Workspace 提供精细的控制功能来管理用户访问权限,让管理员可以定义哪些用户可以使用这些强大而可靠的 AI 功能。
保护访问点
组织可以实施特定于设备的访问政策,进一步确保 Gemini 的安全使用。
Equifax 安全地为全球员工提供 Gemini,每天为团队节省数小时
Equifax 是一家业务遍布全球的领先信用机构,他们部署了内置 Gemini 的 Google Workspace,提高了整个组织的效率。
借助 Google Workspace 中的 Gemini,实现主权 AI
客户可以控制数据的存储和处理位置(欧盟或美国)。客户还可以限定仅特定区域的 Google 支持人员才能访问数据,从而保留对数据的主权控制。
客户赞誉
Gemini 能够安全地访问我们的所有文档,同时保持我们在使用 Workspace 的十多年里建立起来的安全体系,这确实非常独特。这是我们在任何其他工具中都无法轻易复现的功能。
Gemini 是一款企业级应用,在尊重我们数据和基础设施安全的同时,还让我们能够安全地试用新的生成式 AI 功能。
Gemini 不会改变我们对 Workspace 数据安全性的信任。Gemini 不会使用我们的数据来训练模型,并且功能一经发布即可供企业使用,因此我们的管理员有信心以安全的方式部署 Gemini。
它所带来的安全优势无可估量。关键在于明确目标,在寻找解决方案时选择既能满足需求又能确保安全性的供应商。Gemini 已经内置了与 Google Workspace 相同的安全体系。
详细了解如何借助内置 Gemini 的 Google Workspace 确保数据安全性与合规性
了解如何信心十足地部署安全的企业级 AI
高级 AI 与企业级安全控制
采用分层防御策略,有效防范提示注入攻击
常见问题解答
生成式 AI 工具可帮助员工提高工作效率和创造力,但选择以 AI 安全性为核心的解决方案至关重要。组织还需要有意识地制定政策,包括限制可能增加数据丢失风险的“影子”AI 工具的广泛使用。
借助尊重用户访问权限控制并提供精细管理设置的集成式生成式 AI 助理,管理员可以有效保护数据并降低数据丢失的风险。内置 Gemini 的 Google Workspace 具有一套强大的内置威胁防御、数据保护和合规性
借助 Workspace,文件可以安全地存储在 Google 云端硬盘中,系统还会自动进行版本控制。这让 IT 团队可以更轻松地保护业务数据,并让 Gemini 可以根据已设置的用户权限来引用文档的单一版本。Gemini 只能检索用户有权访问的数据,从而最大限度减少管理访问权限和使用单独工具访问这些数据源所产生的额外开销。
AI 分类等安全功能可以利用标签和数据泄露防护 (DLP) 规则来自动识别、管理和保护大规模数据。通过内容限制功能(例如信息权限管理 [停用下载、复制或打印功能] 和客户端加密功能),管理员还可以帮助限制 Gemini 对敏感数据的访问。如需详细了解可用的数据安全控制措施,请点击
Workspace 中的 Gemini 以 Google Cloud 数据边界的功能为基础,为客户数据提供权威的主权控制。客户可以将 Workspace 中的 Gemini 的数据处理限定在美国或欧盟境内。为确保数字弹性和长期持续性,客户还可以通过本地数据存储功能,在所选择的任何国家/地区存储一份 Workspace 中的 Gemini 应用数据的独立副本。
此外,对于最关键的数据,客户可以使用客户端加密功能,这是一项独特的技术控制措施,可提供端到端加密,并将密钥完全置于 Workspace 客户的控制之下,从而以权威的方式防止所有未经授权的访问,即使是 Google、Gemini 和其他生成式 AI 助理也不例外。
未经许可,Google 不会使用客户的 Workspace 数据来训练或改进 Gemini、Google 搜索以及 Workspace 之外其他系统所依托的生成式 AI 和大语言模型 (LLM)。我们之前还发布了一篇
Google 采取分层安全方法,为提示生命周期的每个阶段都设计了相应的安全措施。从 Gemini 2.5 模型强化,到检测恶意指令的专用机器学习 (ML) 模型,再到系统级保护措施,我们一直在大幅提高攻击的难度、成本和复杂性。这种方法迫使攻击者采用更容易被识别或需要更多资源的攻击途径。
我们使用对抗性数据来训练模型,显著增强了 Gemini 2.5 模型对间接提示注入攻击的防御能力。这种固有的模型弹性通过直接内置到 Gemini 中的额外防御机制得到增强。详细了解这些
内置 Gemini 的 Google Workspace