Discuz! Board

 找回密碼
 立即註冊
搜索
熱搜: 活動 交友 discuz
查看: 1|回復: 0

Microsoft Copilot – 数据章鱼还是有用的帮手?

[複製鏈接]

17

主題

17

帖子

53

積分

註冊會員

Rank: 2

積分
53
發表於 3 天前 | 顯示全部樓層 |閱讀模式
人工智能的发展进程势不可挡,并且越来越多地融入到日常工作生活中。现在微软也在早期试用阶段后向公众发布了其“Copilot”,因此从数据保护的角度来看值得考虑。

人工智能系统经常出现的问题是:它是“数据章鱼”还是实际上有用且符合数据保护要求的日常工作助手?

Copilot 是什么?
Microsoft Copilot 是 Microsoft 365(MS 365)中实现的 AI 解决方案,旨在为用户在使用 MS 365 时提供全面的支持(详细信息可在Microsoft 网站上找到)。

作为一种辅助工具,Copilot 可以通过实时访问客户在 MS 365 中管理并存储在云中的所有数据来生成特定于公司且与上下文相关的答案。为此,Copilot 使用了大型语言模型 (LLM) 的组合,这是一种使用深度学习技术和大型数据集来理解、总结、预测和生成内容的人工智能算法。这些 LLM(大型 AI 语言模型)包含为这些任务设计的预训练模型。

具体来说,你可以这样想象:Copilot 在应用程序中收到来自用户的提示,例如B. Word 或 PowerPoint,例如,用户可以在其中请求公司数据库中有关某个主题的所有文档的摘要。

然后,Copilot 通过提高提示的特殊性来处理此请求,以便用户收到与他们手头任务相关的答案。提示可能包含来自输​​入文件的文本或 Copilot 发现的其他内容。 LLM负责数据的后续处理。 Copilot 仅访问个人用户已经 有权访问的数据,例如B. 基于 MS 365 现有的基于角色的访问控制。

在 LLM 中处理后,Copilot 接管后期处理。这包括对 Microsoft Graph 的基础调用、安全性、合规性和隐私检查以及命令生成。 Copilot 最终将答案发送回应用程序,用户可以在其中查看和评价答案。该辅助工具不会调用运行 ChatGPT 的公共 OpenAI 服务,而是使用其自己的大型语言模型的私有实例和编排引擎。

由于旨在全面联网所有与上下文相关的业务数据,Microsoft Copilot 可以访问相应组织的所有数据,从而与所有 MS 365 应用程序交互。例如这可以包括聊天记录、电子邮件、法国商务传真列表 日历条目和文档以及来自 Microsoft Graph 的所有数据记录。

微软自己也表示,Copilot 所访问的用户数据不会用于训练其背后的 AI。

使用 Copilot 时的数据保护问题
由于该工具的数据处理,出现了一些数据保护问题。除了具体的合同安排之外,这还特别涉及 Copilot 在 Microsoft Cloud 中捆绑所有用户信息。

微软的合同安排
首先,必须考虑合同安排。尽管微软在Copilot 的产品说明中承诺不会使用客户数据来训练 AI,但这一承诺并未体现在补充条款(参见“ M365 Copilot 合作伙伴条款”;适用于早期访问阶段)或数据处理协议 (DPA) 中(参见Microsoft DPA,截至 2023 年 11 月 15 日)。

AVV 本身(也适用于 Copilot)仍然包含以下条款:Microsoft 有权为自己的目的处理至少诊断和元数据(请参阅Microsoft DPA,第 7 页)。

这一差距尚未通过针对特定产品的附加协议来弥补,这一事实至少让人怀疑微软是否真的会兑现其承诺。

无论如何,不​​能完全排除微软为自身目的处理数据的可能性。

Copilot 的处理活动
除了合同安排之外,Copilot 进行的实际处理还必须根据数据保护法进行审查。员工数据的处理通常基于艺术。 88 GDPR i.结合 BDSG 第 26(1)条,只要数据处理服务于雇佣关系的实施。对于业务联系人的个人数据的处理,法律依据是艺术。 GDPR 第 6(1)(b)或(f)条。

访问Microsoft 租户内的所有组织数据会导致信息全面捆绑,这已经代表了数据保护风险。然而,微软本身已经采取措施将 Copilot 处理活动带来的风险降至最低:例如,在组织的租户内,单个客户内容在逻辑上是分开的,并通过严格的物理安全措施、背景检查和多层加密来确保客户数据的机密性和完整性。此外,特定用户通过 Copilot 访问数据仅限于组织授予这些个人的范围。

因此,降低未经授权访问的风险主要是相关组织本身的责任。组织必须确保创建并实施有效的授权概念,以防止通过 Microsoft Copilot 未经授权访问数据记录。由于全面集成,这一点是必要的,因为根据 Art,Copilot 还可以访问特别敏感的数据类别。 9 GDPR。

否则,在最坏的情况下,用户的简单提示就可能,例如,B.员工的健康数据可能会被泄露给未经授权的人员。

如果允许雇主私人使用,还存在访问员工个人内容的问题,例如:B.电子邮件。原则上,雇主无权访问员工的私人内容。如果发生此类访问,雇主可能因违反电信保密而面临严厉的处罚。

艺术。 88 GDPR i.结合 BDSG 第 26 条第 1 款(德国联邦数据保护法)作为处理的法律依据,因为处理私人内容对于实施雇佣关系来说不是必要的。这里剩下的唯一法律依据是数据主体的同意,然而,由于 Copilot 的广泛处理以及由此导致的实现透明度的困难,其有效性将很脆弱。

在实施过程中,还必须确保 Copilot 的访问权限不会被用于创建个人资料,从而监控员工的行为或表现。由于这种可能性是由于 Copilot 的核心功能(即快速访问所有信息)而存在的,因此据我们所知,这种风险只能通过组织措施(签订工作协议、发布指南)来抵消。
回復

使用道具 舉報

您需要登錄後才可以回帖 登錄 | 立即註冊

本版積分規則

Archiver|手機版|自動贊助|GameHost抗攻擊論壇

GMT+8, 2025-5-17 18:16 , Processed in 1.200637 second(s), 18 queries .

抗攻擊 by GameHost X3.4

© 2001-2017 Comsenz Inc.

快速回復 返回頂部 返回列表
一粒米 | 中興米 | 論壇美工 | 設計 抗ddos | 天堂私服 | ddos | ddos | 防ddos | 防禦ddos | 防ddos主機 | 天堂美工 | 設計 防ddos主機 | 抗ddos主機 | 抗ddos | 抗ddos主機 | 抗攻擊論壇 | 天堂自動贊助 | 免費論壇 | 天堂私服 | 天堂123 | 台南清潔 | 天堂 | 天堂私服 | 免費論壇申請 | 抗ddos | 虛擬主機 | 實體主機 | vps | 網域註冊 | 抗攻擊遊戲主機 | ddos |