英国大型企业普遍不清楚自身数据在海外被人工智能如何使用

0561news 1 0

  一项研究显示,英国多数大型企业并不清楚自身敏感数据在海外被人工智能系统处理时的具体用途,凸显出这一快速发展技术带来的风险。

  该研究针对英国营收超 1 亿英镑企业的高级技术与数据负责人展开调查,结果显示 61%的受访者无法全面掌握数据在海外的处理方式,报告指出这一问题主要困扰企业董事会。

  研究机构 Harbr Data 的调查显示,近四分之三的受访者表示,数据通过人工智能系统流出英国的频率至少为每周一次,其中三分之一称每日都有数据外流。

  情况较轻时,数据处理地点与方式不透明可能带来监管合规风险,尤其涉及数据隐私、存储地规定及安全问题。

  情况严重时,则可能导致数据泄露或被恶意利用。

  英国安全通信平台 Element 首席执行官兼联合创始人马修・霍奇森表示:“人们似乎对数据治理机制知之甚少。”

  “现实风险在于,人们随意复制粘贴文档或机密信息,这些信息随后被用于训练模型,可能出现在他人的信息中。此类事件已造成过严重后果。”

  2024 年 8 月,研究人员披露热门通讯平台插件 Slack AI 存在漏洞:恶意指令被植入公共频道操控人工智能,使其可访问并汇总私密频道数据。

  Slack 当时表示,未发现该漏洞被主动利用或客户数据遭未经授权访问的证据。

  今年 2 月,微软证实 Microsoft 365 Copilot 聊天功能存在程序错误,可处理并汇总邮件内容,即便邮件标注机密也不例外。

  Harbr 调查中,半数受访者表示监管缺失可能导致企业违反国际法规,36% 提及面临罚款或调查风险,35% 指出存在地缘政治风险。

  当个人数据在来源国以外处理时(例如从欧盟转移至其他司法管辖区),需遵守严格法律框架,通常要求采取特定保障措施。

  作为全球数据监管最严格的地区之一,欧洲以外的人工智能系统数据管理可信度大幅下降。70% 的受访者对英国的数据管理有信心,62% 对欧盟有信心,而对北美和亚太地区有信心的比例仅为 31% 和 12%。

  人工智能集成公司 Jitterbit 首席执行官比尔・康纳表示,人工智能模型的训练数据或核心软件来源往往不透明:“这类系统的核心代码与模型大多存在风险,尤其是接入开源组件时。”

  “他们以为托管在美国云数据服务商 AWS 或 Azure 上就安全了,但真正的问题是:这些模型是否仍会与原始模型关联?”

  分析师预计,随着监管压力加大,到 2027 年将有更多企业采用区域专属人工智能系统。

  Harbr 公司的安东尼・科斯格罗夫表示:“如今大量关键业务流程都依赖人工智能,与这些工具进行数据交互。这不仅关乎数据流动与 *** ,更关乎建立在数据流动之上、依赖数据流动的业务流程。”