首页 > AI > AI资讯> 正文

Menlo Security报告:网络安全风险激增

zhangxinxin 责任编辑:wangkeyue 发布于:2024-02-23 12:01

Menlo Security的最新研究揭示了生成式人工智能的爆炸式增长如何给企业带来新的网络安全挑战。随着ChatGPT等工具在日常工作流程中变得根深蒂固,企业必须紧急重新评估其安全策略。

“员工们正在将人工智能融入日常工作中,控制系统不能阻止它,但我们也不能让它失控。”Menlo Security的产品营销副总裁Andrew Harding在VentureBeat的独家采访中表示。“企业中的生成式人工智能网站访问量和高级用户一直在持续增长,但安全和IT团队面临的挑战仍然存在。我们需要将控制应用于人工智能工具的工具,并帮助首席信息安全官管理这种风险,同时支持生产力的提高和GenAI可以产生的见解。”

人工智能的使用和滥用激增

Menlo Security的新报告描绘了一幅令人担忧的画面。在过去的6个月里,企业内部生成人工智能网站的访问量飙升了100%以上。同期,频繁使用生成式人工智能的用户数量也增长了64%。但是这种无处不在的日常工作流程集成已经暴露了危险的新漏洞。

研究人员表示,虽然许多组织都在围绕生成式人工智能的使用制定更多的安全策略,但大多数组织都在使用低效的逐个领域的方法。正如哈丁告诉VentureBeat的那样,“企业正在加强安全措施,但有一个问题。大多数公司只是在域名的基础上应用这些政策,这已经不再有效了。”

随着新的生成式AI平台的不断出现,这种零零碎碎的策略根本无法跟上步伐。报告显示,在过去6个月里,试图上传文件到生成人工智能网站的次数飙升了80%,这是新增功能的直接结果。风险远远超出了上传过程中潜在的数据丢失。

研究人员警告称,生成式人工智能也可能严重放大网络钓鱼骗局。正如Harding所指出的,“人工智能驱动的网络钓鱼只是更智能的网络钓鱼。企业需要实时的网络钓鱼保护,以防止OpenAI的‘网络钓鱼’成为一个问题。”

从新奇到必要

那么我们是怎么走到这一步的呢?随着ChatGPT热席卷全球,生成式人工智能似乎一夜之间爆发了。然而,经过多年的研究,这项技术逐渐出现。

OpenAI于2018年6月推出了第一个名为GPT-1(生成预训练变压器)的生成式AI系统。这个和其他早期的系统虽然有限,但显示出了潜力。2022年4月,谷歌大脑在此基础上建立了PaLM——一个拥有5400亿个参数的人工智能模型。

当OpenAI在2021年初推出用于图像生成的DALL-E时,生成式人工智能引起了公众的广泛关注。但真正点燃狂热的是OpenAI在2022年11月首次亮相的ChatGPT。

几乎立即,用户开始将ChatGPT和类似的工具集成到他们的日常工作流程中。人们随意地向机器人询问各种问题,从制作完美的电子邮件到调试代码。人工智能似乎可以做几乎任何事情。

但对于企业来说,这种迅速的整合带来了在炒作中经常被忽视的重大风险。生成式人工智能系统的安全性、道德性和准确性取决于用于训练它们的数据。他们可能在不知不觉中暴露偏见,分享错误信息并传输敏感数据。

这些模型从大量的公共互联网中提取训练数据。如果没有严格的监控,就无法控制所摄取的内容。因此,如果专有信息被发布到网上,模特可以很容易地吸收这些数据——然后泄露出去。

研究人员还警告说,生成式人工智能也可能严重放大网络钓鱼骗局。正如Harding告诉VentureBeat的那样,“人工智能网络钓鱼是更智能的网络钓鱼。企业需要实时的网络钓鱼保护,以防止OpenAI的‘网络钓鱼’成为一个问题。”

平衡行为

那么怎样才能平衡安全与创新呢?专家们提倡采用多层次的方法。正如哈丁所建议的,这包括“复制和粘贴限制、安全策略、会话监控和跨生成人工智能平台的组级控制。”

过去是序幕。组织必须从以前的技术拐点中学习。云、移动和网络等广泛使用的技术本质上带来了新的风险。随着时间的推移,公司逐渐调整安全策略以与不断发展的技术范例保持一致。

生成式人工智能也需要同样慎重、主动的方法。采取行动的时机正在迅速关闭。正如哈丁警告的那样,“企业中的生成式人工智能网站访问量和高级用户一直在持续增长,但安全和IT团队面临的挑战依然存在。”

安全策略必须迅速发展,以适应各组织对生成式人工智能前所未有的采用。对于企业来说,必须在安全与创新之间找到平衡。否则,生成式人工智能将面临失控的危险。

原文《Menlo Security report: Cybersecurity risks surge with AI adoption》

zhangxinxin

网友评论

聚超值•精选

推荐 手机 笔记本 影像 硬件 家居 商用 企业 出行 未来
二维码 回到顶部