En 400-6655-581
5
返回列表
> 资源中心 > 文章>主题>AI安全> 意大利禁用ChatGPT、三星机密资料遭泄漏,AI背后的技术安全新思考

意大利禁用ChatGPT、三星机密资料遭泄漏,AI背后的技术安全新思考

文章

2023-04-04浏览次数:446

近日,意大利禁用ChatGPT;韩媒报道,三星引入ChatGPT不到20天,机密资料遭外泄……而据网络用户反馈,自3月30日起,ChatGPT平台大规模账号被封禁。据市场统计,已有数百万用户的账号受到了影响。


这些事件的发生并不是没有预兆的。早在 3 月上旬,就有部分用户爆料其聊天列表中显示他人的聊天记录,一时间 ChatGPT 泄露用户数据在各大社交媒体霸榜。

 

OpenAI 首席执行官萨姆 · 奥尔特曼最后不得不紧急发布推文解释,导致用户 ChatGPT 聊天历史泄露的 BUG 是源于开源代码库中的一个错误。


ChatGPT的横空出世,给人类在人工智能领域瞬间划出了一条分水岭,并获得全球空前关注。有关人工智能“有利或有害”人类的话题铺天盖地袭来。可能大多数人对它的印象是一个能进行文本对话的智能机器人。

 

这样理解也没错,但其本质上是一项技术,背后是基于预训练的、大型语言生成模型。所以可以应用在不同产品和场景。这也就是为什么已经有很多公司,如三星等,或在产品或在服务中引入ChatGPT。

 

然而,在我们惊叹人工智能超强学习能力并引入产品服务中的同时,更需要提前关注人工智能背后潜藏的数据信息安全问题。

 

海量数据的累积带来了人工智能生产力的质变,与此同时,从互联网诞生起就始终伴随的数据安全、隐私保护等问题,也成为人工智能大模型无法回避的伴生难题。

 

除此之外,网络信息鱼龙混杂,数据正确性与权威性如何判断?最最细思极恐的是,人类为AI设定规则的速度是否远远落后于AI技术本身的学习和发展速度?《黑客帝国》中的人机大战将会上演吗?

▲ 图片来自《黑客帝国》视频截图

 

自技术发明伊始,有关技术善论与恶论的话题就一直争论不休,始终达不成共识。然而,从现实来看,文明要发展,社会要进步,技术的推动力不可或缺。我们需要承认技术带来的“好”,也需要尽可能的提前规避技术可能带来的“坏”。

 

所以,无论是国家还是企业组织在引入一项新技术的同时,切记提前思考、商定包含审慎监管的细节,提前做好安全部署。

 

尤其是在当下,企业数字化转型在加速推进。企业在追求业务创新突破,引入了各种新技术或上线了各种新业务应用系统。如何在保障企业数据信息、用户信息等安全合法合规的前提下完成新技术的引进以及新业务系统的建设是每一个企业组织需要做好前置思考与准备的。

 

以本文中的AI技术为例。AI嵌入在企业众多业务系统中,如何做好数据的分类分级?如何保证哪些数据能被用于AI?哪些数据需要严格保密?哪些在法律监管层面是不允许触碰的?如何限制内部员工数据访问权限,从而降低机密数据泄露给AI的可能性……

 

这些都要提前明晰并制定好相应的安全防护策略与制度。随后,企业就要从技术层面进行技术壁垒上的安全隔离。

 

派拉软件认为,企业可以通过对数据实施分类分级,同时加强访问管理、权限管理、API接口管理、数据库访问管理等,提升企业的数据安全能力,降低新兴技术应用带来的安全风险。

 

访问接入前先经由SDP构建的虚拟边界,实现先验证后连接;再到中间IAM的统一身份管理认证、权限分配及审计管理等5A能力;最后通过API网关安全实现外部对内部各业务系统的安全可信访问;

 

在数据库端还有数据库访问安全产品进行数据库统一管理,防止企业内部数据泄露、误操作等带来的数据危害。通过多节点、多维度的安全技术防护,最终实现企业内部数据安全保护。

 

同理,企业在上线其他新业务系统时,各异构系统的互联互通,且满足安全可信、可授权、可审计、可分析、可追溯的控制访问管理,均可通过派拉软件提供的端到端的网络安全技术实现。

 

未来,派拉软件也将引入人工智能和机器学习来加强自身产品的网络安全防护能力,从而助力企业组织打造更加坚实可靠的协同运营管理创新发展的数字化安全技术底座,为人类创造一个安全,高效,极致体验的数字世界。

 

当然,这样的数字世界还有很长的路要走,甚至永无尽头,但义无反顾!