ChatGPT围剿潮汹涌,企业数据安全面临考验?

AI与情感8mos agoupdate lida
88 0 0

文章主题:ChatGPT, 数据安全, 科技企业限制

666ChatGPT办公新姿势,助力做AI时代先行者!

谁在反ChatGPT?

科技突破不止会带来变革,往往也会带来一些潜在的风险

🎉🚀ChatGPT的横空出世,犹如一股席卷全球的风暴,瞬间点燃了人们对科技未来的无尽想象,无数企业和个人纷纷投身其中,热情高涨地迎接这个“未来”时代的到来。🔥💥然而,随之而来的挑战也不容忽视,ChatGPT正遭遇一场前所未有的“围剿”,引发了业界和公众的深度反思。🔍尽管它以其强大的语言生成能力,颠覆了传统的人工智能模式,为各行各业带来了创新的可能,但同时也引发了一系列争议。💡💻隐私泄露、版权问题、就业冲击等挑战如同一面镜子,映射出技术发展与社会伦理之间的微妙平衡。💼企业界开始审视其商业模式,如何在拥抱ChatGPT的同时,避免被其取代的风险;学界则在探讨教育的未来,是否需要重新定义知识传授的方式。🎓📚👀这场围剿并非单纯的攻击,而更像是对新兴力量的一次洗礼,促使我们更深入地思考技术的发展与社会适应的问题。🛡️🌈在这个科技日新月异的时代,ChatGPT的崛起既是机遇也是挑战,我们需要以开放的心态去拥抱变化,同时准备好应对可能带来的影响。🌟🌐#ChatGPT围剿 #未来趋势 #科技伦理

🌟警惕!ChatGPT风潮席卷全球,各国政府与企业纷纷行动!💡意大利首开禁令,引领潮流;📚高等教育界严阵以待,乔治华盛顿大学和巴黎政治学院等名校已明确禁止在其校园内使用ChatGPT,旨在打击学术不端,维护公平竞争。🛡️企业亦跟进,数据安全和知识产权保护成为关注焦点。让我们共同守护科技伦理,迎接挑战!🌐

相比国家和某一领域,全球范围内的不少大型企业,对于ChatGPT表现的更为“敏感”。

🌟🚀科技巨头们纷纷亮出禁令信号!三星、软银、松下、LG、台积电及SK海力士等企业已明确限制内部员工使用ChatGPT这一创新技术。金融界的领军者摩根大通更是直接下达了全面禁止的命令,确保信息安全。电商巨头亚马逊也不甘示弱,对团队成员使用ChatGPT处理机密客户数据的行为进行了严格的监管。🚀💼这些举措反映出ChatGPT在工作场景中的潜在风险与合规要求,展现出科技企业对数据安全和知识产权保护的高度重视。

多家企业之所以对ChatGPT保持非常谨慎的态度,甚至是限用,并非不明白生成式AI所意味着的时代机遇,而是在意ChatGPT对企业“隐私安全”造成的威胁。

🌟随着企业的规模日益壮大,数据安全与隐私保护的问题变得愈发至关重要,对企业来说就像一道无形的枷锁束缚着前进的步伐。对新兴技术如ChatGPT这类创新工具的态度,企业必然更加审慎,如同对待一颗未经验证的宝石般。🛡️

大厂“禁用”ChatGPT

🌟Samsung最近宣布了一项重要规定,职场人士须注意!他们被鼓励避免在办公环境中依赖如ChatGPT和Google Bard这类由OpenAI驱动的创新AI助手。这旨在优化工作流程,维护专业环境,并可能涉及对技术使用的管理调整。👩‍💻👨‍💻

🌟三星全面禁用AI工具?内部员工只能在私人设备上有限使用!💡尽管公司规定禁止在工作设备上使用人工智能技术,如电脑、平板和手机等,但这条政策的执行力度似乎相当严格。👀然而,值得注意的是,员工可以在自己的个人设备上自由探索AI,前提是这些活动与工作无关。💻但这并非无约束,所有行为都必须遵循严格的安全规范,一旦发生数据泄露或信息安全事故,后果将不堪设想。💼违规者不仅会面临纪律处分,严重者甚至可能面临职业去留的决定。保持警惕,保护公司资产!🛡️

事实上,在三星这项“严厉”的新政策之前,全球范围内,不少企业便陆续发布了“限制”自家员工使用ChatGPT的公告。

首先对ChatGPT发出“不友好”声音的企业,来自金融行业

ChatGPT掀起热潮不久后,今年2月,JP 摩根大通 、 美国银行 、花旗、 富国银行 等华尔街巨头陆续表示将禁止或限制使用ChatGPT。据了解, 摩根大通 不准员工在办公室使用ChatGPT,其表示,有关禁令并非源自任何特定事件,而是基于公司对第三方软件的正常管控。

美国银行 例行提醒员工切勿使用未经授权软件时,也特别点名提到ChatGPT。 德意志银行 更是表明,严禁员工在公司内用ChatGPT,并从内部阻断连接OpenAI网站。而尽管 高盛 鼓励编程人员采用AI来辅助编程,但禁止旗下交易员使用ChatGPT。

日本方面,软银、日立、富士通、日本瑞穗金融集团等企业也开始限制ChatGPT等交互式人工智能服务在商业运作中的使用。

相比金融行业,科技行业的动作丝毫不慢。

今年3月初,台积电发布了一系列内部公告,提醒员工谨慎使用网络工具如ChatGPT或Bing AI Chat等。除三星外,同属韩国企业的全球第二大 存储芯片 巨头SK海力士亦称“除必要时刻外”,禁止公司内网使用ChatGPT。

不可否认,ChatGPT这样的生成式AI对提高工作效率很有帮助,但对于这样一个还不足够成熟的AI工具来说,它所展现出的负面效应,并不小于它的正面效应。就如同一把双刃剑,在没有“剑鞘”作为一种保护机制出现之前,对于ChatGPT的“围剿”绝对不会停止。

能够预料的是,禁用ChatGPT的企业,仍然会持续增加。

数据安全是核心原因

ChatGPT的火爆,实际上是“深度学习”大模型的成功。

生成式AI工具,离不开大数据的帮助。它的进化,需要海量的数据来训练,通过感应器采集数据,进行信息存储、加工,通过算力进行计算,最后形成决策机制,进行反馈。庞大的数据训练,造就了ChatGPT强大功能,但这也意味着,ChatGPT实际上在不断地接触各种对话,其中可能包含相关的敏感信息。

无论是个人、企业,还是国家层面,机密数据、文件隐私,都有可能在使用过程中被ChatGPT采集到,从而被大规模地扩散。这些数据的泄露,也很有可能会对个人、企业,甚至是国家造成重大的损失。

三星无疑是一个典型的“受害者”。

据了解,今年3月三星的半导体事业暨装置解决方案事业部(DS)部门允许员工使用ChatGPT,随后20天内就发生了三起将公司内部半导体数据上传到ChatGPT的事件。

其中,员工A用ChatGPT帮自己查一段代码的bug;员工B想用ChatGPT帮自己优化一段代码;员工C想先用AI语音助手Naver Clova将自己的会议录音转成文字,再用ChatGPT帮他总结一下会议内容,做成摘要。

前两起案件已分别导致三星公司的半导体设备测量资料、产品良率等机密内容录入到ChatGPT的学习资料库中,这让三星很是担忧其数据将通过人工智能平台最终落入其他用户手中。

不止三星,数据安全服务Cyberhaven曾检测到并阻止了其客户公司160万名员工中,4.2%的人将数据输入ChatGPT的请求,因为存在泄露机密信息、客户数据、源代码或监管信息的风险。

Cyberhaven还发现,随着ChatGPT的应用率越来越高,给它上传企业数据的打工人数量也越来越多。一天之内(3月14日),每10万名员工就平均给ChatGPT发送了5267次次企业数据。

ChatGPT围剿潮汹涌,企业数据安全面临考验?

来源:Cyberhaven

Cyberhaven数据显示,在员工直接发给ChatGPT的企业数据中,有11%都是敏感数据。例如在一周内,10万名员工给ChatGPT上传了199份机密文件、173份客户数据和159次源代码。

和三星一样,所有“限用”ChatGPT的企业,无论处于什么领域,基本都是出于数据保护的考量,都非常担忧第三方软件访问敏感信息带来的风险。毕竟ChatGPT所处理的数据通常具有多样性和复杂性,其数据的收集、存储、传输、处理等各个环节,都存在“合法性”问题。

随着ChatGPT在自然语言处理领域的广泛应用,人们面临数据安全和隐私保护的挑战,正变得越来越巨大。

机遇与风险并存

技术发展史,也是人类的一部恐惧史。

15世纪的德国学者面对刚刚发明的古腾堡印刷机非常担忧,认为这会让他们有永远也无法读完的文献,而他们的作品也不再稀缺,而且会导致大量抄写员失业。

再到 工业革命 时期的“卢德运动”,工人们拆除编织机的关键零件,袭击仓库,并威胁采取更多的暴力行动。实际上这些操作机器的工人非常清楚设备的生产效率,他们采取行动并非针对机器,而是针对厂方降低工资、裁撤岗位和忽视生产安全的做法。

新技术问世后总会有一段过渡期,这也是社会对它关注最密切的时期。ChatGPT展现出的能力很强大,让很多企业开始积极拥抱,也让很多企业感到“害怕”。

数据安全问题的确是不得不提防的一点。越是大公司,或者越是有着 数据安全 和隐私枷锁的公司,越会谨慎地去对待类似的工具。三星的做法算是“稳妥”的,毕竟大型企业除了内部数据,更重要的是掌握着很多客户数据,一旦发生了数据泄露事件,后果不堪设想。

只是,有时候提防和运用并不冲突。

如何才能既能拥抱机遇,又能化解风险?对于这些大企业们来说,目前似乎只有一条路可选,即研发出自己ChatGPT。这样不仅解决了风险,还能提高企业员工的工作效率。以三星来说,虽然“限用”ChatGPT,但并没有完全禁止使用。

为了避免内部信息泄露,三星计划开发自己的内部AI工具,供员工完成软件开发和翻译等工作。此外,三星还向旗下所有的手机以及平板电脑产品推送了微软Bing AI更新,在这一更新完成后,三星用户可直接通过手机或者平板使用微软Bing AI。

ChatGPT围剿潮汹涌,企业数据安全面临考验?

图:三星手机内嵌微软Bing AI (语气使用)

除了企业的主动防范,ChatGPT无疑也需要加强对用户隐私的保护,包括匿名化处理、数据去标识化、隐私保护算法等。特别是在数据共享和开放研究方面,ChatGPT需要遵循相关法律法规和伦理准则,采取有效的隐私保护措施,保障用户的隐私权益。

此外,ChatGPT需要积极参与到数据安全和隐私保护的标准制定和监管政策建设中。通过制定统一的数据安全和隐私保护标准,加强监管和法律保障,促进数据共享和合作,从而更好地保护用户的隐私和数据安全。

来源:锌财经返回搜狐,查看更多

责任编辑:

ChatGPT围剿潮汹涌,企业数据安全面临考验?

AI时代,掌握AI大模型第一手资讯!AI时代不落人后!

免费ChatGPT问答,办公、写作、生活好得力助手!

扫码右边公众号,驾驭AI生产力!

© Copyright notes

Related posts

No comments

No comments...