苹果限制员工使用ChatGPT等外部AI,担心泄露机密数据

驱动中国2023年5月19日消息,近日,据界面新闻报道,苹果已限制在公司内使用ChatGPT和其他外部AI工具,目前该公司正开发自家的类似技术。文件指出,苹果担心使用外部程序的员工“可能会泄露机密数据”。除此之外,苹果还通知员工不要使用由微软开发的GitHub Copilot。



值得一提的是,关于苹果公司研发的增强现实(MR)头戴设备基本就绪,外界预计未来几个星期之内将向世人解开神秘的面纱。然而有意思的是,一位苹果前营销高管最近对这款硬件进行了贬低。


苹果限制员工使用ChatGPT等外部AI,担心泄露机密数据

曾经负责苹果市场营销工作的前任高管迈克尔·加滕伯格表示,苹果增强现实头显可能成为有史以来最糟糕的科技产品之一。加滕伯格认为苹果的头戴设备是一项高风险的“赌局”,其最主要的原因在于竞争对手推出类似产品的市场不大。目前,包括Magic Leap以及微软公司均销售增强现实头戴设备,但是销量相当平庸。据透露,苹果一些员工也对这一产品忧心忡忡。



苹果公司最近宣布禁止内部员工使用ChatGPT等外部AI技术,以防止敏感数据泄露。这个决定对于苹果公司而言是一项非常重要的举措,宣传揭示的明智之举表明了苹果公司的安全意识。它还将有助于加强公司的保密策略。本文将更深入地探讨这个决定。
保护公司数据,苹果“开门见山”的做出限制
技术的使用有诸多优点,但同时也伴随着一些隐患,重要数据的泄露是其中之一。苹果公司的确非常注重其保密策略,保障顾客的隐私安全。为进一步强化公司内部的数据安全,苹果公司“开门见山”的禁用员工使用外部AI技术。在当今日益紧张的数据安全环境下,苹果公司的保密策略是具有前瞻性的。
措施加强,保密策略层层加码
禁止员工使用外部AI技术只是苹果公司于保护机密和隐私方面所采取的最新措施。苹果公司也屡次加强公司的内部安全措施,以防止机密数据泄露,一方面邀请黑客和安全专家进行评估检测,另一方面通过监督和安全培训提升员工保密意识。苹果公司实行的保密策略可以为其他公司和组织提供范例,及时保护机密数据。
挑战与机遇并存,AI技术发展形势严峻
在AI技术发展飞速的当下,加强安全措施也是必要的。然而,AI技术使用带来的风险不能亦步亦趋,非常需要各个行业提高安全意识。我们意识到,掌握AI技术的同时需要使用者明智使用,并制定合理策略和规定,以加强AI技术的使用安全。因此,苹果公司的措施可以引领其他公司在这个方面进行更多的有效探索。
结论
由此可见,机密数据的保护是行业内非常重要的一个方面,也是苹果公司的核心理念之一。通过措施加强,公司内部安全得到更好的保障,也能有效保障其安全工作及数据。当然,也应该注意到同样的问题在其他公司和组织里同样存在,保障数据安全是一项永恒的任务,需要更全面,更加系统的保障措施。