数据安全公司Cyberhaven的研究发现
员工粘贴到 ChatGPT 中的数据有 11% 是机密的。
4% 的员工至少一次将敏感数据粘贴到其中。
员工正在共享公司的知识产权、敏感战略信息和客户数据。
内部风险培训和咨询公司SignPost Six首席执行官 Dennis Bijker重申:
“对于组织来说,最令人担忧的风险是数据隐私和知识产权泄露。员工可能会与人工智能工具(如 ChatGPT 和 Bard)共享敏感数据。想想输入到该工具中的潜在商业机密、机密信息和客户数据。这些数据可能会被 奥地利电话号码 服务提供商存储、访问或滥用。”
5. 恶意使用深度伪造
语音和面部识别越来越多地用作访问控制安全措施。人工智能为不良行为者提供了创建绕过安全措施的深度伪造的机会,正如此处、此处和此处所报道的那样。
如何在人工智能时代加强安全态势
应对这些新风险需要一些时间,但目前已经有几个地方可以开始了。
展示如何在人工智能时代加强安全态势的信息图
研究该应用程序背后的公司
您可以使用其他工具和服务来评估应用程序的声誉和业绩记录。但不要假设知名应用程序就能提供可接受的安全级别。
例如,哈彻说:“选择大牌并不一定意味着更安全。有些公司对个人身份信息和客户信息的保护更严格。实际上,在苹果应用商店中很难找到恶意的 iOS 应用。但在 Android Play 和 Google Play 商店中,这一点却相当容易。”