ChatGPT 的凭证在 22.5 万台感染设备上被信息窃取者获取 媒体

ChatGPT 账户安全隐患:暗网泄露与企业风险

关键要点

  • 去年,至少有225,000套OpenAI凭证在暗网出售,可能被用来访问ChatGPT的敏感数据。
  • 在2023年1月至10月间,Group-IB的研究发现了因信息窃取恶意软件而被盗的ChatGPT账户。
  • 杀毒软件LummaC2是造成ChatGPT凭证泄露的主要源头,其次是Raccoon和RedLine感染。
  • 企业员工在使用生成式AI时面临高风险,4.7%的人曾将敏感数据粘贴到ChatGPT中。
  • OpenAI曾因漏洞数据泄露,导致部分ChatGPT Plus用户的敏感信息暴露。

去年的一项研究指出,至少有225,000套OpenAI凭证在暗网上出售,这些凭证可能会被用于访问ChatGPT上发送的敏感数据。

根据Group-IB于2023年1月至10月间的研究,因信息窃取恶意软件导致的ChatGPT账户被盗情况屡见不鲜,其发现结果在Group- IB的中发布。

被盗的凭证来自受LummaC2、Raccoon和RedLine等信息窃取恶意软件感染的设备,这些恶意工具会搜集储存在设备上的敏感信息,如登录凭证和财务信息。

根据Group- IB的研究,在研究的前五个月与最后五个月之间,泄露的ChatGPT凭证增加了36%。在2023年6月至10月之间,发现了超过130,000个感染主机,而在前五个月的数据稍低,不到96,000个。研究最后一个月的OpenAI凭证被盗情况达到33,080次。

恶意软件感染趋势

在2023年6月至10月期间,LummaC2是包含ChatGPT凭证的最常见信息窃取日志的来源,共计70,484个案例,其次是Raccoon和RedLine,各自不足23,000个案例。

这一变化与Group- IB之前的数据相对比,后者显示Raccoon是窃取OpenAI凭证的主要工具,感染数量超过78,000个,紧随其后的是和RedLine,这些数据是基于2022年6月至2023年5月期间的情况。

Group- IB的威胁情报负责人德米特里·舍斯塔科夫在去年的一份声明中表示:“许多企业正在将ChatGPT整合到其业务流程中,员工输入的机密信息或利用此机器人优化专有代码。鉴于ChatGPT的标准配置会保留所有对话,如果恶意演员获得这些账户凭证,可能会意外泄露一大堆敏感情报。”

员工输入敏感数据

关于ChatGPT账户被盗的最新数据,正值企业员工在使用生成式AI时风险加大的背景下发布。

2023年6月,LayerX的发现,6%的企业员工至少一次将敏感数据粘贴到了生成式AI应用程序中,4%的员工则每周都有这样的行为。在这些曝光事件中,43%涉及内部商业数据,31%涉及源代码,12%涉及个人身份信息(PII)。

另一项同样是2023年6月由进行的研究专注于ChatGPT,其结果也十分相似。研究发现,4.7%的员工曾在ChatGPT中粘贴敏感数据,并且在100,000名员工中,向ChatGPT泄露机密数据的事件在3月4日至4月15日之间增加了60.4%。

更近期的MenloSecurity在2024年2月的报告中指出,从2023年7月至12月,企业员工尝试将文件上传至生成式AI网站的次数增加了80%。这可能与OpenAI在10月份为高级用户新增直接上传文件到ChatGPT的功能有关。

值得注意的是,根据Menlo Security的

Leave a Reply

Required fields are marked *