近日消息,一则关于OpenAI的安全事故报道引起了业界广泛关注。据报道,这家知名人工智能研究机构在2023年早些时候遭遇了一次严重的安全侵扰,黑客设法穿透了其内部邮件防护网,非法获取了大量涉及公司核心人工智能技术讨论及研究资料的敏感通信内容。
值得庆幸的是,尽管邮件系统受损,但黑客并未能进一步触及存放人工智能核心源代码的服务器,从而避免了最坏情况的发生。
本次安全事件由于没有泄露客户数据,OpenAI 公司并没有披露本次安全事件,也没有向 FBI 或者其它执法部门报告,只是通知了董事会以及内部员工。
援引该媒体报道,本次安全事件导致员工质疑 OpenAI 对安全的重视程度,且成为新的导火索,导致了内部员工出现分裂。
其中一个例子是莱奥波德·阿申布伦纳(Leopold Aschenbrenner),他是一名专注于人工智能安全风险的技术项目经理,认为公司在安全方面的技术不够完善。
OpenAI 报复性地解雇了这位经理,而 Aschenbrenner 后来表示,公司是在一起未报告、未指明的安全事件后解雇了他。
文明上网,理性发言,共同做网络文明传播者