据美国消费者新闻与商业频道近日报道,美国开放人工智能研究中心“OpenAI”近来内部动荡持续。
本月15日,OpenAI原核心安全团队“超级对齐”负责人杨·莱克在社交网络上宣布他本人已辞职,此外,这一团队的其他多名核心成员也纷纷离开,这一团队就此解散。杨·莱克17日在推文中怒斥OpenAI在追求华而不实的产品,质疑OpenAI不再关心安全。
本月17日,杨·莱克在社交网站发布多条推文,公开自己离开OpenAI的真正原因,他表示,过去几年,安全文化和流程已经让位于“闪耀的产品”。这是OpenAI高管级别的人物首次公开承认公司重视产品开发胜过安全。
报道称,杨·莱克被认为是追随伊尔亚·苏茨克维选择离职。本月14日,在重磅发布ChatGPT-4的超级升级版——GPT-4o后不到36小时,OpenAI联合创始人兼首席科学家伊尔亚·苏茨克维宣布离职。报道援引消息人士的话称,注重人工智能系统安全的员工已经对公司首席执行官萨姆·阿尔特曼的领导失去信心。
据美国《华尔街日报》报道,伊尔亚·苏茨克维将注意力集中在确保人工智能不会伤害人类上,而包括阿尔特曼在内的其他人则更渴望推动新技术的发展。
人工智能引领数字安全变革的同时,其安全性也备受关注。加拿大全球新闻网近日报道称,一份来自加拿大魁北克人工智能研究所的最新报告指出,在不久的将来,人工智能可能呈现各种各样的发展轨迹,包括非常积极和非常消极的结果,包括人工智能可能通过虚假信息、欺诈以及网络攻击造成伤害,甚至人类可能失去对人工智能的控制。
编辑: 郭静纠错:171964650@qq.com