据多家媒体报道,当地时间9月4日,OpenAI联合创始人、前首席科学家伊尔亚·苏茨克维(Ilya Sutskever)成立的新公司SSI(safe superintelligence,安全超级智能)宣布获得10亿美元融资。
投资方包括NFDG(前GitHub CEO奈特·弗里德曼和SSI联合创始人丹尼尔·格罗斯Daniel Gross合资的投资公司)、a16z、Sequoia Capital(红杉资本)、DST Global和SV Angel。同时,公司估值也达到50亿美元(约合355亿人民币)。
伊尔亚也转发了该融资消息并发文称:“山已确认,是时候开始攀登了。”
据财联社报道,这个由AI圈顶级大佬牵头的创业团队,连一篇像样的新闻稿都不愿意写,仅仅在官网上贴了一句话,附上媒体采访的报道链接就算完事了。
据财联社,从SSI官网的情况来看,这家新公司大概率仍处于启动状态,所以这些人投钱并不是因为SSI已经做出了什么,而是为伊尔亚的愿景背书。在近期VC普遍对人工智能企业兴趣减弱的背景下,这笔投资显示出仍有投资人愿意为顶尖杰出人才投下重金。
SSI由伊尔亚、格罗斯和丹尼尔·利维(Daniel Levy)共同成立。格罗斯为前苹果高管、Y-Combinator合伙人,利维则是前OpenAI研究员。
据澎湃新闻援引外媒报道,SSI目前拥有10名员工,计划利用这笔融资来购买算力并招募顶尖人才,将专注于组建一支由研究人员和工程师组成的小型团队。
格罗斯表示:“对我们来说,重要的是要有投资者理解、尊重和支持我们的使命,我们的使命是直接进入安全的超级智能,特别是在将产品推向市场之前花费几年时间进行研发。”
据格罗斯透露,SSI会花费数小时审查候选人是否“品行良好”,并且寻找具有非凡能力的人,而不是过分强调该领域的资历和经验。
SSI方面则表示,计划与云提供商和芯片公司合作,但尚未决定与哪些公司合作。
伊尔亚称将采用与OpenAI不同的方式来进行scaling(缩放),但并未透露细节。他表示:“每个人都只是在说缩放假设。但每个人都忽略了问,我们在缩放什么?”
今年5月,伊尔亚从OpenAI离职,6月19日宣布创业成立了一家名为SSI的人工智能公司。
伊尔亚还发出了一份个人署名公告,他强调构建安全的超级智能是当下时代最重要的技术问题,已经启动了世界上第一个专注于安全超级智能的实验室,而SSI“只有一个重点、一个目标和一个产品”,那就是安全超级智能。
去年11月,由伊尔亚领导的OpenAI的AI安全团队曾发起一场“政变”,罢免联合创始人萨姆·奥特曼,最终,奥特曼回归,但整个事件却暴露了OpenAI的发展隐忧——对商业化及AI安全性战略难以平衡。
伊尔亚一直担心AGI(通用人工智能)在未来几年实现超级智能后会存在危险,他曾通过一篇博客表达,“巨大的超级智能力量可能导致人类被剥夺权力甚至灭绝”。虽然OpenAI成立之初的使命是构建安全又有益的AGI,但伊尔亚发现团队的目标和方向已经变化,直到今年5月15日,他突然在X上宣布离开OpenAI。
伊尔亚出走后,过去由他带领的OpenAI超级对齐团队成员接连离职。之后,OpenAI选择解散内部关注模型长远安全的团队。
OpenAI在组织震荡后的动作,引发业内对其AGI研究现状的担忧。在此期间,伊尔亚与投资人、前苹果公司人工智能主管丹尼尔·格罗斯以及OpenAI原研究员丹尼尔·利维联合创业,试图通过人工智能系统中的相关工程突破实现安全。