
OpenAI的创始人之一Ilya Sutskever,在正式离开OpenAI仅一个月后,创立了一家名为Safe Superintelligence Inc.(SSI)的新公司。
Sutskever是OpenAI的资深首席科学家,他与前Y Combinator合伙人Daniel Gross和前OpenAI工程师Daniel Levy共同创立了SSI。
在OpenAI,Sutskever在公司努力改进AI安全的工作中发挥了重要作用,尤其是随着“超智能”AI系统的崛起。他与Jan Leike一起致力于这个领域,并共同领导了OpenAI的Superalignment团队。然而,Sutskever和Leike在2023年5月与OpenAI领导层产生矛盾后激烈离开了公司。Leike现在领导竞争对手AI公司Anthropic的一个团队。
Sutskever长期以来一直致力于AI安全的棘手问题。在2023年发表的一篇博文中,Sutskever与Leike合著,预测超越人类智能的AI可能会在未来十年内出现。当这种情况发生时,它不一定会是善良的,这需要研究控制和限制它的方法。
超智能即将到来。
— SSI Inc. (@ssi) 2024年6月19日
构建安全的超智能(SSI)是我们这个时代最重要的技术问题。
我们已启动世界上第一个直线路径SSI实验室,只有一个目标和一个产品:安全的超智能。
这就是Safe Superintelligence…
他今天显然仍然致力于这个目标。周三下午,一条推文宣布Sutskever新公司的成立,称:“SSI是我们的使命、我们的名称和我们整个产品路线图,因为这是我们唯一关注的。我们的团队、投资者和商业模式都致力于实现SSI。我们同时处理安全性和能力,将它们作为要通过革命性工程和科学突破解决的技术问题。”
“我们计划尽快提升能力,同时确保我们的安全性始终领先。这样,我们就可以安心扩展。我们的独特关注意味着没有管理开销或产品周期的干扰,我们的商业模式意味着安全、安全和进步都不受短期商业压力的影响。”
Sutskever在接受彭博社关于新公司的采访时,进行了更详细的讨论,但拒绝讨论其资金状况或估值。
更明显的是,与成立于2015年的非营利组织OpenAI不同,后者在意识到需要大量资金来支持其计算能力之后,进行了重组。SSI从一开始就被设计成盈利实体。从AI的兴趣和团队的资质来看,它可能很快就会获得巨额资本支持。Gross告诉彭博社:“在我们面临的所有问题中,筹集资本不会是其中之一。”
SSI在Palo Alto和特拉维夫设有办公室,目前正在招聘技术人才。
OpenAI正在组建一个新团队,以控制‘超智能’AI