还记得著名的“OpenAI宫斗事件”吗?
那是去年的11月18日,在没有任何提前通知的情况下,OpenAI董事会通过表决,开除了创始人兼首席执行官Sam Altman。他们给出的原因是董事会经过谨慎详细的审查,认定Altman与董事会的沟通不坦诚,无法“相信他继续领导Open AI的能力”。紧接着同样没有被事先通知的董事长Greg Brockman在社交媒体上表达震惊后,宣布同样“离职”。此外,研究主管Jakub Pachocki、风险评估团队负责人Aleksander Madry、资深研究员Szymon Sidor等骨干人员也纷纷提交了辞职申请。
内部动荡到当天几乎所有的商业媒体,都用头条位来讨论这家“世界上估值最高的人工智能企业”,是不是马上就要散伙了。
当然,“宫斗事件”的最终结果还算体面。Sam Altman回到了公司,继续扮演他的领导核心角色。OpenAI也继续领跑大模型赛道,在今年3月成功推出了文生视频产品Sora,巩固自己江湖“独一档”的位置。最近的消息是,OpenAI已经启动了新一轮的融资程序,估值标准拉到了现象级的1000亿美元。
但这场事件也让所有人明白了OpenAI并不是无懈可击。至少在发展路线上,他们的内部分成了两派,一派是以Sam Altman为代表工程派,认为需要遵循科技企业的发展规律,周期性地对外部署、发布,在过程中解决问题;另一派是以联合创始人、首席科学家Ilya Sutskever为代表的技术派,认为“研发”与“商业”是天然地此消彼长关系,过多过早地接触商业只会带来更多麻烦。
今年5月15日,Ilya Sutskever的离职进一步把这个分歧推到了台面上。在那条告别推文中,他一方面致敬了十年来陪伴自己的同事们,认为公司发展轨迹是一个“奇迹”,另一方面他夹枪带棒,留下了一句嘱托:“希望大家能打造既安全又有益的AGI”。
而今天我要讲的事儿,正是要从这句临别赠言说起。9月5日,Ilya Sutskever离开OpenAI后的创业项目Safe Superintelligence (以下简称SSI) ,在仅有10人团队,产品都没有的情况下,正式完成了总规模为10亿美元(约合人民币71亿)的融资。据相关人士透露,本次融资的估值达到了50亿美元(约合人民币355亿),相当于团队每人的估值为5亿美元——而此时距离他官宣成立SSI,仅仅过去了3个月。
“安全的超级人工智能”
从早期创业的视角来看,Ilya Sutskever的本轮融资不仅速度令人瞩目,投资方阵容也相当炸裂。你听说过的那些在AI领域内有头有脸的VC,几乎都出现在了股东列表里,比如A16z、红杉资本、DST和SV Angel。
更值得一提的是,知名天使投资人、曾经的苹果内部AI项目的负责人、曾经的Y Combinator人工智能主管Daniel Gross,本次不仅作为合伙人实际参与到了Ilya Sutskever的创业项目当中,同时也通过自己管理的基金NFDG对SSI进行了投资。
可以毫不夸张地形容,Ilya这次创业起手不仅摸到了双王4个2,小牌也能凑成345678的顺子,接下来的每一步操作,都会给同行们带来足够的震撼。
事实上Ilya也确实有大展拳脚的计划。SSI在接受媒体采访时表示,这次融资的目的是为了“加速开发远超人类能力的安全人工智能系统”。因此这笔资金除了一部分用于购买必要的算力,另外相当一部分资金会用来在全球范围内聘请顶尖人才。
不过相比于我们印象里那些新晋独角兽的“大展拳脚”,SSI更大概率会“徐徐而来”。因为你从名字就能看出来,SSI承载了Ilya Sutskever太多的“理想主义”情怀。自独立创业以来,Ilya一直强调SSI“研究机构”的一面,将他们的第一个实体称为“straight-shot SSI lab”(大概可以翻译成“直击安全超级智能的实验室”)。在发表于6月19日的创业公开信里,Ilya Sutskever还进行了这样情绪化的定义:
“构建安全的超级智能是我们这个时代最重要的技术问题——这会是我们唯一的产品,也是我们唯一的目标,也将是我们的产品路线图……我们将兼顾安全与性能之间的平衡,并且会清醒地认识到‘安全的超级智能’是一个需要通过革命性的工程和科学突破来实现的技术问题。”
基于这个定位。他对未来的同事们和未来的投资人分别提出了很多“情绪价值”层面的要求。
对于未来的投资人,他希望团队在未来的工作中可以不受“运营费用或产品周期的干扰”,并且允许他们寻求一种安全、有保障的商业模式,以保证团队都不会因为短期商业压力的影响研发进程。对于未来的同事,他希望对方是“世界上最优秀的工程师或者研究员”,能够摒弃掉其他杂事“专注于SSI”。作为对方付出的回报,他许诺这份事业可以让未来的同事“毕生致力于此”。
从这次的融资情况来看,这份愿景完成了前半部分。根据Daniel Gross的说法,他们找到了“理解、尊重和支持我们的愿景投资人……尤其是他们理解在将产品推向市场之前,需要花费几年时间进行研发。”
而后半部分似乎进展得不太顺利。目前SSI一共有两个办公地点,一个位于美国加州,一个远在以色列的特拉维夫。两个办公室加起来仅仅只有10名员工,并且拓展起来相当难——同样根据Daniel Gross的说法,对于收到的每一份建立,除了考察求职者过往的项目经历之外,他们往往还要花费数小时审查候选人是否“品行良好”,判断对方“是对工作感兴趣,而不是对炒作感兴趣”。
更夸张的是,其实就连Ilya是否打算“公司化”治理SSI也是一个未知数。除了内部成员之外,也几乎没人知道SSI的构想如何在产品端呈现。在今年6月的一次专访中,Ilya明确表示他理想中的创业是“基于一个纯的研究组织”,“创建一个安全、强大的人工智能系统”,并且短期内无意对外销售任何人工智能相关服务或者产品。
以至于完成了10亿美元融资的SSI,大概率顺便解锁了另外一项成就:他们或许是官网最简陋的独角兽企业。即使是今天,他们的主页仍然只有一段毫无排版设计可言的团队自述和两个联系按钮,一个用来投递简历,另一个用来对接合作。
“对顶尖人才进行超额押注”
看完这段简短的介绍,我猜你一定很好奇两个问题:
1.投资人为什么会在人工智能投资整体过热的背景下,选择相信“安全超级人工智能”的叙事,还慷慨地给出50亿美元的估值?甚至还做出了很多“商业层面”的让步?
2.Ilya这种富有科研底色的人,真的能当好老板吗?北美创投圈如此包容“科学家转型创业者”这件事吗?
先来回答第一个问题。在9月初参与的一次媒体活动中,Ilya曾经简单阐述过他的创业洞察。他认为随着人工智能越来越强大,并且随着算力的增加不断加速扩展,一款人工智能产品走向市场前需要进行什么样的测试、需要经历哪些认证步骤,正在变得越来越棘手。而SSI的存在就是确保人工智能技术会成为“人类社会中一股向善的力量”。
这听起来确实没毛病。并且作为OpenAI的核心成员、作为ChatGPT、图像生成模型DALL-E及其他数十篇研究论文的署名作者,Ilya确实相比于大多数从业者,更有资格代表这个产业的前沿。
但关键在于,这并不是Ilya第一次尝试开展“安全超级人工智能”相关的业务。实际上早在去年7月,OpenAI就成立了一个名为“Superalignment”的部门,专门研究如何管理和引导“超级人工智能”,Ilya正是该部门的直接负责人。与此同时,OpenAI还划拨了20%的算力资源,用来支持该部门的研究工作,并且还慷慨地将开发周期拉长到“四年内找到核心解决方案”。
并且“Superalignment”的结局是一地鸡毛。2024年5月,媒体爆料OpenAI已经解散了该团队,理由是“超级人工智能”目前还只是理论产物,没有人知道什么时候可以实现。因此相比于上不设限的投入,OpenAI的高层认为应该优先考虑产品而不是保障措施,并逐渐开始限制Superalignment的算力使用。
5月17日,Superalignment的另外一名联合负责人、前Deepmind研究员Jan Leike宣布离职,进一步佐证了此前媒体的爆料。他在个人社媒上说:“我与公司高层在优先事项上的意见不合已经持续了一段时间,现在已经到了临界点。我的观点是,我们应该把更多的精力花在为下一代模型做准备上,包括安全性、可监控、保密性、社会影响等相关主题”——还记得开头提到的Ilya宫斗后离职,以及别有深意的临别赠言吗?同样也发生在这一周。
也就是说,如果我们承认OpenAI是目前人工智能赛道中,最接近“商业层面”上成功的企业,那么四舍五入,“安全超级人工智能”其实已经在商业层面上被淘汰过一次。
因此对于本次Ilya的融资,外界普遍的解读为,这就是一次风险投资对杰出人才的超额押注。更何况在“长期无法盈利”的客观条件下,这两年大量的明星创业者已经重新选择做回“大厂员工”(联动《大模型,正在排队寻求卖身》)——如果还有风险投资愿意相信“大模型”的故事,那么市面上留给他们的选择已经很少了。
现在再来回答第二个故事,很显然硅谷也并没有完全对Ilya投出信任票,大量文章指出SSI的核心人物有三个。除了Ilya之外,还有他在OpenAI时期的同事Daniel Levy,以及开头提到的知名天使投资人Daniel Gross。其中Daniel Gross的重要性被反复提及:
Daniel Gross是三人组当中创业经历最丰富的人,他18岁的时候就通过YC训练营创办了个人搜索引擎Greplin(后来更名为Cue),并在2013年将其卖给苹果,套现金额超过3500万美元。他也通过那次并购加入了苹果,开始负责苹果的搜索与AI项目。2017年,Daniel Gross以合伙人的身份重返YC,带头创建了YC垂直于人工智能赛道上的投资业务。
2018年,他组建了自己的创业孵化器Pioneer,他认为这是YC模式的一次必要的升级,因为“软件正在改变世界,远程办公正在改变世界,这或许就是未来伟大公司的诞生方式,也将是风险投资需要适应的方式”。这个想法得到了Stripe和Marc Andreessen的支持,并在此后的18个月里出手超过100次。
2023年,他再次完成了自我迭代,和另一位硅谷知名天使投资人Nat Friedman创办了“Andromeda”——这是一套总投资超过1亿美元,重达4800多公斤,用来支持AI项目早期创业的“计算集群”——Daniel Gross认为相比于“枯燥乏味的现金”,这座矿山更适合用来对早期的AI项目进行投资。
所以毫不夸张的形容,Ilya的这次创业,仍然有一个类似Sam Altman的角色存在。只不过更年轻,ego也更小。
至于第二个问题连带的子问题,即北美创投圈是否更加包容“科学家转型创业者”这件事,我只能说,同样也都是“血淋淋的教训”。我曾经找到过这样一篇文章。这篇文章发表于美国国立卫生研究院网站,作者指出风险投资和科学家的矛盾是长期存在的,因为“科学家们的洞察和知识虽然是必要的,但是所谓洞察就意味着处于一个不成熟的阶段,在这个阶段只能以一个较低的估值来引起VC足够的注意,这就让科学家始终认为自己处于一个弱势地位,会觉得资本是一个邪恶的东西,在攫取他们的果实”。
在文章的末尾,作者由衷地留下了两条建议:1.如果你一定想要投资科学家主导的项目,那就要思考如何让科学家获得足够但“适当”的股权;2.在投资科学家的时候,一定要慎重的谈好合理的技术转让协议。
1个人值35亿的公司诞生了
一场对顶尖人才的超额押注。
还记得著名的“OpenAI宫斗事件”吗?
那是去年的11月18日,在没有任何提前通知的情况下,OpenAI董事会通过表决,开除了创始人兼首席执行官Sam Altman。他们给出的原因是董事会经过谨慎详细的审查,认定Altman与董事会的沟通不坦诚,无法“相信他继续领导Open AI的能力”。紧接着同样没有被事先通知的董事长Greg Brockman在社交媒体上表达震惊后,宣布同样“离职”。此外,研究主管Jakub Pachocki、风险评估团队负责人Aleksander Madry、资深研究员Szymon Sidor等骨干人员也纷纷提交了辞职申请。
内部动荡到当天几乎所有的商业媒体,都用头条位来讨论这家“世界上估值最高的人工智能企业”,是不是马上就要散伙了。
当然,“宫斗事件”的最终结果还算体面。Sam Altman回到了公司,继续扮演他的领导核心角色。OpenAI也继续领跑大模型赛道,在今年3月成功推出了文生视频产品Sora,巩固自己江湖“独一档”的位置。最近的消息是,OpenAI已经启动了新一轮的融资程序,估值标准拉到了现象级的1000亿美元。
但这场事件也让所有人明白了OpenAI并不是无懈可击。至少在发展路线上,他们的内部分成了两派,一派是以Sam Altman为代表工程派,认为需要遵循科技企业的发展规律,周期性地对外部署、发布,在过程中解决问题;另一派是以联合创始人、首席科学家Ilya Sutskever为代表的技术派,认为“研发”与“商业”是天然地此消彼长关系,过多过早地接触商业只会带来更多麻烦。
今年5月15日,Ilya Sutskever的离职进一步把这个分歧推到了台面上。在那条告别推文中,他一方面致敬了十年来陪伴自己的同事们,认为公司发展轨迹是一个“奇迹”,另一方面他夹枪带棒,留下了一句嘱托:“希望大家能打造既安全又有益的AGI”。
而今天我要讲的事儿,正是要从这句临别赠言说起。9月5日,Ilya Sutskever离开OpenAI后的创业项目Safe Superintelligence (以下简称SSI) ,在仅有10人团队,产品都没有的情况下,正式完成了总规模为10亿美元(约合人民币71亿)的融资。据相关人士透露,本次融资的估值达到了50亿美元(约合人民币355亿),相当于团队每人的估值为5亿美元——而此时距离他官宣成立SSI,仅仅过去了3个月。
“安全的超级人工智能”
从早期创业的视角来看,Ilya Sutskever的本轮融资不仅速度令人瞩目,投资方阵容也相当炸裂。你听说过的那些在AI领域内有头有脸的VC,几乎都出现在了股东列表里,比如A16z、红杉资本、DST和SV Angel。
更值得一提的是,知名天使投资人、曾经的苹果内部AI项目的负责人、曾经的Y Combinator人工智能主管Daniel Gross,本次不仅作为合伙人实际参与到了Ilya Sutskever的创业项目当中,同时也通过自己管理的基金NFDG对SSI进行了投资。
可以毫不夸张地形容,Ilya这次创业起手不仅摸到了双王4个2,小牌也能凑成345678的顺子,接下来的每一步操作,都会给同行们带来足够的震撼。
事实上Ilya也确实有大展拳脚的计划。SSI在接受媒体采访时表示,这次融资的目的是为了“加速开发远超人类能力的安全人工智能系统”。因此这笔资金除了一部分用于购买必要的算力,另外相当一部分资金会用来在全球范围内聘请顶尖人才。
不过相比于我们印象里那些新晋独角兽的“大展拳脚”,SSI更大概率会“徐徐而来”。因为你从名字就能看出来,SSI承载了Ilya Sutskever太多的“理想主义”情怀。自独立创业以来,Ilya一直强调SSI“研究机构”的一面,将他们的第一个实体称为“straight-shot SSI lab”(大概可以翻译成“直击安全超级智能的实验室”)。在发表于6月19日的创业公开信里,Ilya Sutskever还进行了这样情绪化的定义:
“构建安全的超级智能是我们这个时代最重要的技术问题——这会是我们唯一的产品,也是我们唯一的目标,也将是我们的产品路线图……我们将兼顾安全与性能之间的平衡,并且会清醒地认识到‘安全的超级智能’是一个需要通过革命性的工程和科学突破来实现的技术问题。”
基于这个定位。他对未来的同事们和未来的投资人分别提出了很多“情绪价值”层面的要求。
对于未来的投资人,他希望团队在未来的工作中可以不受“运营费用或产品周期的干扰”,并且允许他们寻求一种安全、有保障的商业模式,以保证团队都不会因为短期商业压力的影响研发进程。对于未来的同事,他希望对方是“世界上最优秀的工程师或者研究员”,能够摒弃掉其他杂事“专注于SSI”。作为对方付出的回报,他许诺这份事业可以让未来的同事“毕生致力于此”。
从这次的融资情况来看,这份愿景完成了前半部分。根据Daniel Gross的说法,他们找到了“理解、尊重和支持我们的愿景投资人……尤其是他们理解在将产品推向市场之前,需要花费几年时间进行研发。”
而后半部分似乎进展得不太顺利。目前SSI一共有两个办公地点,一个位于美国加州,一个远在以色列的特拉维夫。两个办公室加起来仅仅只有10名员工,并且拓展起来相当难——同样根据Daniel Gross的说法,对于收到的每一份建立,除了考察求职者过往的项目经历之外,他们往往还要花费数小时审查候选人是否“品行良好”,判断对方“是对工作感兴趣,而不是对炒作感兴趣”。
更夸张的是,其实就连Ilya是否打算“公司化”治理SSI也是一个未知数。除了内部成员之外,也几乎没人知道SSI的构想如何在产品端呈现。在今年6月的一次专访中,Ilya明确表示他理想中的创业是“基于一个纯的研究组织”,“创建一个安全、强大的人工智能系统”,并且短期内无意对外销售任何人工智能相关服务或者产品。
以至于完成了10亿美元融资的SSI,大概率顺便解锁了另外一项成就:他们或许是官网最简陋的独角兽企业。即使是今天,他们的主页仍然只有一段毫无排版设计可言的团队自述和两个联系按钮,一个用来投递简历,另一个用来对接合作。
“对顶尖人才进行超额押注”
看完这段简短的介绍,我猜你一定很好奇两个问题:
1.投资人为什么会在人工智能投资整体过热的背景下,选择相信“安全超级人工智能”的叙事,还慷慨地给出50亿美元的估值?甚至还做出了很多“商业层面”的让步?
2.Ilya这种富有科研底色的人,真的能当好老板吗?北美创投圈如此包容“科学家转型创业者”这件事吗?
先来回答第一个问题。在9月初参与的一次媒体活动中,Ilya曾经简单阐述过他的创业洞察。他认为随着人工智能越来越强大,并且随着算力的增加不断加速扩展,一款人工智能产品走向市场前需要进行什么样的测试、需要经历哪些认证步骤,正在变得越来越棘手。而SSI的存在就是确保人工智能技术会成为“人类社会中一股向善的力量”。
这听起来确实没毛病。并且作为OpenAI的核心成员、作为ChatGPT、图像生成模型DALL-E及其他数十篇研究论文的署名作者,Ilya确实相比于大多数从业者,更有资格代表这个产业的前沿。
但关键在于,这并不是Ilya第一次尝试开展“安全超级人工智能”相关的业务。实际上早在去年7月,OpenAI就成立了一个名为“Superalignment”的部门,专门研究如何管理和引导“超级人工智能”,Ilya正是该部门的直接负责人。与此同时,OpenAI还划拨了20%的算力资源,用来支持该部门的研究工作,并且还慷慨地将开发周期拉长到“四年内找到核心解决方案”。
并且“Superalignment”的结局是一地鸡毛。2024年5月,媒体爆料OpenAI已经解散了该团队,理由是“超级人工智能”目前还只是理论产物,没有人知道什么时候可以实现。因此相比于上不设限的投入,OpenAI的高层认为应该优先考虑产品而不是保障措施,并逐渐开始限制Superalignment的算力使用。
5月17日,Superalignment的另外一名联合负责人、前Deepmind研究员Jan Leike宣布离职,进一步佐证了此前媒体的爆料。他在个人社媒上说:“我与公司高层在优先事项上的意见不合已经持续了一段时间,现在已经到了临界点。我的观点是,我们应该把更多的精力花在为下一代模型做准备上,包括安全性、可监控、保密性、社会影响等相关主题”——还记得开头提到的Ilya宫斗后离职,以及别有深意的临别赠言吗?同样也发生在这一周。
也就是说,如果我们承认OpenAI是目前人工智能赛道中,最接近“商业层面”上成功的企业,那么四舍五入,“安全超级人工智能”其实已经在商业层面上被淘汰过一次。
因此对于本次Ilya的融资,外界普遍的解读为,这就是一次风险投资对杰出人才的超额押注。更何况在“长期无法盈利”的客观条件下,这两年大量的明星创业者已经重新选择做回“大厂员工”(联动《大模型,正在排队寻求卖身》)——如果还有风险投资愿意相信“大模型”的故事,那么市面上留给他们的选择已经很少了。
现在再来回答第二个故事,很显然硅谷也并没有完全对Ilya投出信任票,大量文章指出SSI的核心人物有三个。除了Ilya之外,还有他在OpenAI时期的同事Daniel Levy,以及开头提到的知名天使投资人Daniel Gross。其中Daniel Gross的重要性被反复提及:
Daniel Gross是三人组当中创业经历最丰富的人,他18岁的时候就通过YC训练营创办了个人搜索引擎Greplin(后来更名为Cue),并在2013年将其卖给苹果,套现金额超过3500万美元。他也通过那次并购加入了苹果,开始负责苹果的搜索与AI项目。2017年,Daniel Gross以合伙人的身份重返YC,带头创建了YC垂直于人工智能赛道上的投资业务。
2018年,他组建了自己的创业孵化器Pioneer,他认为这是YC模式的一次必要的升级,因为“软件正在改变世界,远程办公正在改变世界,这或许就是未来伟大公司的诞生方式,也将是风险投资需要适应的方式”。这个想法得到了Stripe和Marc Andreessen的支持,并在此后的18个月里出手超过100次。
2023年,他再次完成了自我迭代,和另一位硅谷知名天使投资人Nat Friedman创办了“Andromeda”——这是一套总投资超过1亿美元,重达4800多公斤,用来支持AI项目早期创业的“计算集群”——Daniel Gross认为相比于“枯燥乏味的现金”,这座矿山更适合用来对早期的AI项目进行投资。
所以毫不夸张的形容,Ilya的这次创业,仍然有一个类似Sam Altman的角色存在。只不过更年轻,ego也更小。
至于第二个问题连带的子问题,即北美创投圈是否更加包容“科学家转型创业者”这件事,我只能说,同样也都是“血淋淋的教训”。我曾经找到过这样一篇文章。这篇文章发表于美国国立卫生研究院网站,作者指出风险投资和科学家的矛盾是长期存在的,因为“科学家们的洞察和知识虽然是必要的,但是所谓洞察就意味着处于一个不成熟的阶段,在这个阶段只能以一个较低的估值来引起VC足够的注意,这就让科学家始终认为自己处于一个弱势地位,会觉得资本是一个邪恶的东西,在攫取他们的果实”。
在文章的末尾,作者由衷地留下了两条建议:1.如果你一定想要投资科学家主导的项目,那就要思考如何让科学家获得足够但“适当”的股权;2.在投资科学家的时候,一定要慎重的谈好合理的技术转让协议。
0
第一时间获取股权投资行业新鲜资讯和深度商业分析,请在微信公众账号中搜索投中网,或用手机扫描左侧二维码,即可获得投中网每日精华内容推送。
发表评论
全部评论