要实现超强的AI能力,需要超大规模的模型,要训练超大规模的AI模型,需要数千,甚至上万的GPU协同工作。这就带来几个问题:更多的GPU造成的...
要实现超强的AI能力,需要超大规模的模型,要训练超大规模的AI模型,需要数千,甚至上万的GPU协同工作。
这就带来几个问题:更多的GPU造成的高能耗,计算卡与计算卡之间的通信延迟,计算集群与计算集群之间的通信延迟和算力损耗。
每一次开发布会,NVIDIA都会强调其NVLink芯片间互联技术。目前它的最新产品是NVL72平台,能够将72个NVIDIA Blackwell计算单元连接在一起,其芯片间总传输速度是7Tbps。
那么,如果用光来计算,用光来传输,会怎么样?一家专注于光子计算的公司Lightmatter已经将芯片互连速度提高到30Tbps,100Tbps的版本也在路上。它有光子计算单元,有光学芯片封装和传输技术,能够系统化提升整个AI计算集群的计算力,计算效率,并降低功耗。Lightmatter声称,其产品有能力支持万亿级参数的大语言模型训练,并有望帮助AI实验室们探索通用人工智能。
近日,Lightmatter获得了4亿美元的D轮融资,这使它的累计融资金额达到8.5亿美元,公司估值达到44亿美元。领投最新一轮融资的是T. Rowe Price Associates Inc.,参投机构有GV(Google Ventures),Fidelity Management & Research Company。它此前数轮融资的投资者还包括红杉资本,Viking Global Investors,HP Enterprise、SIP Global Partners和Matrix Partners、Spark Capital 。
速度提升数十倍,用光子计算重塑AI算力集群
Lightmatter由Nicholas Harris、Darius Bunandar和Thomas Graham于2017年创立。Nicholas Harris是麻省理工学院量子光子实验室的成员,2012年,他与合作者实现了“可编程纳米光子处理器”(PNP),这是一种基于硅光子学的光学处理器,可以对光进行矩阵变换。
此后,他在《Nature Photonics》和《Science》等顶尖学术期刊上发表关于光子计算架构可行性文章,其中一篇文章的共同作者是Darius Bunandar(Lightmatter首席科学家)。
Nicholas Harris
对于Lightmatter的投资,GV合伙人Erik Nordlander表示:“AI的发展速度远超任何人的预期,正在突破数据中心技术的极限。光子计算技术不仅是一次突破,也是未来打造百万节点数据中心的方向。Lightmatter是数据中心光子技术的绝对领导者。”
免责声明:作为区块链信息平台,本站所提供的资讯信息不代表任何投资暗示,本站所发布文章仅代表个人观点,与BLOCK ERA官方立场无关。虚拟货币不具有法定货币等同的法律地位,参与虚拟货币投资交易存在法律风险。BLOCK ERA反对各类代币炒作,请投资者理性看待市场风险。