谷歌研究院发布一项新的研究Titans。通过引入全新的神经长期记忆模块,三头协同架构与硬件优化设计等模块,在算力仅增加1.8倍的情况下,将大模型的上下文窗口扩展至200万token。Titans不仅解决了Transformer模型在长上下文处理中的算力瓶颈,更通过仿生学设计模拟人类记忆系统的分层机制,首次实现了200万token超长上下文的精准推理。
On May 9th, 0xTitans tweeted that the first AI game TITANS on the Dymension-based AI game chain Nim Network will be launched next week.
5月9日消息,0xTitans发推称,基于Dymension的AI游戏链Nim Network上第一个AI游戏TITANS将于下周上线。