请天假(1 / 2)
脑子转不动了。
不知道该怎么解释Transformer架构,当然,也不是想写深奥技术。
我自己完全不懂技术,最开始在构思这块剧情时,最开始想到的是2016年opneAI成立,2017年谷歌发布Transformer架构,基于这个架构opneAI快速进化。
那么既然是这样,为啥国内21年之后才开始疯狂跟进通用性AI大模型?
问了几个朋友,各种原因很复杂。
但其中都包括当时国内外市场都没几个人看懂Transformer架构,直到2018年底谷歌基于Transformer架构发布了更新的技术成果,验证通用性AI模型可行性。
国内BTA这类顶级厂商才开始跟进,而国内创投市场依然没动作。
↑返回顶部↑