阅读历史 |

请天假(1 / 2)

加入书签

脑子转不动了。

不知道该怎么解释Transformer架构,当然,也不是想写深奥技术。

我自己完全不懂技术,最开始在构思这块剧情时,最开始想到的是2016年opneAI成立,2017年谷歌发布Transformer架构,基于这个架构opneAI快速进化。

那么既然是这样,为啥国内21年之后才开始疯狂跟进通用性AI大模型?

问了几个朋友,各种原因很复杂。

但其中都包括当时国内外市场都没几个人看懂Transformer架构,直到2018年底谷歌基于Transformer架构发布了更新的技术成果,验证通用性AI模型可行性。

国内BTA这类顶级厂商才开始跟进,而国内创投市场依然没动作。

↑返回顶部↑

书页/目录