化后,设计出一款只适用于柚子框架和橘子大模型的计算芯片出来!”
汉宁公馆客厅里,柚子看着电视中的张悍瞬间觉得面目更可憎了。
“主人,那这样的话,m60撤单不撤单?”柚子现在早学会了迂回沟通,“撤单的话,定金可就损失了。”
方豫微微一笑:“不撤单,撤什么单,我又没说现在就要做芯片,你先把这款芯片设计搞出来再说。”
软件+硬件,双管齐下,看来柚子架构注定是要一统江湖喽!
近十年人工智能的发展,最重要的两个节点其实都是古狗引导的。
第一个节点毫无疑问是deepmind的阿法狗,而第二个节点则是古狗大脑在2017年6月发的那篇惊世骇俗的论文《注意力是你需要的一切》(attention is all your need)。
在这篇论文中,古狗大脑的八位研究员,首次提出多头注意力机制在npl上面的潜力。当时最原始的transformer模型仅仅只有100m,而这个模型,完全抛弃了循环神经网络(rnn)和卷积神经网络(cnn),取而代之的是完全不同的注意力机制以及编码器-解码器架构。
值得注意的是,openai中的伊利亚并不是这篇文章的作者之一的伊利亚波洛苏金。
这篇文章在17年6月12日发布后,并没有第一时间造成很大影响,并且由于其难以收敛,并不比相对成熟的lstm效率更高,因此在这个阶段,大部分研究者的视线并未投向注意力机制的transformer架构,这里也包括openai。
openai在2018年年初,还在用lstm进行训练,并且在dota2里击败了人类。而仅仅几个月之后,openai就发布了gpt-1。
这说明,几个月的时间,足够制作一个大模型。