“这确实是一个新路子,是一个了不得的设想。”郝成嘀咕着:“知识能够凝聚意图的最小单位...
“知识...凝聚意图...这...”
其实郝成一大早送完女儿就想直接回到家研究昨天夜里那45分钟所学的知识来着,但是被何钢一顿电话给薅了过去,耽误了大半天,直到下午三点多才回到家里。
而一回到家,他就开始将深深记在脑海里的东西再次梳理了一遍,而经过梳理,对这些东西的理解就又深刻了一个层次:
“这理论是从微观论述的,不太好理解,如果从宏观上去表达,”郝成眯着眼睛,脑筋分外活跃:
“宏观来看的话,知识是作为决策依据的一部分而存在的。而所谓凝聚意图,直接看作是形成决策的渐进过程。
“而渐进的过程,再分解成微观来观察,那就是最小单位的富集过程,当然这个富集并不是1加1等于2的这种叠加,而是1个融合1个,变成更大更强的1个,最终形成的是如小沙般更加强大的AI模型。”
……
这个时候再回过头去看,类似于现代符码系统的那个“知识凝聚意图”的规律性联系……
郝成觉得自己的思维都更加的清晰了,原本很多想不明白的点也慢慢的在一次又一次的思索中豁然开朗。
此刻,什么小沙不小沙的,他已经觉得自己上自己也行的程度了。
甚至,他已经迫不及待的想要开始“凝聚”完全由自己打造的第一个基于意图做决策的“AI模型”了……
不过,事情显然并没有看起来那么简单。
原理已经很清晰了,但怎么样利用现有的硬件去实现,这也是一个巨大的难题。
现在的AI训练所用的算力卡,其本质就是实现多组算术运算和逻辑运算的组合逻辑电路,被称为ALU。
简单理解,它就是做数学运算的,最简单的就是加减乘除。
从数学运算怎么样发展到人工智能,一方面,需要便捷的方式充分利用算力芯片的性能,英伟达的CUDA就是做这个的。
另一方面,也需要优秀的算法,比如Transformer这个基于自注意力机制的深度学习算法模型,就是后来GPT和ChatGPT以及多数语言大模型的基础。
此刻的郝成,也需要设计一个强大的算法,来实现他刚刚才学习、刚刚才开始理解的理论——知识凝聚意图的规律性联系理论。