计算机神经网络是人工智能的基础,此概念最早可以追溯到20世纪40年代和50年代,当时的学者们受到生物神经元的启发,提出了一些神经元模型和神经网络模型。其中最有代表性的是1943年Warren McCulloch和Walter Pitts发表的论文《A Logical Calculus of Ideas Immanent in Nervous Activity》,其中提出了一种基于逻辑的神经元模型,这被认为是神经网络的开端。 在接下来的几十年中,神经网络受到了一些学者的关注和研究,但由于计算机硬件、算法和数据的限制,神经网络的发展相对缓慢,直到20世纪80年代和90年代才开始逐渐受到重视。 其中,一位对神经网络发展做出巨大贡献的学者是加拿大蒙特利尔大学的Geoffrey Hinton。Hinton在20世纪80年代提出了一种基于反向传播算法的训练神经网络的方法,这使得神经网络的训练变得更加高效和可行。此外,Hinton还提出了一些新的神经网络结构和算法,如深度信念网络(DBN)和卷积神经网络(CNN),这些结构和算法在图像处理和语音识别等领域取得了非常出色的成绩。 另外,还有一位对神经网络发展做出重大贡献的学者是美国加州大学伯克利分校的David Rumelhart,他在20世纪80年代提出了一种基于误差反向传播算法的训练神经网络的方法,并与Hinton等人合作推动了神经网络的发展。 因此,可以说McCulloch和Pitts是神经网络概念的提出者,而Hinton和Rumelhart等学者则是证明了神经网络在计算机科学中的重要性和实用性,并推动了神经网络的发展。 一直到2018年OpenAI团队基于计算机神经网络技术,开发了第一个大型语言模型。而斯坦福大学构建的语言模型是开源的,所以欧洲人,中国人,日本人都可以建立自己的模型了。 世界需要合作,需要推崇原始创新,人类才能进步。任何一个民族都对此怀有应有的责任。 本文信息来自ChatGPT对神经网络的描述。
|