设万维读者为首页 万维读者网 -- 全球华人的精神家园 广告服务 联系我们 关于万维
 
首  页 新  闻 视  频 博  客 论  坛 分类广告 购  物
搜索>> 发表日志 控制面板 个人相册 给我留言
帮助 退出
 
天蓉的博客  
随笔、小说、诗词、科普。 “真和美,是科学不变的精髓;爱与死,是文学永恒的主题……”  
我的名片
天蓉
注册日期: 2011-09-18
访问总量: 1,182,989 次
点击查看我的个人资料
Calendar
我的公告栏
最新发布
· 费马大定理-椭圆曲线和“群”
· 费马大定理-模形式
· 费马大定理-椭圆曲线
· 费马大定理-数学公主
· 费马大定理-欧拉猜想
· 费马大定理-这个证明包你懂!
· 费马大定理-救了他的命
友好链接
分类目录
【作品目录】
· 《走近混沌》目录
· 《走近量子》目录
· 《诗谜画谜》目录
· 《傻博士的初恋》目录
· 《美国房客》目录
· 《隐身惊魂记》目录
· 《白雪之恋》:目录
【科普-走近混沌】
· 《走近混沌》-25-27-全文完
· 《走近混沌》-24-孤立子的故事
· 《走近混沌》-23-混沌到有序
· 《走近混沌》-22-再回魔鬼聚合物
· 《走近混沌》-21-萬變之不變
· 《走近混沌》-20-混沌魔鬼不穩定
· 《走近混沌》-19-混沌魔鬼的誕生
· 《走近混沌》-18-生態繁衍和混沌
· 《走近混沌》-17-混沌遊戲
· 《走近混沌》-16-三體問題及趣聞
【科普-走近量子】
· 走近量子(19)量子隐形传输(二
· 走近量子(18)量子隐形传输(一
· 走近量子(17)量子计算机
· 走近量子(16)GHZ定理-繼續
· 走近量子(15)GHZ定理
· 走近量子(14)qubit和费曼
· 走近量子(13)从纠缠态到qubit
· 走近量子(12)GHZ登场
· 走近量子(11)埃斯派克特的实验
· 走近量子(10)最後的判决
【谜语集锦3】
· 留下一串謎(詩謎+畫謎)- 44
· 留下一串謎(詩謎+畫謎)- 43
· 留下一串谜(诗谜+画谜)- 42
· 留下一串谜(诗谜+画谜)- 41
· 留下一串谜(诗谜+画谜)- 40
· 留下一串谜(诗谜+画谜)- 39
· 留下一串谜(诗谜+画谜)- 38
· 留下一串谜(诗谜+画谜)- 37
· 留下一串谜(诗谜+画谜)- 36
· 留下一串谜(诗谜+画谜)- 35
【谜语集锦2】
· 留下一串谜(诗谜+画谜)- 30
· 留下一串谜(诗谜+画谜)- 29
· 留下一串谜(诗谜+画谜)- 28
· 留下一串谜(诗谜+画谜)- 27
· 留下一串谜(诗谜+画谜)- 26
· 留下一串谜(诗谜+画谜)- 25
· 留下一串谜(诗谜+画谜)- 24
· 留下一串谜(诗谜+画谜)- 23
· 留下一串谜(诗谜+画谜)- 22
· 留下一串谜(诗谜+画谜)- 21
【谜语集锦1】
· 留下一串谜(诗谜+画谜)- 20
· 留下一串谜(诗谜+画谜)- 19
· 留下一串谜(诗谜+画谜)- 18
· 留下一串谜(诗谜+画谜)- 17
· 留下一串谜(诗谜+画谜)- 16
· 留下一串谜(诗谜+画谜)- 15
· 留下一串谜(诗谜+画谜)- 14
· 留下一串谜(诗谜+画谜)- 13
· 留下一串谜(诗谜+画谜)- 12
· 留下一串谜(诗谜+画谜)- 11
【谜语集锦】
· 留下一串谜(诗谜+画谜)- 10
· 留下一串谜(诗谜+画谜)- 9
· 留下一串谜(诗谜+画谜)- 8
· 留下一串谜(诗谜+画谜)- 7
· 留下一串谜(诗谜+画谜)- 6
· 留下一串谜(诗谜+画谜)- 5
· 留下一串谜(诗谜+画谜)- 4
· 留下一串谜(诗谜+画谜)- 3
· 留下一串谜(诗谜+画谜)- 2
· 留下一串谜(诗谜+画谜)- 1
【傻博士的初恋46-50】
· 傻博士的初恋-50-尾声
· 傻博士的初恋-49-水落石出
· 傻博士的初恋-48-谋杀案?
· 傻博士的初恋-47-当个女侦探
· 傻博士的初恋-46-跟踪依娃
【傻博士的初恋:41-45】
· 傻博士的初恋-45-疑惑
· 傻博士的初恋-44-分手?
· 傻博士的初恋-43-闯荡哈林区
· 傻博士的初恋-42-平安夜(2)
· 傻博士的初恋-41-平安夜(1)
【傻博士的初恋36-40】
· 傻博士的初恋-40-回家
· 傻博士的初恋-39-感恩节(2)
· 傻博士的初恋-38-感恩节(1)
· 傻博士的初恋-37-古怪的量子
· 傻博士的初恋-36-罗德的忠告
【傻博士的初恋31-35】
· 傻博士的初恋-35-万圣节(2)
· 傻博士的初恋-34-万圣节(1)
· 傻博士的初恋-33-工作狂
· 傻博士的初恋-32-如此先进企业
· 傻博士的初恋-31-强词夺理
【“傻”博士的初恋:26-30】
· 傻博士的初恋-30-大金失踪
· 傻博士的初恋-29-恋爱的学问
· 傻博士的初恋-28-911(2)
· 傻博士的初恋-27-911(1)
· 傻博士的初恋-26-贾杨金
【“傻”博士的初恋:21-25】
· 傻博士的初恋-25-人脑和电脑
· 傻博士的初恋-24-硅谷看房子
· 傻博士的初恋-23-经济泡沫
· 傻博士的初恋-22-明娜来访
· 傻博士的初恋 -21- 亲密接触
【“傻”博士的初恋:11-15】
· 傻博士的初恋 -20- 搬家
· 傻博士的初恋 -19- 罗德的故事
· 傻博士的初恋 -18- 糊涂有理
· 傻博士的初恋 -17- 糊涂博士
· 傻博士的初恋 -16- 疯涨的股票
【“傻”博士的初恋:11-15】
· 傻博士的初恋 -15- “生日快乐
· 傻博士的初恋 -14- 过生日
· 傻博士的初恋13- 父母来访
· 傻博士的初恋-12- “大袍子”博
· 傻博士的初恋-11- 有惊无险
【“傻”博士的初恋:6-10】
· 傻博士的初恋-10- 太浩湖之旅
· 傻博士的初恋-9- 简单和复杂
· 傻博士的初恋-8- 笑阿姨
· 傻博士的初恋-7- 情人节
· 傻博士的初恋-6-大忙人
【“傻”博士的初恋:1-5】
· 傻博士的初恋-5-“萨沙”和“妮
· 傻博士的初恋-4-合作伙伴?
· 傻博士的初恋-3-第一次约会
· 傻博士的初恋-2-棕榈大道
· 傻博士的初恋-1-初遇
· 傻博士的初恋:引子
【《美国房客》尾声】
· 《美国房客》- 35 经悠悠数月,
【《美国房客》生死游戏】
· 《美国房客》- 34 感生命有限,
· 《美国房客》- 33 知祸福相依,
· 《美国房客》- 32 忆德州旧识,
· 《美国房客》- 31 急自强有危,
· 《美国房客》- 30 烧藏宝真图,
· 《美国房客》- 29 欲引蛇出洞,
· 《美国房客》- 28 映院中人影,
· 《美国房客》- 27 破车祸真相,
· 《美国房客》- 26 听教授感慨,
· 《美国房客》- 25 记梦中影像,
【《美国房客》游子百态】
· 《美国房客》- 15 忆往事成烟,
· 《美国房客》- 14 解诗词秘密,
· 《美国房客》- 13 气弟弟不肖,
· 《美国房客》- 12 喜赴美寻梦,
· 《美国房客》- 11 厌名利薰心,
· 《美国房客》- 10 记车祸当日,
· 《美国房客》- 9 述加州之行,触
· 《美国房客》- 8 疑泰州宝藏,惑
· 《美国房客》- 7 用键盘交流,集
· 《美国房客》- 6 叙文革旧事,传
【《美国房客》楔子】
· 《美国房客》楔子-2 人物诗谜
· 《美国房客》楔子-1 一则新闻
【长篇悬疑小说《美国房客》】
【《隐身惊魂记》-独立节惊魂】
· 独立节惊魂-尾声
· 独立节惊魂-82-隐蛇现形白宫惊魂
· 独立节惊魂-81-遥控实现杀人游戏
· 独立节惊魂-80-毒蛇消失总监着急
· 独立节惊魂-79- 欢乐华府严阵以
· 独立节惊魂-78- 阳光谷城小虎遇
· 独立节惊魂-77-节日凌晨无人能眠
· 独立节惊魂-76-高人驾车出手相救
【《隐身惊魂记》-矽谷追逐】
· 矽谷追逐-75-隐身男孩被人跟踪
· 矽谷追逐-74-红木城中隐人现形
· 矽谷追逐-73-隐人出没捉狭添乱
· 矽谷追逐-72-戈尔自杀拉曼被捕
· 矽谷追逐-71-身陷囹圄处境危急
· 矽谷追逐-70-月黑风高事故不断
· 矽谷追逐-69-野狼活动毒蛇突现
· 矽谷追逐-68-天灾可怕人心奸诈
· 矽谷追逐-67-狡猾政客阴谋小人
· 矽谷追逐-66-精心策划设置圈套
【《隐身惊魂记》-阴谋政治】
· 阴谋政治-61-驶离华府何去何从
· 阴谋政治-60-警商勾结顾客遭殃
· 阴谋政治-59-欲破阴谋逃避逮捕
· 阴谋政治-58-隐侠计划云游湾区
· 阴谋政治-57-别墅取车拉曼落网
· 阴谋政治-56-流浪小子守株待兔
· 阴谋政治-55-上司策划逮捕迈克
· 阴谋政治-54-两月前的重大案件
· 阴谋政治-53-分析案情迷雾重重
· 阴谋政治-52-跟踪绅士疑点多多
【长篇科幻小说《隐身惊魂记》】
· 脑电波之谜-40-急中生智无辜遇难
· 脑电波之谜-39-藏身遁形纽约历险
· 脑电波之谜-38-情况复杂小虎不见
· 脑电波之谜-37-人性兽性互纠互缠
· 脑电波之谜-36-隐人胡闹大使剧院
· 脑电波之谜-35-历历在目十年之前
· 脑电波之谜-34-拉曼失踪线索中断
· 脑电波之谜-33-切身体会隐身之趣
· 《隐身惊魂记》目录
· 脑电波之谜-32 别墅忽见往日同学
【随笔】
【科普】
· 费马大定理-椭圆曲线和“群”
· 费马大定理-模形式
· 费马大定理-椭圆曲线
· 费马大定理-数学公主
· 费马大定理-欧拉猜想
· 费马大定理-这个证明包你懂!
· 费马大定理-救了他的命
· “费马数”-猜想
· 猫咪怎样启发了人工神经网络的诞
· 量子纠缠:“鬼魅般的超距作用”
【诗词】
· 《露珠》
· 《小花》
· 《激流》
· 《团聚》
· 《三叠泉》
· 《咏荷》
【小说】
· 《白雪之恋》:2-《二十六年后…
· 《白雪之恋》:2-《二十六年后…
· 《白雪之恋》:2-《二十六年后…
· 《白雪之恋》:2-《二十六年后…
· 《白雪之恋》:1-56
· 《白雪之恋》:1-55
· 《白雪之恋》:1-54
· 《白雪之恋》:1-53
· 《白雪之恋》:1-52
· 《白雪之恋》:1-51
存档目录
11/01/2024 - 11/30/2024
10/01/2024 - 10/31/2024
09/01/2024 - 09/30/2024
08/01/2024 - 08/31/2024
06/01/2024 - 06/30/2024
05/01/2024 - 05/31/2024
04/01/2024 - 04/30/2024
03/01/2024 - 03/31/2024
02/01/2024 - 02/29/2024
01/01/2024 - 01/31/2024
12/01/2023 - 12/31/2023
11/01/2023 - 11/30/2023
06/01/2023 - 06/30/2023
04/01/2023 - 04/30/2023
11/01/2022 - 11/30/2022
10/01/2022 - 10/31/2022
09/01/2022 - 09/30/2022
07/01/2022 - 07/31/2022
06/01/2022 - 06/30/2022
05/01/2022 - 05/31/2022
04/01/2022 - 04/30/2022
03/01/2022 - 03/31/2022
02/01/2022 - 02/28/2022
01/01/2022 - 01/31/2022
12/01/2021 - 12/31/2021
07/01/2013 - 07/31/2013
02/01/2013 - 02/28/2013
01/01/2013 - 01/31/2013
12/01/2012 - 12/31/2012
11/01/2012 - 11/30/2012
10/01/2012 - 10/31/2012
09/01/2012 - 09/30/2012
08/01/2012 - 08/31/2012
07/01/2012 - 07/31/2012
06/01/2012 - 06/30/2012
05/01/2012 - 05/31/2012
04/01/2012 - 04/30/2012
03/01/2012 - 03/31/2012
02/01/2012 - 02/29/2012
01/01/2012 - 01/31/2012
12/01/2011 - 12/31/2011
11/01/2011 - 11/30/2011
10/01/2011 - 10/31/2011
发表评论
作者:
用户名: 密码: 您还不是博客/论坛用户?现在就注册!
     
评论:
猫咪怎样启发了人工神经网络的诞生?
   

2012年是神经网络翻身的一年。一个具有划时代意义的模型AlexNet横空出世,在一个叫做ImageNet的图像识别竞赛中,以识别率远超第二名10.9个百分点的绝对优势,一举夺冠,引起了人工智能领域极大的轰动。辛顿三人的AlexNet成功的秘诀,是使用了“多层卷积人工神经网络”,这个短语中涉及的词汇,都可以靠“顾名思义”就大概明白了,唯有其中的“卷积”一词,说的是什么意思呢?今天我们就聊聊这个话题。

喵咪视觉的启发

故事得回到20世纪60年代初,哈佛大学两位神经生物学家休伯尔David Hubel和威泽尔Torsten Wiesel,作了一个有趣的猫咪实验,见图1。他们使用幻灯机向猫展示特定的模式,然后记录猫脑中各个神经元的电活动[1]。他们发现特定的模式刺激了猫咪大脑特定部位的活动。正因为他们在视觉信息处理方面的杰出贡献,荣获了1981年诺贝尔生理学或医学奖。

图1:1962年哈佛大学研究者对猫咪的神经生物实验

哈佛学者的实验证明,视觉特征在大脑皮层的反应是通过不同的细胞达成的。其中,简单细胞(Simple Cell)感知光照信息,复杂细胞(Complex Cell)感知运动信息。到了1980年前后,日本科学家福岛邦彦受猫咪生物实验的启发,模拟生物视觉系统并提出了一种层级化的多层人工神经网络,即“神经认知”系统,这是现今卷积神经网络的前身。在论文中,福岛邦彦提出了一个包含卷积层、池化层的神经网络结构。

福岛小时候家境贫寒,但好奇心让他对电子技术充满激情,后来他获得了京都大学的电气工程博士学位,1965年他加入了一个视觉和听觉信息处理研究小组,研究生物大脑。之后,福岛与神经生理学家和心理学家通力合作,组装人工神经网络。

1979年,「Neocognitron」神经认知系统问世了,灵感便来自于两种已知存在于生物初级视觉皮层的神经细胞:简单的「S」细胞,以及复杂的「C」细胞,它们后来分别演化成了现在神经网络中的卷积层和池化层,见图2[2]。

福岛老爷子今年已经88岁了,5年前他还发表了神经网络方面的研究论文。

图2:福岛邦彦1980年的“神经认知”系统

其实福岛邦彦40年前的认知系统已经具有了卷积神经网络的基本构型,但当时这个网络的神经元都是由人工设计而成,不会根据结果进行自动调整,学习能力不强等等。因此只能限制在识别少量简单数字的初级阶段。

来得早不如来得巧,卷积方法得以实用化是在1998年,法国计算机科学家杨立昆(Yann LeCun,1960-)将反向传播应用到卷积神经网络的训练之后。

杨立昆于生于法国巴黎附近,1983年在巴黎电子工程师高等学校获得了工程师学位,1987年在巴黎第六大学获得计算机科学博士学位,随后到多伦多大学在杰弗里·辛顿的指导下完成了博士后工作,与辛顿同为2018年图灵奖得主。

图3:杨立昆

1986年,正在攻读博士学位的杨立昆放下了另一个研究工作,开始专注研究反向传播。出于从休伯尔、威泽尔和福岛邦彦工作中获得的灵感,以及对哺乳动物视觉皮层研究的迷恋,他设想了一个多层网络架构,能够将简单细胞和复杂细胞的交替以及反向传播训练结合在一起。他认为这种类型的网络非常适合用于图像识别[3]。

1988年,杨立昆加入新泽西州的贝尔实验室。在此,他开发了包括卷积神经网络在内的多个机器学习方法[4]。并且真正实现了卷积神经网络,贝尔实验室将其命名为LeNet,就如他的姓LeCun一样,这是卷积网络的第一个名字。

人眼如何识别物体?

图像识别一直是人工智能研究中的热点,这是有原因的。本来人类的知识就来自于对世界的观察,从人眼开始,延伸到望远镜显微镜等等各种观测工具。我们伟大的科学,就是建立在许多许多观测资料的基础之上。

计算机要模仿人的功能和思想,也包括了人眼识别的过程,而眼睛是非常复杂精致的器官,加上与大脑神经的联系及反馈,形成的生物视觉机制,是数百万年间持续进化的高级产物,人类尚未完全弄明白,当然也不是那么容易仿效的。

人眼到底是如何工作的?你可能认为这很简单,人眼是一个光学系统,物体的反射光通过晶状体折射成像于视网膜上。再由视觉神经感知传给大脑。这样人就看到了物体。人工智能开始时就是企图如此来模拟视觉:接受器件将整个图像通过扫描成为像素,送到神经网络进行识别,如图4a。

然而,人眼识别似乎不是那么简单,那么,人眼是如何识别各种模式的?说得更具体一点,人眼如何识别一个手写的字母x?

图4:机器识别和人眼识别

从我们的经验知道,人眼“一眼就能”看出图1b中的每个小图中都有个x,无论这个x放在哪个位置?是大还是小?是红还是蓝?有没有背景图?

科学家们希望机器也能尽量做到这点,于是有人便搬出了“卷积”这个法宝。

卷积是个啥?

实际上,卷积概念的出现大大早于神经网络,如图4上方的数学表达式所示:它是一种从两个函数f(r’)和h(r-r’)相乘再对r’积分得到另一个函数g(r)的运算。

尽管名字不同,但与卷积类似的运算最早是于1754年出现在达朗贝尔的数学推导中,继而又被其他数学家使用过。不过,这个术语的正式登场是在1902年。

之后,在通信工程中,卷积用以描述信号和系统的关系。对于任意的输入f(t),线性系统的输出g(t)表示为脉冲响应函数h(t)与输入的卷积。例如,歌手使用麦克风演出时,通过麦克风听到的歌声,与麦克风之前的声波是有所不同的,因为麦克风对输入信号有延迟和衰减的作用。如果将麦克风近似为一个线性系统,用函数h(t)来表示它对信号的作用,那么,麦克风的输出g(t)就是输入的f(t)与h(t)的卷积。另一个有趣的事实是,如果送进麦克风的输入是狄拉克d-函数的话,麦克风的输出便正好是它的脉冲响应函数h(t)。

仔细观测卷积的积分表达式,会发现积分号中h函数积分变量r’的符号为负。如果r是时间t的话,那就是说,h函数被“卷”(对时间翻转)到过去的数值,再与当前的f值相乘,最后再将这些乘积值叠加(积分)起来,便得到了卷积。这点在麦克风的例子中很容易理解,因为麦克风每个时刻的输出,不仅与当前的输入有关,还与过去的输入有关。 

图5:卷积

总结上面一段话,可以更简要地理解卷积:卷积是函数f对权重函数h的权重叠加。

数学的美妙之处在于抽象,抽象后的概念可以应用于其它不同的场合。比如卷积,可以被用于连续函数(如信号和系统),也可以被用于离散的情况(如概率和统计);卷积的积分变量可以是时间,也可以是空间,还可以是多维空间,例如将它用于AI的图像识别中,便是卷积在离散的多维空间中的应用。

卷积层和卷积计算

现在让我们想想,当给计算机一个包括"X"的图案,它怎么才能找到这个“X”呢?一个可能的办法就是:让计算机存储一张标准的“X”图案,然后将这个标准图放到输入图的各个部分去比对,如果某部分与标准图一致,则判定找到了一个"X"图案。更进一步,这个标准图最好还有缩小放大转动等功能。

以上提到过,人眼“一眼就能”看出图中某个模式。其实这个“一眼就能”有个数学模型,就是d-函数。如果将d-函数用于卷积中,因为它只在某一个孤立点有值,所以它能够将f函数该点的值“抽取”出来。

如图6所示,标准图(图中的卷积核)就像一双眼睛,它的3x3窗口在7x7的输入数据上滑动,就像眼睛在图上望来望去,将符合标准的部分抽取出来。这个比对抽取的过程,就由卷积操作来完成。具体计算过程:卷积是将窗口扫描到的3x3矩阵元数值,与卷积核的3x3矩阵元数值逐一相乘再全部加起来,将得到的结果写到与窗口中心对应的1x1位置中。最后得到的(更大的,图中是7x7的)输出矩阵,就是卷积的结果。

图6:神经网络识别x时的卷积计算

也可以说,卷积核的作用,类似于代表某个模式的d-函数,它能把这个模式从原图中“抽样提取”出来。用前面描述卷积数学公式的语言来说,图6左边的输入矩阵,是f函数;卷积核是h函数;最右边的输出,是卷积计算的结果g函数。卷积核(图中的3x3矩阵)的矩阵元,是权重系数。卷积核的权重系数,与连接层与层之间的权重系数一样,也可以通过学习和训练过程进行优化。此外,还要用适当的激活函数达到非线性化的目的。

卷积的作用是“抽取”,抽取什么呢?在图像识别中,通俗地说就是抽取事物的轮廓。

池化层及卷积神经网络

让我们回头再想想人眼识物的更多特点。当我们从轮廓知道了那是一只猫之后,我们发现一个有趣又有用的事实:即使将图像缩小很多,我们仍然能够判定“那是一只猫”。这说明储存的轮廓图像有许多冗余的信息。

我们不需要太多冗余信息,因为它们浪费了计算机的储存空间。并且,有时信息多了是画蛇添足,反而增加判断的错误率。所以,我们将图6所示的卷积层的计算结果,送入一个叫“池化”的网络层。池化的作用便是对特征图进行降采样,降低信息的冗余,从而减小网络的模型参数量和计算成本,减少过拟合的风险,也对输入图像中的特征位置变化,诸如变形、扭曲、平移等等视觉模式漂移,更不敏感。

以上解释是针对一个卷积层加一个池化层识别一个简单模式而言。实际上,对输入的大量彩色复杂图片,需要识别的模式非常多,因此必须考虑许多复杂的因素,上面描述的特征提取器不是“手动”设计的,而是通过学习自动生成的。做到自动化,是使用反向传播训练的多层网络的魅力所在。不过,基本思想与上面所说是一致的:多个卷积层加非线性再加上池化层,足以识别出从简单模式(拐角、边缘等)到复杂对象(人脸、椅子、汽车等)的各类图像内容,见图7。

图7:卷积神经网络整体示意图

卷积加池化中的计算,看起来是乘法叠加,它们的总作用是提取重要信息并降维。为了更好地理解这两层神经网络的作用,我们也可以与声音信号的傅立叶分析相比较。一般的声音信号(如一段音乐)在时间域中是颇为复杂的曲线,需要每个时刻的大量数据来表示。如果经过傅立叶变换到频率域后,便只要少量的几个频谱,基频和几个泛音的数据就可以表示了。例如最简单的,某个单一频率的声波,在时间域是一连串的强度随时间变换的正弦函数值,而在傅立叶变换后的频率域,只是一个d-函数。也就是说,傅立叶变换能够有效地提取和存储声音信号中的主要成分,并且降低描述数据的维数。卷积运算在神经网络中也有类似的作用:一是抽象重要成分,抛弃冗余的信息,二是降低数据矩阵的维数,以节约计算时间和存储空间。不过当卷积神经网络应用于图像识别时,提取的是图像的空间变化信息,不是时间频谱。

卷积神经网络为大众熟知的最广泛应用是人脸识别技术,我们在手机照片中经常看到。比如,如图8所示,一张“人脸” 可以看做简单模式的层级叠加,第一个隐藏层学习到的是人脸上的轮廓纹理(边缘特征),第二个隐藏层学习到的是由边缘构成的眼睛鼻子之类的“形状”,第三个隐藏层学习到的是由“形状”组成的人脸“图案”,每一层抽取的目标越来越抽象,在最后的输出中通过特征来对事物进行识别(是或不是)。

图8:每一层的分类能力越来越“抽象”

神经网络虽然源于对大脑的模拟,但后来的发展则更大程度上被数学理论及统计方法所指导,正如飞机这一交通工具的发展过程,源于对鸟儿飞翔的模仿,但现代飞机的结构却与鸟类身体构造风马牛不相及。

参考文献:

[1]Receptive fields, binocular interaction and functional architecture in the cat's visual cortex.,  D. H. Hubel and T. N. Wiesel, The Journal of Physiology(1962)

https://www.aminer.cn/archive/receptive-fields-binocular-interaction-and-functional-architecture-in-the-cat-s-visual-cortex/55a5761e612c6b12ab1cc946

[2]Fukushima, K. (1980) Neocognitron: A Self-Organizing Neural Network Model for a Mechanism of Pattern Recognition Unaffected by Shift in Position. Biological Cybernetics, 36, 193-202.

https://doi.org/10.1007/BF00344251

[3]科学之路: 人、机器与未来 当机器思考时,人类会怎样?,作者: [法] 杨立昆,出版社: 中信出版集团,2021-8-1。

[4]Y. LeCun, B. Boser, J. S. Denker, D. Henderson, R. E. Howard, W. Hubbard and L. D. Jackel: Backpropagation Applied to Handwritten Zip Code Recognition, Neural Computation, 1(4):541–551, Winter 1989.

(本文首发于微信公众号“知识分子”)

 
关于本站 | 广告服务 | 联系我们 | 招聘信息 | 网站导航 | 隐私保护
Copyright (C) 1998-2024. Creaders.NET. All Rights Reserved.