设万维读者为首页 万维读者网 -- 全球华人的精神家园 广告服务 联系我们 关于万维
 
首  页 新  闻 视  频 博  客 论  坛 分类广告 购  物
搜索>> 发表日志 控制面板 个人相册 给我留言
帮助 退出
 
天蓉的博客  
随笔、小说、诗词、科普。 “真和美,是科学不变的精髓;爱与死,是文学永恒的主题……”  
网络日志正文
ChatGPT和贝叶斯 2023-04-08 03:37:10

2022年底问世的ChatGPT,震撼了互联网。不由得使人联想起2016年初AlphaGo,挑战人类顶级围棋大师李世石的故事。我在2017年出版的一本概率科普书中1】,对当年人工智能的状况稍有描述,那算是AI的第二次革命,深度机器学习和自然语言处理(NLP)刚起步。没想到短短几年过去,第三次AI浪潮滚滚而来,基本搞定了自然语言的理解和生成难题,以 ChatGPT 发布为里程碑,开辟了人机自然交流的新纪元。


1OpenAI发布ChatGPT

 人工智能(AI)的想法由来已久,英国数学家艾伦·图灵,不仅仅是计算机之父,也设计了著名的图灵试验,开启了人工智能的大门。如今,人工智能的应用已渗入到我们的日常生活中。它的成功崛起,来源于计算机的飞速发展、云计算的兴起、大数据时代的来临,等等。 其中,与大数据有关的数学基础主要是概率论。因此,此文就聊聊ChatGPT与概率相关的一个方面,更具体来说,是与几百年前的一个人名有关:贝叶斯。

1, 概率和贝叶斯 

针对概率论,有法国牛顿之称的拉普拉斯(1749-1827年)曾说:

“这门源自赌博机运之科学,必将成为人类知识中最重要的一部分,生活中大多数问题,都将只是概率的问题。”

两百多年之后的当今文明社会,证实了拉普拉斯的预言。这个世界充满了不确定性,处处是概率,万物皆随机。无需抽象定义,概率论的基本直观概念早已渗透到人们的工作和生活当中,小到人人都可以买到的彩票,大到星辰宇宙,复杂到计算机和人工智能,都与概率密切相关。

那么,贝叶斯又是谁呢?

托马斯·贝叶斯(Thomas Bayes1701年-1761年),是18世纪的一位英国数学家、统计学家,他曾经是个牧师。不过他“生前籍籍无名,死后众人崇拜”,在当代科技界“红”了起来,原因归结于以他命名的著名的贝叶斯定理。这个定理不仅在历史上促成了贝叶斯学派的发展,现在又被广泛应用于与人工智能密切相关的机器学习中2】。

贝叶斯做了些什么?当年,他研究一个“白球黑球”的概率问题。概率问题可以正向计算,也能反推回去。例如,盒子里有10个球,黑白两种颜色。如果我们知道10个球中55黑,那么,如果我问你,从中随机取出一个球,这个球是黑球的概率是多大?问题不难回答,当然是50%!如果10个球是64黑呢?取出一个球为黑的概率应该是40%。再考虑复杂一点的情形:如果10个球中28黑,现在随机取2个球,得到11白的概率是多少呢?10个球取出2个的可能性总数为10*9=90种,11白的情况有16种,所求概率为16/90,约等于17.5%。因此,只需进行一些简单的排列组合运算,我们可以在10个球的各种分布情形下,计算取出n个球,其中m个是黑球的概率。这些都是正向计算概率的例子。

不过,当年的贝叶斯更感兴趣的是反过来的“逆概率问题”:假设我们预先并不知道盒子里黑球白球数目的比例,只知道总共是10个球,那么,比如说,我随机地拿出3个球,发现是21白。逆概率问题则是要从这个试验样本(21白),猜测盒子里白球黑球的比例。

也可以从最简单的抛硬币试验来说明“逆概率”问题。假设我们不知道硬币是不是两面公平的,也就是说,不了解这枚硬币的物理偏向性,这时候,得到正面的概率p不一定等于50%。那么,逆概率问题便是企图从某个(或数个)试验样本来猜测p的数值。

为了解决逆概率问题,贝叶斯在他的论文中提供了一种方法,即贝叶斯定理:

P(A|B) = P(B|A) * P(A)/ P(B)                                                       (1)

这儿,AB是两个随机事件,P(A)A发生的概率;P(B)B发生的概率。P(A|B)P(B|A),称为条件概率:P(A|B)是在B发生的情况(条件)下A发生的概率;P(B|A)是在A发生的情况下B发生的概率。


2 ,应用贝叶斯定理的例子

可以从两个角度来解读贝叶斯定理:一是“表述了两个随机变量AB的相互影响”;二是“如何修正先验概率而得到后验概率”,以下分别举例予以说明。

首先,初略地说,贝叶斯定理(1)涉及了两个随机变量AB,表示两个条件概率P(A|B) P(B|A)之间的关系。

1:某小城一月份治安不太好,30天内发生入室抢劫案6起。警察局有一个警报器,有事发生时便会拉响,包括火灾、暴风雨等天灾,及偷盗、强奸一类的人祸。一月份时,警报器每天都响。并且,从过去的经验,如果有居民遭入室抢劫时,警报器响的概率是0.85。现在人们又听到了警报声,那么,这次响声代表入室抢劫的概率是多少呢?

分析一下这个问题。A: 入室抢劫;B: 拉警报。然后,我们已知(一月份):

入室抢劫的概率P(A) = 6/30 = 0.2;拉警报的概率P(B)  = 30/30 = 1 P(B|A) = 入室抢劫时拉警报的概率 = 0.85

所以,根据公式(1),代入已知的3个概率,计算得到 P(A|B) = 0.85*0.2/1= 0.17

也就是说,这次“警报响的原因是有人入室抢劫”的概率是百分之十七。   

下面举例说明如何用贝叶斯定理,从“先验概率”计算“后验概率”。首先将(1)改写为如下样子:

        2

用一句话来概括(2),它说的是:利用B发生带来的新信息,可以修改当B未发生时A的“先验概率”P(A),从而得到B发生(或存在)时,A的“后验概率”,即P(A|B)

首先用美国心理学家,2002年诺贝尔经济奖得主丹尼尔·卡尼曼举的一个例子简单说明。

2:某城市有两种颜色(蓝绿)的出租车:蓝车和绿车的比率是15:85。某日某辆出租车夜间肇事后逃逸,但当时正好有一位目击证人,这位目击者认定肇事的出租车是蓝色的。但是,他“目击的可信度”如何呢?公安人员经过在相同环境下对该目击者进行“蓝绿”测试而得到:80%的情况下识别正确,20%的情况不正确,问题是计算肇事之车是蓝色的几率。

假设A=车为蓝色、B=目击蓝色。首先我们考虑蓝绿出租车的基本比例(15: 85)。也就是说,在没有目击证人的情况下,肇事之车是蓝色的几率为15%,这是“A=蓝车肇事”的先验概率P(A)= 15%。现在,有了一位目击者,便改变了事件A出现的概率。目击者看到车是“蓝”色的。不过,他的目击能力也要打折扣,只有80%的准确率,即也是一个随机事件(记为B)。我们的问题是要求出在有该目击证人“看到蓝车”的条件下肇事车“真正是蓝色”的概率,即条件概率P(A|B)。后者应该大于先验概率15%,因为目击者看到“蓝车”。如何修正先验概率?需要计算P(B|A)P(B)

因为P(B|A)是在“车为蓝色”的条件下“目击蓝色”的概率,即P(B|A) 80%。概率P(B)的计算麻烦一点。P(B)指的是目击证人看到一辆车为蓝色的概率,应该等于两种情况的概率相加:一种是车为蓝色,辨认也正确;另一种是车为绿,错看成蓝。所以:

P(B) = 15%×80% + 85%×20% = 29%

从贝叶斯公式:

可以算出在有目击证人情况下肇事车辆是蓝色的几率=41%。由结果可见,被修正后的“肇事车辆为蓝色”的条件概率41%,大于先验概率15%很多。

3:公式(2)中,“先验”和“后验” 的定义是一种“约定俗成”,是相对而言的,前一次算出的后验概率,可作为后一次的先验概率,再与新的观察数据相结合,得到新的后验概率。因此,运用贝叶斯公式,可以对某种未知的不确定性逐次修正概率模型并得到最终的客观结果。

或者变个说法,有时也可以说,观察者根据贝叶斯公式和不断增加的数据,可能修正自己对某个事件的主观“信任度”。

以抛硬币为例,一般认为硬币是“公平”的。但是,造假的情况太多,结果需要要靠数据说话。

比如说,设命题A为:“这是一个公平硬币”,观测者对此命题的信任度用P(A)表示。如果P(A)=1,表示观测者坚信这个硬币是“正反”公平的;P(A)越小,观测者对硬币公平的信任度越低;如果P(A)=0,说明观测者坚信这个硬币不公平,比如说,是一个造假的、两面都标志为“正面” 的“正正”硬币。如果用B表示命题“这是一个正正硬币”的话,P(B) = 1- P(A)

下面我们看看如何根据贝叶斯公式来更新观察者的“信任度”模型P(A)

首先,他假设一个“先验信任度”,比如P(A)=0.90.9接近1,说明他比较偏向于相信这个硬币是公平的。然后,抛硬币1次,得到“正Head”,他根据贝叶斯公式,将P(A)更新为P(A|H)

更新后的后验概率P(A|H) = 0.82,然后,再抛一次,又得到正面(H),两次正面后新的更新值是P(A|HH) = 0.69,三次正面后的更新值是P(A|HHH) = 0.53。如此抛下去,如果4次接连都得到正面,新的更新值是P(A|HHHH) = 0.36。这时候,这位观察者对这枚硬币是公平硬币的信任度降低了很多,从信任度降到0.5开始,他就已经怀疑这个硬币的公平性,接连4个正面后,他更偏向于认为该硬币很可能是一枚两面都是正面的假币!

从上面几个例子,我们初步了解了贝叶斯定理及其简单应用。


3,贝叶斯定理的意义

贝叶斯定理是贝叶斯对概率论和统计学作出的最大贡献,但在当年,贝叶斯的“逆向概率”研究和导出的贝叶斯定理看起来平淡无奇,未引人注意,贝叶斯也名不见经传。如今看来完全不应该是这样,贝叶斯公式的重要意义,是如例3所示的那种探知未知概率的方法。人们首先有一个先验猜测,然后结合观测数据,修正先验,得到更为合理的后验概率。这就是说,当你不能准确知悉某个事物本质时,你可以依靠经验去对未知世界的状态步步逼近,从而判断其本质属性。实际上,它的思想之深刻远出一般人所能认知,也许贝叶斯自己生前对此也认识不足。因为如此重要的成果,他生前却并未发表,是他死后的1763年,才由朋友发表的。后来,拉普拉斯证明了贝叶斯定理的更普遍的版本,并将之用于天体力学和医学统计中。如今,贝叶斯定理更是当今人工智能中常用的机器学习之基础框架3】。

贝叶斯定理与当时的经典统计学相悖,甚至显得有些“不科学”。因此它多年来一直被雪藏,不受科学家待见。从上一节例3可见,贝叶斯定理的应用方法是建立在主观判断的基础上,先主观猜测一个值,然后根据经验事实不断地修正,最后得到客观世界的本质。实际上,这正是科学的方法,也是人类从儿童开始,认知世界(学习)的方法。所以可以说,近年来人工智能研究的兴旺发达,关键之一是来自于经典计算技术和概率统计的“联姻”。而其中的贝叶斯公式概括了人们学习过程的原则,如果配合上大数据的训练,便有可能更确切地模拟人脑,教会机器“学习”,便能加速AI的进展。从目前情况看,也正是如此。

4,   机器如何学习?

教机器学习,学些什么呢?实际上就是要学会如何处理数据,这也是大人教孩子学会的东西:从感官得到的大量数据中挖掘出有用的信息来。如果用数学的语言来叙述,就是从数据中建模,抽象出模型的参数4】。

 

机器学习的任务,包括了“回归”、“分类”、等主要功能。回归是统计中常用的方法,目的是求解模型的参数,以便“回归”事物的本来面目。分类也是机器学习中的重要内容。将事物“分门别类”,也是人类从婴儿开始,对世界认知的第一步。妈妈教给孩子:这是狗,那是猫。这种学习方法属于“分类”,是在妈妈的指导下进行的“监督”学习。学习也可以是“无监督”的,比如说,孩子们看到了“天上飞的鸟、飞机”等,也看到了“水中游的鱼、潜艇”等,很自然地自己就能将这些事物分成“飞物”和“游物”两大类。

 

贝叶斯公式也可以用来将数据进行分类,下举一例说明。

 

假设我们测试了1000个水果的数据,包括如下三种特征:形状(长?)、味道(甜?)、颜色(黄?),这些水果有三种:苹果、香蕉、或梨子,如图2所示。现在,使用一个贝叶斯分类器,它将如何判定一个新给的水果的类别?比如说,这个水果三种特征全具备:长、甜、黄。那么,贝叶斯分类器应该可以根据已知的训练数据给出这个新数据水果是每种水果的概率。

 

首先看看,从1000个水果的数据中,我们能得到些什么?

1. 这些水果中,50%是香蕉,30%是苹果,20%是梨子。

    也就是说,P(香蕉) = 0.5P(苹果) = 0.3P(梨子) = 0.2

2. 500个香蕉中,400个(80%)是长的,350个(70%)是甜的,450个(90%)是黄的。

    也就是说,P(|香蕉) = 0.8P(|香蕉) = 0.7P(|香蕉) = 0.9

3. 300个苹果中, 0个(0%)是长的,150个(50%)是甜的,300个(100%)是黄的。

    也就是说,P(|苹果) = 0P(|苹果) = 0.5P(|苹果) = 1

4. 200个梨子中,100个(50%)是长的,150个(75%)是甜的,50个(25%)是黄的。

    也就是说,P(|梨子) = 0.5P(|梨子) = 0.75P(|梨子) = 0.25

 

以上的叙述中,P(A|B)表示“条件B成立时A发生的概率”,比如说,P(|梨子)表示梨子甜的概率,P(梨子|)表示甜水果中,梨子出现的概率。

 

2:贝叶斯分类器

所谓“朴素贝叶斯分类器”,其中“朴素”一词的意思是说,数据中表达的信息是互相独立的,在该例子的具体情况下,就是说,水果的“长、甜、黄”这三项特征互相独立,因为它们分别描述水果的形状、味道和颜色,互不相关。“贝叶斯”一词便表明此类分类器利用贝叶斯公式来计算后验概率,即:P(A|新数据) = P(新数据|A) P(A)/ P(新数据)

这儿的“新数据” = “长甜黄”。下面分别计算在“长甜黄”条件下,这个水果是香蕉、苹果、梨子的概率。对香蕉而言:

P(香蕉|长甜黄) = P(长甜黄|香蕉) P(香蕉)/ P(长甜黄)

等式右边第一项:

P(长甜黄|香蕉) = P(|香蕉) * P(|香蕉) * P(|香蕉) = 0.8*0.7*0.9 = 0.504

以上计算中,将P(长甜黄|香蕉)写成3个概率的乘积,便是因为特征互相独立的原因。最后求得:P(香蕉|长甜黄) = 0.504*0.5/ P(长甜黄) = 0.252/ P(长甜黄)

类似的方法用于计算苹果的概率:

P(长甜黄|苹果) = P(|苹果)*P(|苹果) * P(|苹果) = 0*0.5*1 = 0

P(苹果|长甜黄) = 0

对梨子:

P(长甜黄|梨子) = P(|梨子)*P(|梨子) * P(|梨子) = 0.5*0.75*0.25 = 0.09375

P(梨子|长甜黄) = 0.01873/ P(长甜黄)

分母:P(长甜黄) = 

P(长甜黄|香蕉) P(香蕉) + P(长甜黄|苹果) P(苹果) + P(长甜黄|梨子) P(梨子)= 0.27073

 最后可得:P(香蕉|长甜黄) = 93%

                      P(苹果|长甜黄) = 0

                      P(梨子|长甜黄) = 7%

因此,当你给我一个又长、又甜、又黄的水果,此例中曾经被1000个水果训练过的贝叶斯分类器得出的结论是:这个新水果不可能是苹果(概率0%),有很小的概率(7%)是梨子,最大的可能性(93%)是香蕉。

再看看,孩子们是如何学会识别狗和猫的?是因为妈妈带他见识了各种狗和猫,多次的经验使他认识了狗和猫的多项特征,他便形成了自己的判断方法,将它们分成“猫”、“狗”两大类。科学家们也用类似的方法教机器学习。比如说,也许可以从耳朵来区别猫狗:“狗的耳朵长,猫的耳朵短”,还有“猫耳朵朝上,狗耳朵朝下”。根据这两个某些“猫狗”的特征,将得到的数据画在一个平面图中,如图3b所示。这时候,有可能可以用图3b中的一条直线AB,很容易地将猫狗通过这两个特征分别开来。当然,这只是一个简单解释“特征”的例子,并不一定真能区分猫和狗。

 

3:机器分类

 

总而言之,机器可以根据某个“特征”,将区域作一个线性划分。那么,这条线应该画在哪儿呢?这就是“训练”过程需要解决的问题。在机器模型中,有一些被称为“权重”的参数w1w2w3,……,“训练”的过程就是调整这些参数,使得这条直线AB画在正确的位置,指向正确的方向。上述“猫狗”的例子中,输出可能是0,或者1,分别代表猫和狗。换言之,所谓“训练”,就是妈妈在教孩子认识猫和狗,对AI模型而言,就是输入大量“猫狗”的照片,这些照片都标记了正确的结果,AI模型调节权重参数使输出符合已知答案。

 

经过训练后的AI模型,便可以用来识别没有标记答案的猫狗照片了。例如,对以上所述的例子:如果数据落在直线AB左边,输出“狗”,右边则输出“猫”。

 

3b表达的是很简单的情形,大多数情况下并不能用一条直线将两种类型截然分开,比如图4a、图4b、图4c中所示的越来越复杂的情形,我们就不多谈了。

 

4:更多的特征需要更多的参数来识别

 5,判别式和生成式

在机器学习中的监督学习模型,可以分为两种:判别式模型和生成式模型。从前面的叙述我们明白了机器如何“分类”。从这两种学习方式的名字,可以简单地理解为:判别式模型更多是考虑分类的问题,而生成式模型是要产生一个符合要求的样本。

5:判别式和生成式的区别

 

还用识别“猫狗”的例子,用妈妈教孩子来打比。妈妈给孩子看了很多很多猫和狗样本之后,指着一只猫问孩子,这是啥?孩子回忆后作出判断“是猫”,这就是判别式。孩子答对了很高兴,自己拿起笔,在纸上画出一个脑海中猫的形象,这就是生成式了。机器的工作也类似,如图5所示,判别式中,机器寻找判别需要的分界线,以区分不同类型的数据实例;生成式模型则可以区分狗和猫,最后画出一只“新的”动物照片:狗或猫。

用概率的语言:设变量Y代表类别,X代表可观察特征。判别模型是让机器学习条件概率分布P(Y|X),即在给定的特征X下类别为Y的概率;生成模型中机器对每一个“类别”都建立联合概率P(X,Y)的模型,因而可以生成看起来像某种类型的“新”样本。

例如,类别Y是“猫、狗”(0,1),特征X是耳朵的“上、下”(1,2),假设我们只有如图所示4张照片:

(x,y)= {(1,1),(1,0),(2,0),(2,0)}         

6:判别式和生成式建模的区别

判别式由条件概率P(Y|X)建模,得到分界线(左下图中的红色虚线);生成式由联合概率P(X,Y)为每种类别建模,没有分界线,但划分了每个类型在数据空间的位置区间(右下图中的红色圆圈)。两种方法根据不同的模型给出的概率来工作。判别式更简单,只在乎分界线;而生成式模型要对每个类别都进行建模,然后再通过贝叶斯公式计算样本属于各类别的后验概率。生成式信息丰富灵活性强,但学习和计算过程复杂,计算量大,如果只做分类,就浪费了计算量。

几年前,判别式模型更受人喜爱,因为它用更直接的方式去解决问题,早就得到了不少的应用,比如垃圾邮件和正常邮件的分类问题等。2016年的alphago 也是判别式应用作决策的典型例子。

6, ChatGPT的特点

如果你跟ChatGPT聊过天,一定会惊奇于它的涉猎极广:创作诗歌、生成代码、绘画作图、撰写论文,似乎样样在行,无所不能。是什么赋予了它如此强大的功力呢?

ChatGPT的名字,我们知道它是一个“生成型预训练变换模型”(GPT)。这里包括了三个意思:“生成型“、”预训练“、”变换模型”。第一个词,点明它用的正是上面所介绍的生成型建模方法。预训练,说的是它经过了多次训练。变换模型是从“transformer 的英文翻译过来的。变换器transformer 2017年由谷歌大脑的一个团队推出,可应用于翻译、文本摘要等任务,现被认为是处理自然语言等顺序输入数据问题NLP的首选模型。

如果你问ChatGPT自己,“它是什么?”之类的问题,一般来说,它都会告诉你,它是一个大型的AI语言模型,这模型指的就是transformer

这一类的语言模型,通俗的意思就是一个会“文字接龙”的机器:输入一段文字,变换器输出一个“词”,对输入文字进行一个 “合理的延续”。(注:这儿我说输出是一个“词”,实际上是一个“token”,对不同的语言可能有不同的含义,中文可以是“字”,英文可能是“词根”。)

其实,语言本来就是“接龙”。我们不妨思考一下孩子学习语言和写作的过程。他们也是在听大人说了好多遍各种句子之后学会怎么说一句话的。学写作也类似,有人说:“熟读唐诗三百首,不会作诗也会吟”,学生看了大量别人的文章后,开始学写作时,总会有所模仿,实质上就是无意识地学会了“文字接龙”。

 

7:语言模型

 

所以实际上,语言模型所做的事情听起来似乎极为简单,基本上只是在反复地询问 “输入文本的下一个词应该是什么?”,如图7所示,模型选择输出了一个词之后,把这个词加到原来的文本中,又作为输入进入语言模型,又问同样的问题“下一个词是什么?”。然后,再输出、加进文本、输入、选择……如此反复循环,直到生成一个“合理的”文本为止。

 

机器模型生成文本的“合理”或不合理,最重要的因素固然是所用“生成型模型”的优劣,再就是“预训练”的功夫。 在语言模型内部,对应一个输入文本,它会产生一个可能出现在后面的词的排序列表,以及与每个词对应的概率。例如,输入是“春风”,下一个可能的“字”很多很多,暂且只列举5个吧,可以是“吹0.11、暖0.13、又0.05、到0.1、舞0.08”等等,每个字后面的数字表示它出现的概率。换言之,模型给出了一个带有概率的(很长的)单词列表。那么,应该选择哪一个呢?

 

如果每次都选择概率最高的那一个,应该是不太“合理”的。再来想想学生学习写作的过程吧,虽然也是在“接龙”,但是不同的人、不同的时候,有不同的接法。这样才能写出各种不同风格、又有创意的文章来。所以,也应该给机器随机选择不同概率的机会,才能避免单调平淡,产生出多姿多彩趣味盎然的作品。尽管不建议每次选择概率最高的,但最好选择概率偏高的,做出一个 “合理的模型”。

 

ChatGPT是大型语言模型,这个“大”首先表现在模型神经网络权重参数的数量上。它的参数数目是决定其性能的关键因素。这些参数是在训练前需要预先设置的,它们可以控制生成语言的语法、语义和风格,以及语言理解的行为。它还可以控制训练过程的行为,以及生成语言的质量。

 

OpenAI  GPT-3 模型具有 1750 亿参数量,ChatGPT算是 GPT-3.5,参数数量应该多于1750 亿。这些参数指的是在训练模型前需要预先设置的参数。在实际应用中,通常还需要通过实验来确定适当的参数数量,以获得最优的性能。

 

这些参数在成千上万的训练过程中被修正,得出一个好的神经网络模型。据说GPT-3训练一次的费用是460万美元,总训练成本达1200万美元。

 

如上所述,ChatGPT的专长是生成“与人类作品类似”的文本。但一个能够生成符合语法的语言的东西,未必能够进行数学计算、逻辑推理等等另一些类型的工作,因为这些领域的表达方式完全不同于自然语言文本,这也就是为什么它在数理方面的测试中屡屡失败的原因。

 

此外,人们也经常发现ChatGPT “一本正经地胡说八道”的笑话。其原因不难理解,主要还是训练的偏向问题。某些它完全没有听过的东西,当然无法给出正确的回答。还有多义词带来的问题,也给机器模型困惑。例如,据说有人问ChatGPT “勾三股四弦五是什么”的时候,它一本正经地回答说:“这是中国古代叫做‘琴’的一种乐器的调弦方法,然后还编造了一大堆话,令人捧腹不已。

 

总之,ChatGPT一上场就基本取得成功,旗开得胜,这也是概率论的胜利,贝叶斯的胜利。


参考资料:

【1】      张天蓉趣谈概率-从掷骰子到阿尔法狗[M].北京:清华大学出版社,pp.71-752017

【2】      Sean R Eddy,“What is Bayesian statistics?”,[J], Nature Biotechnology 22, 1177 - 1178 (2004) .

【3】      Jake VanderPlas,“Frequentism and Bayesianism: A Python-driven Primer”,[L], arXiv:1411.5018 [astro-ph.IM]2014. https://arxiv.org/abs/1411.5018

【4】      Russell, Stuart; Norvig, Peter (2003) [1995]. Artificial Intelligence: A Modern Approach (2nd ed.).[M], Prentice Hall. p.90

 …………………………………………………………………………

本人YouTube视频,极简量子课:

https://www.youtube.com/watch?v=_d0wquZkOYU&list=PL6YHSDB0mjBJ6qgfin-xKmP3FtTQr4x7i




浏览(7501) (9) 评论(3)
发表评论
文章评论
作者:天蓉 回复 frank_ly 留言时间:2023-06-10 05:17:07

目前的AI发展很快,但仍然在可控范围以内。

回复 | 0
作者:cosomo123 留言时间:2023-04-13 14:58:41

人类思维是否也与贝叶斯定理有关?

回复 | 0
作者:frank_ly 留言时间:2023-04-08 05:54:27

科普好文。不知道您怎么看现在的机器学习,是不是已远超出了常规统计建模和数据拟合?


回复 | 0
我的名片
天蓉
注册日期: 2011-09-18
访问总量: 1,183,060 次
点击查看我的个人资料
Calendar
最新发布
· 费马大定理-椭圆曲线和“群”
· 费马大定理-模形式
· 费马大定理-椭圆曲线
· 费马大定理-数学公主
· 费马大定理-欧拉猜想
· 费马大定理-这个证明包你懂!
· 费马大定理-救了他的命
分类目录
【作品目录】
· 《走近混沌》目录
· 《走近量子》目录
· 《诗谜画谜》目录
· 《傻博士的初恋》目录
· 《美国房客》目录
· 《隐身惊魂记》目录
· 《白雪之恋》:目录
【科普-走近混沌】
· 《走近混沌》-25-27-全文完
· 《走近混沌》-24-孤立子的故事
· 《走近混沌》-23-混沌到有序
· 《走近混沌》-22-再回魔鬼聚合物
· 《走近混沌》-21-萬變之不變
· 《走近混沌》-20-混沌魔鬼不穩定
· 《走近混沌》-19-混沌魔鬼的誕生
· 《走近混沌》-18-生態繁衍和混沌
· 《走近混沌》-17-混沌遊戲
· 《走近混沌》-16-三體問題及趣聞
【科普-走近量子】
· 走近量子(19)量子隐形传输(二
· 走近量子(18)量子隐形传输(一
· 走近量子(17)量子计算机
· 走近量子(16)GHZ定理-繼續
· 走近量子(15)GHZ定理
· 走近量子(14)qubit和费曼
· 走近量子(13)从纠缠态到qubit
· 走近量子(12)GHZ登场
· 走近量子(11)埃斯派克特的实验
· 走近量子(10)最後的判决
【谜语集锦3】
· 留下一串謎(詩謎+畫謎)- 44
· 留下一串謎(詩謎+畫謎)- 43
· 留下一串谜(诗谜+画谜)- 42
· 留下一串谜(诗谜+画谜)- 41
· 留下一串谜(诗谜+画谜)- 40
· 留下一串谜(诗谜+画谜)- 39
· 留下一串谜(诗谜+画谜)- 38
· 留下一串谜(诗谜+画谜)- 37
· 留下一串谜(诗谜+画谜)- 36
· 留下一串谜(诗谜+画谜)- 35
【谜语集锦2】
· 留下一串谜(诗谜+画谜)- 30
· 留下一串谜(诗谜+画谜)- 29
· 留下一串谜(诗谜+画谜)- 28
· 留下一串谜(诗谜+画谜)- 27
· 留下一串谜(诗谜+画谜)- 26
· 留下一串谜(诗谜+画谜)- 25
· 留下一串谜(诗谜+画谜)- 24
· 留下一串谜(诗谜+画谜)- 23
· 留下一串谜(诗谜+画谜)- 22
· 留下一串谜(诗谜+画谜)- 21
【谜语集锦1】
· 留下一串谜(诗谜+画谜)- 20
· 留下一串谜(诗谜+画谜)- 19
· 留下一串谜(诗谜+画谜)- 18
· 留下一串谜(诗谜+画谜)- 17
· 留下一串谜(诗谜+画谜)- 16
· 留下一串谜(诗谜+画谜)- 15
· 留下一串谜(诗谜+画谜)- 14
· 留下一串谜(诗谜+画谜)- 13
· 留下一串谜(诗谜+画谜)- 12
· 留下一串谜(诗谜+画谜)- 11
【谜语集锦】
· 留下一串谜(诗谜+画谜)- 10
· 留下一串谜(诗谜+画谜)- 9
· 留下一串谜(诗谜+画谜)- 8
· 留下一串谜(诗谜+画谜)- 7
· 留下一串谜(诗谜+画谜)- 6
· 留下一串谜(诗谜+画谜)- 5
· 留下一串谜(诗谜+画谜)- 4
· 留下一串谜(诗谜+画谜)- 3
· 留下一串谜(诗谜+画谜)- 2
· 留下一串谜(诗谜+画谜)- 1
【傻博士的初恋46-50】
· 傻博士的初恋-50-尾声
· 傻博士的初恋-49-水落石出
· 傻博士的初恋-48-谋杀案?
· 傻博士的初恋-47-当个女侦探
· 傻博士的初恋-46-跟踪依娃
【傻博士的初恋:41-45】
· 傻博士的初恋-45-疑惑
· 傻博士的初恋-44-分手?
· 傻博士的初恋-43-闯荡哈林区
· 傻博士的初恋-42-平安夜(2)
· 傻博士的初恋-41-平安夜(1)
【傻博士的初恋36-40】
· 傻博士的初恋-40-回家
· 傻博士的初恋-39-感恩节(2)
· 傻博士的初恋-38-感恩节(1)
· 傻博士的初恋-37-古怪的量子
· 傻博士的初恋-36-罗德的忠告
【傻博士的初恋31-35】
· 傻博士的初恋-35-万圣节(2)
· 傻博士的初恋-34-万圣节(1)
· 傻博士的初恋-33-工作狂
· 傻博士的初恋-32-如此先进企业
· 傻博士的初恋-31-强词夺理
【“傻”博士的初恋:26-30】
· 傻博士的初恋-30-大金失踪
· 傻博士的初恋-29-恋爱的学问
· 傻博士的初恋-28-911(2)
· 傻博士的初恋-27-911(1)
· 傻博士的初恋-26-贾杨金
【“傻”博士的初恋:21-25】
· 傻博士的初恋-25-人脑和电脑
· 傻博士的初恋-24-硅谷看房子
· 傻博士的初恋-23-经济泡沫
· 傻博士的初恋-22-明娜来访
· 傻博士的初恋 -21- 亲密接触
【“傻”博士的初恋:11-15】
· 傻博士的初恋 -20- 搬家
· 傻博士的初恋 -19- 罗德的故事
· 傻博士的初恋 -18- 糊涂有理
· 傻博士的初恋 -17- 糊涂博士
· 傻博士的初恋 -16- 疯涨的股票
【“傻”博士的初恋:11-15】
· 傻博士的初恋 -15- “生日快乐!
· 傻博士的初恋 -14- 过生日
· 傻博士的初恋13- 父母来访
· 傻博士的初恋-12- “大袍子”博士
· 傻博士的初恋-11- 有惊无险
【“傻”博士的初恋:6-10】
· 傻博士的初恋-10- 太浩湖之旅
· 傻博士的初恋-9- 简单和复杂
· 傻博士的初恋-8- 笑阿姨
· 傻博士的初恋-7- 情人节
· 傻博士的初恋-6-大忙人
【“傻”博士的初恋:1-5】
· 傻博士的初恋-5-“萨沙”和“妮妮”
· 傻博士的初恋-4-合作伙伴?
· 傻博士的初恋-3-第一次约会
· 傻博士的初恋-2-棕榈大道
· 傻博士的初恋-1-初遇
· 傻博士的初恋:引子
【《美国房客》尾声】
· 《美国房客》- 35 经悠悠数月,
【《美国房客》生死游戏】
· 《美国房客》- 34 感生命有限,
· 《美国房客》- 33 知祸福相依,
· 《美国房客》- 32 忆德州旧识,
· 《美国房客》- 31 急自强有危,
· 《美国房客》- 30 烧藏宝真图,
· 《美国房客》- 29 欲引蛇出洞,
· 《美国房客》- 28 映院中人影,
· 《美国房客》- 27 破车祸真相,
· 《美国房客》- 26 听教授感慨,
· 《美国房客》- 25 记梦中影像,
【《美国房客》游子百态】
· 《美国房客》- 15 忆往事成烟,
· 《美国房客》- 14 解诗词秘密,
· 《美国房客》- 13 气弟弟不肖,
· 《美国房客》- 12 喜赴美寻梦,
· 《美国房客》- 11 厌名利薰心,
· 《美国房客》- 10 记车祸当日,
· 《美国房客》- 9 述加州之行,触
· 《美国房客》- 8 疑泰州宝藏,惑
· 《美国房客》- 7 用键盘交流,集
· 《美国房客》- 6 叙文革旧事,传
【《美国房客》楔子】
· 《美国房客》楔子-2 人物诗谜
· 《美国房客》楔子-1 一则新闻
【长篇悬疑小说《美国房客》】
【《隐身惊魂记》-独立节惊魂】
· 独立节惊魂-尾声
· 独立节惊魂-82-隐蛇现形白宫惊魂
· 独立节惊魂-81-遥控实现杀人游戏
· 独立节惊魂-80-毒蛇消失总监着急
· 独立节惊魂-79- 欢乐华府严阵以
· 独立节惊魂-78- 阳光谷城小虎遇
· 独立节惊魂-77-节日凌晨无人能眠
· 独立节惊魂-76-高人驾车出手相救
【《隐身惊魂记》-矽谷追逐】
· 矽谷追逐-75-隐身男孩被人跟踪
· 矽谷追逐-74-红木城中隐人现形
· 矽谷追逐-73-隐人出没捉狭添乱
· 矽谷追逐-72-戈尔自杀拉曼被捕
· 矽谷追逐-71-身陷囹圄处境危急
· 矽谷追逐-70-月黑风高事故不断
· 矽谷追逐-69-野狼活动毒蛇突现
· 矽谷追逐-68-天灾可怕人心奸诈
· 矽谷追逐-67-狡猾政客阴谋小人
· 矽谷追逐-66-精心策划设置圈套
【《隐身惊魂记》-阴谋政治】
· 阴谋政治-61-驶离华府何去何从
· 阴谋政治-60-警商勾结顾客遭殃
· 阴谋政治-59-欲破阴谋逃避逮捕
· 阴谋政治-58-隐侠计划云游湾区
· 阴谋政治-57-别墅取车拉曼落网
· 阴谋政治-56-流浪小子守株待兔
· 阴谋政治-55-上司策划逮捕迈克
· 阴谋政治-54-两月前的重大案件
· 阴谋政治-53-分析案情迷雾重重
· 阴谋政治-52-跟踪绅士疑点多多
【长篇科幻小说《隐身惊魂记》】
· 脑电波之谜-40-急中生智无辜遇难
· 脑电波之谜-39-藏身遁形纽约历险
· 脑电波之谜-38-情况复杂小虎不见
· 脑电波之谜-37-人性兽性互纠互缠
· 脑电波之谜-36-隐人胡闹大使剧院
· 脑电波之谜-35-历历在目十年之前
· 脑电波之谜-34-拉曼失踪线索中断
· 脑电波之谜-33-切身体会隐身之趣
· 《隐身惊魂记》目录
· 脑电波之谜-32 别墅忽见往日同学
【随笔】
【科普】
· 费马大定理-椭圆曲线和“群”
· 费马大定理-模形式
· 费马大定理-椭圆曲线
· 费马大定理-数学公主
· 费马大定理-欧拉猜想
· 费马大定理-这个证明包你懂!
· 费马大定理-救了他的命
· “费马数”-猜想
· 猫咪怎样启发了人工神经网络的诞
· 量子纠缠:“鬼魅般的超距作用”|
【诗词】
· 《露珠》
· 《小花》
· 《激流》
· 《团聚》
· 《三叠泉》
· 《咏荷》
【小说】
· 《白雪之恋》:2-《二十六年后…
· 《白雪之恋》:2-《二十六年后…
· 《白雪之恋》:2-《二十六年后…
· 《白雪之恋》:2-《二十六年后…
· 《白雪之恋》:1-56
· 《白雪之恋》:1-55
· 《白雪之恋》:1-54
· 《白雪之恋》:1-53
· 《白雪之恋》:1-52
· 《白雪之恋》:1-51
存档目录
2024-11-17 - 2024-11-20
2024-10-16 - 2024-10-28
2024-09-07 - 2024-09-07
2024-08-27 - 2024-08-30
2024-06-04 - 2024-06-26
2024-05-01 - 2024-05-29
2024-04-03 - 2024-04-23
2024-03-07 - 2024-03-28
2024-02-12 - 2024-02-20
2024-01-08 - 2024-01-23
2023-12-09 - 2023-12-19
2023-11-08 - 2023-11-27
2023-06-10 - 2023-06-10
2023-04-08 - 2023-04-08
2022-11-07 - 2022-11-07
2022-10-09 - 2022-10-11
2022-09-12 - 2022-09-12
2022-07-09 - 2022-07-09
2022-06-08 - 2022-06-08
2022-05-26 - 2022-05-26
2022-04-25 - 2022-04-25
2022-03-10 - 2022-03-30
2022-02-03 - 2022-02-28
2022-01-07 - 2022-01-17
2021-12-16 - 2021-12-29
2013-07-08 - 2013-07-08
2013-02-07 - 2013-02-07
2013-01-05 - 2013-01-26
2012-12-05 - 2012-12-26
2012-11-04 - 2012-11-25
2012-10-01 - 2012-10-31
2012-09-02 - 2012-09-27
2012-08-01 - 2012-08-30
2012-07-03 - 2012-07-31
2012-06-02 - 2012-06-30
2012-05-01 - 2012-05-31
2012-04-01 - 2012-04-30
2012-03-01 - 2012-03-31
2012-02-01 - 2012-02-29
2012-01-01 - 2012-01-30
2011-12-01 - 2011-12-31
2011-11-01 - 2011-11-30
2011-10-19 - 2011-10-31
 
关于本站 | 广告服务 | 联系我们 | 招聘信息 | 网站导航 | 隐私保护
Copyright (C) 1998-2024. Creaders.NET. All Rights Reserved.