1.5 使用类似于西洋跳棋问题的算法,实现一个更简单的 tic-tac-toe 游戏。把学习到的函数 表示为自选的棋局参数的线性组合。在训练这个程序时,让它和它的另一个拷贝反复比赛,后者使用一个手工建立的固定评估函数。绘制出你的程序的获胜率随训练次数的变化情况。
1.4 图 1-…
2.5 请看以下的正例和反例序列,它们描述的概念是“两个住在同一房间中的人”。每个训练样例描述了一个有序对,每个人由其性别、头发颜色(black、brown 或 blonde)、身高(tall、medium 或 short)以及国籍(US、French、German、Irish…
2.7 考虑一个概念学习问题,其中每个实例为一实数,而每个假设为实数中的某个区间。精确地定义为:假设空间 H 中的每个假设形式为 a < x < b,其中 a、b 为任意实常数,x 代表该实例。例如 4.5 < x < 6.1 这个假设将 4.5 和 6.…
2.9 有一学习问题,其中每个实例都由 n 个布尔值属性 的合取来描述。因此,一个典型的实例如下: 现考虑一个假设空间 中,每个假设是这些属性约束的析取,例如: 设计一算法,它经过一系列的样例训练后输出一个一致的假设(如果存在的话)。算法的时间要求为 n…
4.4 实现一个两输入线性单元的 delta 训练法则。训练它来拟合目标概念 。画出误差 E 相对训练迭代次数的函数曲线。画出 5,10,50,100,…… 次迭代后的决策面。 (a)为 选取不同的常量值,并使用衰减的学习速率——也就是第 i…
4.5 推导输出为 o…
4.7 考虑一个两层的前瞻 ANN,它具有两个输入 a 和 b,一个隐藏单元 c,和一个输出单元 d。这个网络有五个权值(wca,wcb,wc0,wdc,wd0),其中 wx0 表示单元 x 的阈值权。先把这些权的值初始化为(0.1,0.1,0.1,0.1,0.…
4.6 简略解释为什么公式(4.10)中的 delta 法则仅是公式(4.7)表示的真正梯度下降法则的近似? 真正的梯度下降法则: 近似梯度下降法则: 仔细对比,可以发现(4.10)只考虑了当前的误差,而(4.7)则考虑了对于所有训练样例整体的误差。也就是说,采用(4.1…
2.8 本章中指出如果给定一个无偏的假设空间(即实例的幂集),学习器将发现每一个未观察的实例将刚好与变型空间中半数的成员匹配,而不论已经过了怎样的训练样例。证明这一结论。确切地讲,证明对于任意实例空间 X,任意训练样例集 D 及任意不包含在 D…
第四章 人工神经网络
4.9 回忆图 4-7 描述的 8x3x8 网络。考虑训练一个 8x1x8 的网络来完成同样的任务,也就是仅有一个隐藏单元的网络。注意,图 4-7 中的 8 个训练样例可以被表示为单个隐藏单元的 8 个不同的值(例如 0.1,0.2,……,0.…
4.8 修改表 4-2 中的反向传播算法,使用双曲正切 tanh 函数取代 sigmoid 函数作为挤压函数。也就是说,假定单个单元的输出是 。给出输出层权值和隐藏层权值的权更新法则。提示:。 修改后的表 4-…
Example pages: Page 2 · TypeScript · Server Side Rendering · Deferred Static Generation
Edit src/pages/index.js
to update this page.
A great place to get started if you're new to web development. Designed to guide you through setting up your first Gatsby site.
A collection of websites ranging from very basic to complex/complete that illustrate how to accomplish specific tasks within your Gatsby sites.
Learn how to add functionality and customize your Gatsby site or app with thousands of plugins built by our amazing developer community.
Now you’re ready to show the world! Give your Gatsby site superpowers: Build and host on Gatsby Cloud. Get started for free!