阅读80 返回首页    go 阿里云 go 技术社区[云栖]


简单自学机器学习理论——引言 (Part I )

首发地址:https://yq.aliyun.com/articles/67165

本文由北邮@爱可可-爱生活 老师推荐,阿里云云栖社区组织翻译。

以下为译文

——part I 前言 (第II部分内容点;第III部分内容点

动机

大多数人在小的时候被魔术师以及魔术技巧所迷住,并想弄明白其中的奥秘。有些人会带着这份迷恋研究到更深处并学习魔术技巧,有些人会接受专业的训练,而其他人会继续平庸下去。我在年幼时也尝试过魔术技巧并沉迷于其中,然而后来学习的是另外一种魔术,称作计算机编程。

 超过一半的开发者是无师自通。我是在全职工作外学习这些计算机科学知识,当你已经工作后再尝试学习这些科目会是相当大的一个挑战

MOOC而且/不是学习编程的完全正确趋势。

机器学习

虽然在大二就开始自学机器学习,但当毕业后才意识到自己错过了许多基础知识。所以在同样情形下,我很高兴发现自己避免了这种情况的发生,但机器学习理论不像计算机科学世界那么容易驯服。MOOC

本文根据作者本身学习计算机科学的经验,给出了学习机器学习理论的这一系列文章,能够填补自主学习机器学习的理论与实践之间的差距,从而在征途上少一些艰辛。

这个系列是为了谁?

该系列意图是为了给机器学习理论方面提供简单的介绍,这将会对你是有利的,如果你是:

  

 

如果你是机器学习的初学者,这可能不是你的最佳起点。使用实际教程开始会更好。当你掌握了机器学习实践的窍门后,如果你觉得有必要,可以回到这里。

先决条件

理论需要数学知识,机器学习的理论也不例外。但是由于这仅仅是为了简单的介绍,不会钻研太深的数学分析,将更加注重理论的直觉与足够的数学知识以为了保持严谨。

大多数所需要的知识是:概率和随机变量,和微积分的基本知识。

注意事项

我仍然不是这个领域的专家,所以当你在这个系列中发现一些错误,请让我知道;

这仅仅是一个简单介绍,如果你想真正理解该领域,在阅读该系列的同时也要努力工作;

现在将机器学习问题快速公式化,以便建立起数学模型和框架

形式化学习问题

在这个系列中,将主要侧重有监督学习问题,数据集cfced9e187595ae164c5b0284f521f9b3fd4c4f4iyixiyi的值。比如说xi是具体医学测量结果的特征向量,yi是病人是否为糖尿病,我们希望从给定的医学测试结果中诊断是否患有糖尿病。

为了建立理论框架,重新梳理下已经知道的内容

1  xi,yi

   X(X)P(Y);

2  XX

3  Y

fced75f250fd7e7d71a02f0ee4b4af2b5525da8a

根据这三点,可以定义统计模型,下图形式化的描述了模型的处理过程

f36e76477d4e09a19c10070a4d11eaa97b81c87f

目标函数

P

V

0501b6e95eb4c5fe4efeec124ab953de66fbbe0f

E[V|W]W

667cf9e7571ea43fae5b6fbef462c8ebe97aef5e

ζ表示噪声变量ζ

4d987432661bd20edba83183b504163e016d124d

d49add576babf91b1931d8879dce79b2856810b7

X

 57967a621bb02b8d8f851f25a87bc917f8219e17

f=f(x)

547944aadf9c8dc420142b5e40066ba3b4b385e4 

f

 假设

f

f

1dadcd634e5a89de183dedb8ad8aa96591aa874f 

这是所有函数h

损失函数

损失函数是用来评估假设函数估计目标函数的效果如何,定义损失函数(代价函数)

 e751cd58c0865103933c9898234df88788bd8323

该函数是将从特征向量x

 a4574a2483179adc9af438c0961f3fe6c5621a21

h

 1474a633b1e8e4f19258539c633c55e2822c6d55

在这里不称作经验误差的原因是如果使用E

泛化误差

我们的目标是学习总体数据集的概率分布,这意味着假设应该对采样出的新数据也会有低的错误。这也说明这些表现好的假设在总体概率分布上有好的泛化,定义泛化误差:

ca329527952997d2e6d9dc9b1f654e2ef81fedad

学习问题是否可解?

e48c322e570bdfd99d482f4bf11b83b3959061a5 

之间的绝对差的最小上界大于c46fe657687292c24ec56787bfee66d8f95aec0a的概率,若该概率足够小,则学习问题可解。

参考文献:

   James, Gareth, et al. An introduction to statistical learning. Vol. 6. New York:springer, 2013.

   Friedman, Jerome, Trevor Hastie, and Robert Tibshirani. The elements of statistical learning. Vol. 1. Springer, Berlin: Springer series in statistics, 2001.

          Mohri, Mehryar, Afshin Rostamizadeh, and Ameet Talwalkar. Foundations of machine learning. MIT press, 2012.

          Abu-Mostafa, Y. S., Magdon-Ismail, M., & Lin, H. (2012). Learning from data: ashort course


 文章原标题《Machine Learning Theory - Part I》,作者:Mostafa Samir,译者:海棠 

 文章为简译,更为详细的内容,请查看原文

最后更新:2017-07-12 22:08:24

  上一篇:go  简单自学机器学习理论—— 泛化界限 (Part II )
  下一篇:go  自动预测保险理赔:用具体案例讲解机器学习之特征预处理