机器不太会学习

机器遗忘与人工智障


  • 首页

  • 分类

  • 归档

  • 标签

  • 搜索

浅谈 boost、Adaboost 和 提升树

发表于 2017-10-15 | 分类于 ML
简述从 boost 到 Adaboost 和提升树的一些关系和自己的见解。
阅读全文 »

给程序员们看的统计公式

发表于 2017-10-12 | 分类于 Mathematics
程序员用得到的一些统计公式的总结。
阅读全文 »

浅说范数规范化(附录)

发表于 2017-09-13 | 分类于 ML
【浅说范数规范化】系列的附录,包含一些数学相关证明和知识。
阅读全文 »

浅说范数规范化(二)—— 核范数

发表于 2017-09-09 | 分类于 ML
浅说机器学习问题中出现的范数规则化问题,本篇着重讲核范数。
阅读全文 »

浅说范数规范化(一)—— L0 范数、L1 范数、L2 范数

发表于 2017-09-07 | 分类于 ML
浅说机器学习问题中出现的范数规则化问题,本篇着重讲 L0 范数、L1 范数、L2 范数。
阅读全文 »

说一说核方法(二)——数学角度简介(掉粉文)

发表于 2017-08-13 | 分类于 ML
本文从数学角度介绍了再生核希尔伯特空间。
阅读全文 »

说一说核方法(一)——核方法与核函数简介

发表于 2017-08-13 | 分类于 ML
本文介绍了对核方法和核函数的一些理解。
阅读全文 »

由 Softmax 想到的(三)—— 从 Sigmoid 到 ReLU,一些常见的激活函数

发表于 2017-08-11 | 分类于 ML
由好友 史博士 关于 Softmax 的问题而想到的一些脑洞。本文讲解了神经网络中引进激活函数的意图,并举例了一些常见的激活函数。
阅读全文 »

由 Softmax 想到的(二)—— Logistic 回归的 Loss 函数为什么长成那个样子?

发表于 2017-08-10 | 分类于 ML
由好友 史博士 关于 Softmax 的问题而想到的一些脑洞。本文讲解了 Logistic 模型的 Loss 函数的来源。以及想到的一些凸优化的知识。
阅读全文 »

由 Softmax 想到的(一)——广义线性模型

发表于 2017-08-10 | 分类于 ML
由好友 史博士 关于 Softmax 的问题而想到的一些脑洞。本文讲解了 Logistic 模型和 Softmax 模型的来历。和广义线性模型的相关知识。
阅读全文 »
123
Sakigami 杨(Ai兔兔)

Sakigami 杨(Ai兔兔)

22 日志
4 分类
33 标签
Links
  • Dr. Shi
© 2017 - 2021 Sakigami 杨(Ai兔兔)
由 Hexo 强力驱动
主题 - NexT.Gemini