IT大道IT大道

首页 > TAG信息列表 > 机器学习

  • 机器学习入门:Linear Regression与Normal Equation

    机器学习入门:Linear Regression与Normal Equation

    本文会讲到:
    (1)另一种线性回归方法:Normal Equation;
    (2)Gradient Descent与Normal Equation的优缺点;

    前面我们通过Gradient Descent的方法进行了线性回归,但是梯度下降有如下...

    2017-08-23 itdadao 技术 31 ℃ 0
  • 异常检测: 应用多元高斯分布进行异常检测

    异常检测: 应用多元高斯分布进行异常检测

    多元高斯(正态)分布

    多元高斯分布有两个参数u和Σ,u是一个n维向量,Σ协方差矩阵是一个n*n维矩阵。改变u与Σ的值可以得到不同的高斯分布。
    参数估计(参数拟合),估计u和Σ的公式...

    2017-08-23 itdadao 技术 31 ℃ 0
  • 用线性代数理解 Normal Equation

    用线性代数理解 Normal Equation

    在之前的博客中,我们通过矩阵求导的方式推导了 normal equation。这篇博客中,我们将通过线性代数的角度再次回顾 normal equation。Normal Equation 解决的问题Normal equatio...

    2017-08-23 itdadao 技术 36 ℃ 0
  • Kaggle入门之泰塔尼克之灾

    Kaggle入门之泰塔尼克之灾

    数据的探索和可视化 ====》 基础模型的构建 ====》 优化和调整
    1、数据的探索和可视化
     (1)包的导入 

    #导入包
    #Pandas
    import pandas as pd
    from pandas...

    2017-08-22 itdadao 技术 30 ℃ 0
  • 机器翻译引擎的基本原理 ——LSTM

    机器翻译引擎的基本原理 ——LSTM

    机器翻译引擎的基本原理 摘自:infoq

    谷歌机器翻译
    Zero-shot:零次
    Training:训练
    Google Neural Machine Translation:谷歌神经机器翻译
    我们每天都在使用不同的技术,但却不知...

    2017-08-22 itdadao 技术 26 ℃ 0
  • 梯度下降法和牛顿法比较(转)

    梯度下降法和牛顿法比较(转)

    机器学习中梯度下降法和牛顿法的比较

    在机器学习的优化问题中,梯度下降法和牛顿法是常用的两种凸函数求极值的方法,他们都是为了求得目标函数的近似解。在逻辑斯蒂回归模型的...

    2017-08-22 itdadao 技术 29 ℃ 0
  • 支持向量机的实现

    支持向量机的实现

    使用SVM优化包(liblinear,libsvm)来求θ
    我们要做得:
    1.选择适当的C值
    2.选择相应的核函数

    我们也可以不选择核函数(称为线性核函数)

    弊端:
    如果你有大量的特征变量 如果 n 很...

    2017-08-22 itdadao 技术 33 ℃ 0
  • 数据科学001Coursera课程Algorithmic Toolbox 第一周总结

    数据科学001Coursera课程Algorithmic Toolbox 第一周总结

    算法工具箱 Algorithmic Toolbox
    学习目标

    联系实现算法
    练习测试和压力测试程序
    估计慢算法和快算法的不同


    算法是计算机科学的核心

    我们编写的程序应当能够应对所有允...

    2017-08-22 itdadao 技术 23 ℃ 0
  • 【机器学习工程师】学习路径

    【机器学习工程师】学习路径

    机器学习路径将带你学会使用 Numpy,Scipy,Pandas,Scikit-learn,Matplotlib 等开源工具,完成从数据清理、数据分析、模型构建,到最终的预测评估及可视化呈现。
    路径既包含了机器学...

    2017-08-22 itdadao 技术 30 ℃ 0
  • 支持向量基

    支持向量基

    强大的算法 广泛的应用于 工业界和学术界 它被称为支持向量机(Support Vector Machine)
    与逻辑回归和神经网络相比 支持向量机 或者简称SVM 在学习复杂的非线性方程时 、...

    2017-08-22 itdadao 技术 36 ℃ 0
  • 构建垃圾邮件分类器

    构建垃圾邮件分类器

    优先考虑什么工作
    系统设计实例:
    给定一个数据集的电子邮件,我们可以构建一个向量的每一封电子邮件。在这个向量的每个条目代表一个字。该向量通常包含10000到50000个条目,这些...

    2017-08-21 itdadao 技术 29 ℃ 0
  • 关于决策树的介绍文章

    关于决策树的介绍文章

    博文

    《GBDT:梯度提升决策树》
    推荐指数:????
    推荐理由:依次讲了回归树、提升树、GBDT以及关于GBDT的优化技巧,作者引用了很多有用的文章,都可以读一读
    链接:http://www.jianshu....

    2017-08-21 itdadao 技术 35 ℃ 0
  • 如何开发一个异常检测系统:如何评价一个异常检测算法

    如何开发一个异常检测系统:如何评价一个异常检测算法

    利用数值来评价一个异常检测算法的重要性

    使用实数评价法很重要,当你用某个算法来开发一个具体的机器学习应用时,你常常需要做出很多决定,如选择什么样的特征等等,如果你能找到...

    2017-08-20 itdadao 技术 19 ℃ 0
  • 对自然界的三种花进行分类

    对自然界的三种花进行分类

    import numpy as np
    from sklearn.datasets import load_iris
    from sklearn import tree
    # 对三种花分类

    # 导入数据部分
    iris = load_iris() # 加载数据

    print(iris.fe...

    2017-08-20 itdadao 技术 26 ℃ 0
  • win64+anaconda+xgboost(转)

    win64+anaconda+xgboost(转)

    Windows下安装python版的XGBoost(Anaconda)

    XGBoost是近年来很受追捧的机器学习算法,由华盛顿大学的陈天奇提出,在国内外的很多大赛中取得很不错的名次,要具体了解该模...

    2017-08-19 itdadao 技术 24 ℃ 0
  • 【机器学习实战 第九章】树回归 CART算法的原理与实现

    【机器学习实战 第九章】树回归 CART算法的原理与实现

    本文来自《机器学习实战》(Peter Harrington)第九章“树回归”部分,代码使用python3.5,并在jupyter notebook环境中测试通过,推荐clone仓库后run cell all就可以了。
    github地址:h...

    2017-08-19 itdadao 技术 49 ℃ 0
  • k最邻近算法——加权kNN

    k最邻近算法——加权kNN

    加权kNN
      上篇文章中提到为每个点的距离增加一个权重,使得距离近的点可以得到更大的权重,在此描述如何加权。
    反函数
      该方法最简单的形式是返回距离的倒数,比如距离d,权...

    2017-08-18 itdadao 技术 27 ℃ 0
  • 机器学习博客汇总

    机器学习博客汇总

    机器学习博客汇总


    版权声明:本文为博主原创文章,转载请指明转载地址
    http://www.cnblogs.com/fydeblog/p/7392481.html
    前言
    这篇博客主要汇总一下写过的机器学习博客和以后...

    2017-08-18 itdadao 技术 33 ℃ 0
  • 异常检测(Anomaly detection): 高斯分布(正态分布)

    异常检测(Anomaly detection): 高斯分布(正态分布)

    高斯分布

    高斯分布也称为正态分布,μ为平均值,它描述了正态分布概率曲线的中心点。σ为标准差,σ2为方差,σ描述了曲线的宽度。在中心点附近概率密度大,远离中心点概率密度小。...

    2017-08-18 itdadao 技术 34 ℃ 0
  • 为什么凸优化这么重要?知乎解答

    为什么凸优化这么重要?知乎解答

    https://www.zhihu.com/question/24641575?sort=created...

    2017-08-18 itdadao 技术 25 ℃ 0
  • xgboost一些总结和相关博客

    xgboost一些总结和相关博客

    陈天奇大神论文

    1、http://blog.csdn.net/sb19931201/article/details/52557382

    一.xgboost的优点
    1.正则化
    xgboost在代价函数里加入了正则项,用于控制模型的复杂度。正则...

    2017-08-18 itdadao 技术 40 ℃ 0
  • k-means算法概述

    k-means算法概述

    算法过程:

    随机选取K个种子点
    求所有点到种子点的距离,将点纳入距离最近的种子点群
    所有点均被纳入群内后,将种子点移动到种子群中心
    重复上述2、3过程,直至种子点没有移动

    优...

    2017-08-18 itdadao 技术 32 ℃ 0
  • 【图解机器学习】第一部分 绪论(1)

    【图解机器学习】第一部分 绪论(1)

    1.1 学习的种类
    监督学习,学习获得泛化能力,应用:预测数值(回归),预测标签(分类),预测顺序(排序)
    非监督学习,不局限于有明确答案,应用:故障诊断,视频分析,数据解析,数据可视化
    强化学习,对自...

    2017-08-17 itdadao 技术 22 ℃ 0
  • Advanced Optimization(高级优化)

    Advanced Optimization(高级优化)

    Note: [7:35 - '100' should be 100 instead. The value provided should be an integer and not a character string.]
    "Conjugate gradient", "BFGS", and "L-BFGS" are m...

    2017-08-17 itdadao 技术 29 ℃ 0
  • 局部加权回归LOWESS

    局部加权回归LOWESS

    1. LOWESS
    用kNN做平均回归:
    \[
    \hat{f(x)} = Ave(y_i | x_i \in N_k(x))
    \]
    其中,\(N_k(x)\)为距离点x最近k个点组成的邻域集合(neighborhood set)。这种邻域平均回归存在很多...

    2017-08-17 itdadao 技术 28 ℃ 0
 7640    1 2 3 4 5 6 7 8 9 10 下一页 尾页
标签列表