- 1-回归问题概述
- 2-误差项定义
- 3-独立同分布的意义
- 4-似然函数的作用
- 5-参数求解
- 6-梯度下降通俗解释
- 7参数更新方法
- 8-优化参数设置
- 1-线性回归整体模块概述
- 2-初始化步骤
- 3-实现梯度下降优化模块
- 4-损失与预测模块
- 5-数据与标签定义
- 6-训练线性回归模型
- 7-得到线性回归方程
- 8-整体流程debug解读
- 9-多特征回归模型
- 10-非线性回归
- 1-Sklearn工具包简介
- 2-数据集切分
- 3-交叉验证的作用
- 4-交叉验证实验分析
- 5-混淆矩阵
- 6-评估指标对比分析
- 7-阈值对结果的影响
- 8-ROC曲线
- 1-实验目标分析
- 2-参数直接求解方法
- 3-预处理对结果的影响
- 4-梯度下降模块
- 5-学习率对结果的影响
- 6-随机梯度下降得到的效果
- 7-MiniBatch方法
- 8-不同策略效果对比
- 9-多项式回归
- 10-模型复杂度
- 11-样本数量对结果的影响
- 12-正则化的作用
- 13-岭回归与lasso
- 14-实验总结
- 1-逻辑回归算法原理
- 2-化简与求解
- 1-多分类逻辑回归整体思路
- 2-训练模块功能
- 3-完成预测模块
- 4-优化目标定义
- 5-迭代优化参数
- 6-梯度计算
- 7-得出最终结果
- 8-鸢尾花数据集多分类任务
- 9-训练多分类模型
- 10-准备测试数据
- 1-逻辑回归实验概述
- 2-概率结果随特征数值的变化
- 3-可视化展示
- 4-坐标棋盘制作
- 5-分类决策边界展示分析
- 6-多分类-softmax
- 1-KMEANS算法概述
- 2-KMEANS工作流程
- 3-KMEANS迭代可视化展示
- 4-DBSCAN聚类算法
- 5-DBSCAN工作流程
- 6-DBSCAN可视化展示
- 1-Kmeans算法模块概述
- 2-计算得到簇中心点
- 3-样本点归属划分
- 4-算法迭代更新
- 5-鸢尾花数据集聚类任务
- 6-聚类效果展示
- 1-Kmenas算法常用操作
- 2-聚类结果展示
- 3-建模流程解读
- 4-不稳定结果
- 5-评估指标-Inertia
- 6-如何找到合适的K值
- 7-轮廓系数的作用
- 8-Kmenas算法存在的问题
- 9-应用实例-图像分割
- 10-半监督学习
- 11-DBSCAN算法
- 1-决策树算法概述
- 2-熵的作用
- 3-信息增益原理
- 4-决策树构造实例
- 5-信息增益率与gini系数
- 6-预剪枝方法
- 7-后剪枝方法
- 8-回归问题解决
- 1-整体模块概述
- 2-递归生成树节点
- 3-整体框架逻辑
- 4-熵值计算
- 5-数据集切分
- 6-完成树模型构建
- 7-测试算法效果
- 1-树模型可视化展示
- 2-决策边界展示分析
- 3-树模型预剪枝参数作用
- 4-回归树模型
- 1-随机森林算法原理
- 2-随机森林优势与特征重要性指标
- 3-提升算法概述
- 4-stacking堆叠模型
- 1-构建实验数据集
- 2-硬投票与软投票效果对比
- 3-Bagging策略效果
- 4-集成效果展示分析
- 5-OOB袋外数据的作用
- 6-特征重要性热度图展示
- 7-Adaboost算法概述
- 8-Adaboost决策边界效果
- 9-GBDT提升算法流程
- 10-集成参数对比分析
- 11-模型提前停止策略
- 12-停止方案实施
- 13-堆叠模型
- 1-支持向量机要解决的问题
- 2-距离与数据定义
- 3-目标函数推导
- 4-拉格朗日乘子法求解
- 5-化简最终目标函数
- 6-求解决策方程
- 7-软间隔优化
- 8-核函数的作用
- 9-知识点总结
- 1-支持向量机所能带来的效果
- 2-决策边界可视化展示
- 3-软间隔的作用
- 4-非线性SVM
- 5-核函数的作用与效果
- 1-深度学习要解决的问题
- 2-深度学习应用领域
- 3-计算机视觉任务
- 4-视觉任务中遇到的问题
- 5-得分函数
- 6-损失函数的作用
- 7-前向传播整体流程
- 8-返向传播计算方法
- 9-神经网络整体架构
- 10-神经网络架构细节
- 11-神经元个数对结果的影响
- 12-正则化与激活函数
- 13-神经网络过拟合解决方法
- 1-神经网络整体框架概述
- 2-参数初始化操作
- 3-矩阵向量转换
- 4-向量反变换
- 5-完成前向传播模块
- 6-损失函数定义
- 7-准备反向传播迭代
- 8-差异项计算
- 9-逐层计算
- 10-完成全部迭代更新模块
- 11-手写字体识别数据集
- 12-算法代码错误修正
- 13-模型优化结果展示
- 14-测试效果可视化展示
- 1-贝叶斯要解决的问题
- 2-贝叶斯公式推导
- 3-拼写纠错实例
- 4-垃圾邮件过滤实例
- 1-朴素贝叶斯算法整体框架
- 2-邮件数据读取
- 3-预料表与特征向量构建
- 4-分类别统计词频
- 5-贝叶斯公式对数变换
- 6-完成预测模块
机器学习是一门涉及统计学、概率论和计算机科学等多个领域的交叉学科,旨在让计算机系统通过数据学习并改进自身性能。在机器学习中,算法扮演着至关重要的角色,它们决定了模型的性能和效果。下面介绍十大机器学习算法:
线性回归(Linear Regression):线性回归是最简单的机器学习算法之一,用于预测一个或多个连续变量的数值。它通过拟合一条直线或平面来描述特征与目标变量之间的关系。
逻辑回归(Logistic Regression):逻辑回归用于解决分类问题,将输入数据映射到一个0或1的输出。逻辑回归常用于二分类问题,但也可扩展到多分类问题。
决策树(Decision Tree):决策树是一种基于树状结构的分类器,通过一系列简单的决策规则来预测目标变量。决策树易于解释和理解,适用于非线性问题。
支持向量机(Support Vector Machine, SVM):支持向量机是一种强大的监督学习算法,用于解决分类和回归问题。它通过找到最大间隔超平面来划分数据。
朴素贝叶斯(Naive Bayes):朴素贝叶斯是基于贝叶斯定理和特征条件独立假设的分类算法。它适用于大规模数据集和高维特征空间。
K均值聚类(K-means Clustering):K均值聚类是一种无监督学习算法,用于将数据分为K个簇。它通过最小化每个簇内部的平方误差和,来确定数据点的簇归属。
随机森林(Random Forest):随机森林是一种集成学习算法,通过多个决策树的投票来进行分类或回归。随机森林能够降低过拟合风险,提高模型的泛化能力。
神经网络(Neural Network):神经网络是一种模拟人脑神经元连接方式的深度学习算法,用于解决复杂的非线性问题。深度神经网络在图像识别、语音识别等领域取得了显著成果。
支持向量回归(Support Vector Regression, SVR):支持向量回归是一种回归算法,用于处理连续性的变量。与SVM类似,SVR也通过找到最大间隔超平面来进行回归分析。
集成学习(Ensemble Learning):集成学习是一种结合多个基本模型来提升整体性能的方法。常见的集成学习方法包括Bagging、Boosting和Stacking等。
以上是机器学习中的十大经典算法,它们在不同领域和问题中都有各自的优势和适用性。在实际应用中,选择合适的算法和调优模型参数是提高机器学习效果的关键。随着机器学习领域的不断发展,还会涌现出更多新的算法和技术,为我们带来更多机遇和挑战。