登录/注册

机器学习多分类

更多

好的,我们来详细解释一下机器学习中的多分类问题。

什么是多分类?

在机器学习中,多分类是指一个分类任务的目标是将输入样本划分到多个(通常大于两个)互斥的类别之一。简单来说,就是模型需要从多个可能的选项中选出唯一的一个作为预测结果。

核心特点

  1. 多个类别: 类别数目 K > 2。
  2. 互斥: 每个输入样本只能被分配到一个类别中。这些类别之间没有重叠。预测结果是“非此即彼”的关系(例如,一张图片只能是一只猫、一只狗或一辆汽车,不能同时是猫和狗)。
  3. 单一预测: 对于每个输入,模型输出的是属于哪个类别的预测(通常是概率最高的那个)。

与二分类和多标签分类的区别

举例

多分类任务在现实中极其常见:

  1. 手写数字识别: 输入是一张手写数字图片,模型需要将其识别为 0 到 9 中的某一个数字(共10类)。
  2. 图像分类: 输入是一张图片,模型将其分类为“猫”、“狗”、“鸟”、“汽车”等某一个物体(类别数可以成千上万,如 ImageNet 数据集有1000类)。
  3. 文本情感分析(多类): 输入是一段评论文本,模型预测其情感是“正面”、“负面”或“中性”中的某一个
  4. 疾病诊断: 基于患者的症状和检查数据,模型预测其可能患有的某种特定疾病(在多个候选疾病中选其一)。
  5. 产品分类: 电商网站中,将商品自动归类到“电子产品”、“服饰”、“家居”等某个一级或二级类目下。

解决多分类问题的常见算法和方法

大多数基础分类算法需要经过扩展或特定策略才能用于多分类:

  1. 原生支持多分类的算法:

    • 决策树 (Decision Trees): 天然支持多分类。
    • 随机森林 (Random Forests): 由多棵决策树组成,处理多分类问题效果通常很好。
    • 梯度提升树 (Gradient Boosting Machines - GBM, XGBoost, LightGBM, CatBoost): 集成学习方法,对多分类问题有强大表现。
    • 朴素贝叶斯 (Naive Bayes): 可通过模型本身的概率计算处理多分类。
    • K近邻 (K-Nearest Neighbors, KNN): 找出最邻近的K个样本,看其中多数属于哪个类别。
    • 神经网络 (Neural Networks): 通常是处理多分类(尤其是图像、文本等复杂数据)的首选。输出层使用Softmax激活函数,每个输出节点对应一个类别的概率(概率和为1),取最高概率的节点对应的类别作为预测结果。
  2. 基于二分类策略的扩展:

    • 一对剩余 (One-vs-Rest / One-vs-All, OvR/OvA):
      • 每一个类别单独训练一个二分类模型。
      • 模型A:识别“是否属于类别A”(A类为正例,所有其他类为反例)。
      • 模型B:识别“是否属于类别B”(B类为正例,所有其他类为反例)。
      • ... 以此类推。
      • 预测时,将样本输入所有K个二分类模型,选择输出分数(或概率)最高的那个模型所代表的类别作为最终预测。这是最常用的策略之一。
    • 一对一 (One-vs-One, OvO):
      • 每两两类别之间训练一个二分类模型。
      • 例如,有3个类别(A、B、C),需要训练3个模型:A vs B, A vs C, B vs C。
      • 预测时,样本被送入所有模型进行投票。每个模型给出一个预测(认为样本属于两个类别中的哪一个),最终得票最多的类别即为预测结果。
      • 适合类别非常多且单一模型训练快的情况,但需要训练的模型数量随K增长很快(约为 O(K²)),开销较大。

评估多分类模型的指标

常用的评估指标包括:

  1. 准确率 (Accuracy): 预测正确的样本数占总样本数的比例。最简单直接,但类别不平衡时可能不敏感。
  2. 混淆矩阵 (Confusion Matrix): 一个 K×K 的表格,行代表真实类别,列代表预测类别。主对角线上的值表示分类正确,其他位置表示分类错误。可以直观地看出模型在哪些类别之间容易混淆。
  3. 精确率 (Precision)、召回率 (Recall)、F1-score (F1):
    • 这些指标可以针对每个类别单独计算
    • 宏平均 (Macro-average): 先计算每个类别的 P/R/F1,然后求算术平均值。平等看待每个类别
    • 微平均 (Micro-average): 将所有类别的 TP, FP, FN 汇总起来,再计算整体的 P/R/F1。受样本数量多的类别影响更大
    • 使用哪个平均取决于具体需求。如果需要关心所有类别(尤其是小类别)的表现,用宏平均;如果关注整体样本的预测正确性,用微平均。
  4. 多分类 Log Loss / Cross-Entropy Loss: 衡量模型预测的概率分布与真实类别标签之间的差异。常用作训练中的损失函数,值越低越好。

小结

多分类问题是机器学习中最常见的任务类型之一,其核心是从多个互斥类别中选择唯一的正确类别。解决它可以使用原生支持多分类的算法(如决策树、随机森林、带Softmax的神经网络),或者通过OvR、OvO等策略将二分类算法扩展到多分类场景。选择合适的算法、策略以及评估指标,对于构建高性能的多分类模型至关重要。

祝你学习顺利!

机器学习多分类任务深度解析

一对其余其实更加好理解,每次将一个类别作为正类,其余类别作为负类。此时共有(N个分类器)。在测试的时候若仅有一个分类器预测为正类,则对应的类别标记为最终的分类

2024-03-18 10:58:12

机器学习算法汇总 机器学习算法分类 机器学习算法模型

机器学习算法汇总 机器学习算法

2023-08-17 16:11:48

深度学习网络的多分类器入侵检测方法

( gradient boosting decision tree,GBDT)的多分类器入侵检测方法(DBN-OGB)。该方法首先利用深度信念网络从高维、复杂的入侵检测数据中提取出低维、具有代表性的特征数据

资料下载 佚名 2021-06-09 11:19:57

基于自适应多分类器融合的手势识别方法

为了提高基于可穿戴设备手势识别的性能,针对单分类器在手势识别时会出现偏向性的问题,提出了基于自适应多分类器融合的手势识别方法(Self- adaptive Multi-classifiers

资料下载 佚名 2021-05-18 14:39:57

可判别肺结节良恶性的多分支CNN模型

肺结节CT图像表征复杂且多样,导致对肺结节进行分类较为困难。虽然越来越多的深度学习模型被应用到计算机辅助肺癌诊断系统的肺结芇分类任务中,但这些模

资料下载 佚名 2021-05-07 13:51:01

一种拥有较好可解释性的启发式多分类集成算法

安全性得到重视,传统融合策略可解释性差的冋题凸显。夲文基于心理学中的知识线记忆理论进行建模参考人类决策过程,提出了一种拥有较好可解释性的启发式多分类器集成算法,称为知识线集成算法。该算法模拟人类学习与推断的

资料下载 佚名 2021-03-24 11:41:33

基于情感字典和机器学习的股市舆情情感分类可视化Web

本文档的主要内容详细介绍的是基于情感字典和机器学习的股市舆情情感分类可视化Web的资料免费下载

资料下载 佚名 2021-03-01 09:28:23

机器学习算法的分类

根据有无标签,监督学习可分类为:传统的监督学习(Traditional Supervised Learning)、非监督

2023-04-18 16:26:13

机器学习分类分析与聚类分析

数据挖掘中应用较多的技术机器学习。机器学习主流算法包括三种:关联分析、

2023-03-27 14:13:30

如何用卷积神经网络方法去解决机器监督学习下面的分类问题?

人工智能下面有哪些机器学习分支?如何用卷积神经网络(CNN)方法去解决机器学习

2021-06-16 08:09:03

详谈机器学习及其三大分类

本节概述机器学习及其三个分类(监督学习、非监督

2020-08-14 12:24:47

各类机器学习分类算法的优点与缺点分析

机器学习中有许多分类算法。本文将介绍分类中使用的各种

2020-03-02 09:50:12

详解机器学习分类算法KNN

本文主要介绍一个被广泛使用的机器学习分类算法,K-nearest neighbors(KNN),中文叫K近邻算法。

2019-10-31 17:18:14

机器学习分类

各种机器学习的应用场景分别是什么?例如,k近邻,贝叶斯,决策树,svm,逻辑斯蒂回归和最大熵模型

2019-09-10 10:53:10
7天热门专题 换一换
相关标签