↑↑↑点击上方蓝字,回复资料,10个G的惊喜
选自 | machinelearningmastery 作者 | Jason Brownlee 编译 | 机器之心 参与 | 张倩、刘晓坤
本文介绍了 10 个常见机器学习案例,这些案例需要用线性代数才能得到最好的理解。
线性代数是数学的分支学科,涉及矢量、矩阵和线性变换。
它是机器学习的重要基础,从描述算法操作的符号到代码中算法的实现,都属于该学科的研究范围。虽然线性代数是机器学习领域不可或缺的一部分,但二者的紧密关系往往无法解释,或只能用抽象概念(如向量空间或特定矩阵运算)解释。
如何在处理数据时使用线性代数结构,如表格数据集和图像。
数据准备过程中用到的线性代数概念,例如 one-hot 编码和降维。
深度学习、自然语言处理和推荐系统等子领域中线性代数符号和方法的深入使用。
1. Dataset and Data Files 数据集和数据文件2. Images and Photographs 图像和照片3. One-Hot Encoding one-hot 编码4. Linear Regression 线性回归6. Principal Component Analysis 主成分分析7. Singular-Value Decomposition 奇异值分解8. Latent Semantic Analysis 潜在语义分析9. Recommender Systems 推荐系统这是表格式的一组数字,其中每行代表一组观察值,每列代表观测的一个特征。数据集:http://archive.ics.uci.edu/ml/datasets/Iris
5.1,3.5,1.4,0.2,Iris-setosa
4.9,3.0,1.4,0.2,Iris-setosa
4.7,3.2,1.3,0.2,Iris-setosa
4.6,3.1,1.5,0.2,Iris-setosa
5.0,3.6,1.4,0.2,Iris-setosa
这些数据实际上是一个矩阵:线性代数中的一个关键数据结构。接下来,将数据分解为输入数据和输出数据,来拟合一个监督机器学习模型(如测量值和花卉品种),得到矩阵(X)和矢量(y)。矢量是线性代数中的另一个关键数据结构。每行长度相同,即每行的数据个数相同,因此我们可以说数据是矢量化的。这些行数据可以一次性或成批地提供给模型,并且可以预先配置模型,以得到固定宽度的行数据。你使用的每个图像本身都是一个固定宽度和高度的表格结构,每个单元格有用于表示黑白图像的 1 个像素值或表示彩色图像的 3 个像素值。与图像相关的操作,如裁剪、缩放、剪切等,都是使用线性代数的符号和运算来描述的。可能是用于解决分类问题的类别标签,也可能是分类输入变量。对分类变量进行编码以使它们更易于使用并通过某些技术进行学习是很常见的。one-hot 编码是一种常见的分类变量编码。one-hot 编码可以理解为:创建一个表格,用列表示每个类别,用行表示数据集中每个例子。在列中为给定行的分类值添加一个检查或「1」值,并将「0」值添加到所有其他列。
red, green, blue
1, 0, 0
0, 1, 0
0, 0, 1
...
每一行都被编码为一个二进制矢量,一个被赋予「0」或「1」值的矢量。这是一个稀疏表征的例子,线性代数的一个完整子域。线性回归是一种用于描述变量之间关系的统计学传统方法。该方法通常在机器学习中用于预测较简单的回归问题的数值。描述和解决线性回归问题有很多种方法,即找到一组系数,用这些系数与每个输入变量相乘并将结果相加,得出最佳的输出变量预测。如果您使用过机器学习工具或机器学习库,解决线性回归问题的最常用方法是通过最小二乘优化,这一方法是使用线性回归的矩阵分解方法解决的(例如 LU 分解或奇异值分解)。即使是线性回归方程的常用总结方法也使用线性代数符号:
其中,y 是输出变量,A 是数据集,b 是模型系数。在应用机器学习时,我们往往寻求最简单可行的模型来发挥解决问题的最佳技能。较简单的模型通常更擅长从具体示例泛化到未见过的数据。在涉及系数的许多方法中,例如回归方法和人工神经网络,较简单的模型通常具有较小的系数值。一种常用于模型在数据拟合时尽量减小系数值的技术称为正则化,常见的实现包括正则化的 L2 和 L1 形式。这两种正则化形式实际上是系数矢量的大小或长度的度量,是直接脱胎于名为矢量范数的线性代数方法。通常,数据集有许多列,列数可能达到数十、数百、数千或更多。对具有许多特征的数据进行建模具有一定的挑战性。而且,从包含不相关特征的数据构建的模型通常不如用最相关的数据训练的模型。我们很难知道数据的哪些特征是相关的,而哪些特征又不相关。自动减少数据集列数的方法称为降维,其中也许最流行的方法是主成分分析法(简称 PCA)。该方法在机器学习中,为可视化和模型创建高维数据的投影。PCA 方法的核心是线性代数的矩阵分解方法,可能会用到特征分解,更广义的实现可以使用奇异值分解(SVD)。另一种流行的降维方法是奇异值分解方法,简称 SVD。如上所述,正如该方法名称所示,它是源自线性代数领域的矩阵分解方法。该方法在线性代数中有广泛的用途,可直接应用于特征选择、可视化、降噪等方面。在机器学习中我们会看到以下两个使用 SVD 的情况。在用于处理文本数据的机器学习子领域(称为自然语言处理),通常将文档表示为词出现的大矩阵。例如,矩阵的列可以是词汇表中的已知词,行可以是文本的句子、段落、页面或文档,矩阵中的单元格标记为单词出现的次数或频率。这是文本的稀疏矩阵表示。矩阵分解方法(如奇异值分解)可以应用于此稀疏矩阵,该分解方法可以提炼出矩阵表示中相关性最强的部分。以这种方式处理的文档比较容易用来比较、查询,并作为监督机器学习模型的基础。这种形式的数据准备称为潜在语义分析(简称 LSA),也称为潜在语义索引(LSI)。涉及产品推荐的预测建模问题被称为推荐系统,这是机器学习的一个子领域。例如,基于你在亚马逊上的购买记录和与你类似的客户的购买记录向你推荐书籍,或根据你或与你相似的用户在 Netflix 上的观看历史向你推荐电影或电视节目。推荐系统的开发主要涉及线性代数方法。一个简单的例子就是使用欧式距离或点积之类的距离度量来计算稀疏顾客行为向量之间的相似度。像奇异值分解这样的矩阵分解方法在推荐系统中被广泛使用,以提取项目和用户数据的有用部分,以备查询、检索及比较。人工神经网络是一种非线性机器学习算法,它受大脑中信息处理元素的启发,其有效性已经在一系列问题中得到验证,其中最重要的是预测建模。深度学习是近期出现的、使用最新方法和更快硬件的人工神经网络的复兴,这一方法使得在非常大的数据集上开发和训练更大更深的(更多层)网络成为可能。深度学习方法通常会在机器翻译、照片字幕、语音识别等一系列具有挑战性的领域取得最新成果。神经网络的执行涉及线性代数数据结构的相乘和相加。如果扩展到多个维度,深度学习方法可以处理向量、矩阵,甚至输入和系数的张量,此处的张量是一个两维以上的矩阵。线性代数是描述深度学习方法的核心,它通过矩阵表示法来实现深度学习方法,例如 Google 的 TensorFlow Python 库,其名称中包含「tensor」一词。
原文链接:https://machinelearningmastery.com/examples-of-linear-algebra-in-machine-learning/