作为自然科学的基石,基础数学一直在影响科技的发展,这在人工智能领域尤为突出。无论你是NLP工程师,还是计算机视觉工程师,又或是算法工程师,想要在这一领域有所建树,扎实的数学功底是必不可少的。
但有无数AI初学者对数学望而生畏,难道人工智能领域的数学就那么难以企及么?毕竟我们也不是专业研究数学的,数学对我们来说只是个工具啊。4月28日的《HelloWorld公开课》,让我们跟着伊利诺伊大学香槟分校机器学习方向硕士Jerry老师,看如何破局人工智能的数学知识
数学中的“三座大山”
所谓的人工智能就是利用计算机强大的算力,按照AI模型的规则,实现特定的逻辑推断任务,AI模型的建立和训练高度依存于相应的数学体系。下面我们就来揭开这个数学体系的神秘面纱。
微积分
我们先来看下百度百科中对导数的定义:当函数y=f(x)的 自变量x在一点x0上产生一个增量Δx时,函数输出值的增量Δy与自变量增量Δx的比值在Δx趋于0时的极限a如果存在,a即为在x0处的导数,记作f'(x0)或df(x0)/dx。

微积分
其中,y被称作y'的原函数,y' 被称作y的导函数(导数)。而微分则是当自变量x的变化趋于无穷小时(dx),因变量f(x)的变化情况(df(x)),记作df(x)=f' (x)dx。
这里有一个非常重要的概念,就是偏导数(多元函数),因变量相对于每一个自变量均有一个导数,称为偏导数记作y=f(x1, x2,…,xn ),在求解某一自变量的偏导数时,将其它自变量视作常数,即可求出对这个变量的偏导数。
线性代数
线性代数的核心是矩阵,所谓的矩阵(Matrix)是一个按照长方阵列排列的复数或实数集合,对线性方程组的抽象就是矩阵

线性代数
进而对矩阵做延伸,矩阵的加减法就是对应位置元素做运算,矩阵的标量乘法就是对每一个元素均乘以该常数。
矩阵加法:

矩阵加法
矩阵向量乘法:

矩阵向量
概率论与数理统计
联合概率
以经典的抛硬币为例,单次抛掷,正面朝上反面朝上概率都是1/2,那第一次第二次都出现正面朝上的概率如何计算?
这一事件由两个先后步骤组成:第一次抛掷和第二次抛掷事件的概率由两步骤各自的概率相乘得到:P(正正)=1/2×1/2=1/4
A事件(第一次抛掷正面朝上)发生的概率用P(A)表示,B事件(第二次抛掷正面朝上)发生的概率用P(B)表示,A和B同时发生的概率用P(AB)或P(A,B)表示,若A和B是相互独立的,则P(AB)=P(A)P(B)。
条件概率
在某个先决条件已发生的情况下,某一事件发生的概率,先决条件与讨论的事件是有关联的,A为先决条件(操作者是赌神还是普通人),B为讨论的事件(抛掷硬币正面朝上),则当A已确定的情况下,B发生的概率表示为:P(B|A)
以上是我们对一些基础的数学知识做了回顾,如果想要了解更多这方面的内容,可以点击零基础破局人工智能的数学知识观看公开课的视频回放呦!
机器学习的基石
前面我们讲了很多基础数学的知识,但是这些内容要怎么整合到我们的人工智能里面呢,以神经网络中的前向传播为例,我输入一个图片,你要告诉我这个图片是什么,要分类到哪里。
这里就用到了卷积神经网络的运算,整个运算的过程,就用到了线性代数(矩阵运算)和概率统计(softmax,最大似然估计)。同理很多AI模型的基本数据及参数结构其实也用到了矩阵的数学原理。所以,如果想要学好人工智能,我们上面说的数学知识是必不可少的。

机器学习
讲师介绍
Jerry老师,日本東北大学机器人专业学士,伊利诺伊大学香槟分校机器学习方向硕士,现为某大厂人工智能实验室研究员。
《Hello ,World公开课》是由开课吧推出的面向广大开发工程师的免费加餐课,集结业内名师大咖,聚焦热门技术和实战解决方案,以专业知识分享交流为桥梁,链接正在创造世界的一群科技主力们,向初心致敬,为技术发烧。无论你是初入职场的应届生,还是准备升职加薪的职场精英,相信这里都有你需要的养料。
以上就是开课吧广场小编整理的“吃透人工智能里的数学知识”一文,希望为对人工智能感兴趣的同学提供学习参考!更多《Hello ,World公开课》相关内容尽在开课吧广场动态信息频道!
评论留言