导论
科学技术被誉为第一生产力,新技术的不断涌现和发展为社会发展注入了巨大的活力。人工智能、大数据、云计算等技术的崛起,让我们的社会各个方面都发生了翻天覆地的变化。随着ChatGPT等大型语言模型的问世,人工智能领域再次成为了热门话题。本文的目的在于用通俗易懂的语言,向大家更详细地介绍人工智能。
人工智能基础知识
什么是人工智能
官方定义:
根据美国计算机协会(ACM)的定义:
"人工智能(Artificial Intelligence,简称AI)是一门研究,旨在设计和开发能够模拟、扩展和执行人类智能活动的理论和应用系统。"
通俗理解:
人工智能就是让机器像人类一样具有智能。这种智能使机器能够感知周围的环境,理解接收到的信息,学习和适应新知识,做出决策和解决问题。通过人工智能,计算机可以像人一样执行各种任务,例如理解语言、识别图像、推荐产品等,而不仅仅是执行预先编程好的指令。
人工智能的目标
人工智能的目标是使计算机系统表现出与人类相似的智能水平,甚至超越人类的智能能力。解放人类,提高生产力。
人工智能的重要分支
AI应用领域
人工智能发展史
人类与动物的显著区别在于人类具备制造和使用工具的能力。在漫长的历史长河中,我们持续不断地探索和发展先进的生产力。随着第一台计算机的发明,社会生产力得到巨大提升,人类开始畅想人工智能,基于不同时代知识、算力、数据、计算能力储备、衍生出具有相应的人工智能实现方案。虽离真正的人工智能还很遥远,从没停止过探索。从专家系统到机器学习,从机器学习发展到深度学习,再到如今的大语言模型,随着ChatGPT的出现,我们离真人工智能越来越近了。
诞生与初期探索(20世纪中叶前)
- 1943年: McCulloch 和 Pitts 提出人工神经元模型。
- 1950年代: Alan Turing 提出了图灵测试,标志着人工智能的起源。
- 1956年: 达特茅斯会议举行,正式宣告人工智能作为一门独立的学科。
早期发展(20世纪中叶至末期)专家系统时代
- 1960年代: John McCarthy 提出了“人工智能”这个术语,首次将其定义为一门学科。
- 1970年代: 人工智能的发展遇到了瓶颈,出现了所谓的“人工智能寒冬”。
- 1980年代: 专家系统等符号主义方法盛行,但在处理复杂问题上受限较大。
机器学习时代(20世纪末期至21世纪初)
- 1991年 - SVM的提出 :Vladimir Vapnik和Corinna Cortes提出支持向量机(SVM),成为一种有效的分类方法。
- 1995年 - AdaBoost算法 :Yoav Freund和Robert Schapire提出了AdaBoost算法,该算法被广泛应用于解决分类和回归问题。
- 1997年 - LSTM的提出 :Sepp Hochreiter和Jürgen Schmidhuber提出了长短期记忆网络(LSTM),一种能够解决长序列依赖问题的循环神经网络结构。
- 2000年 - Boosting的理论解释 :Yoav Freund和Robert Schapire提出了“Boosting”的理论解释,这对于后来的AdaBoost等算法的理解和应用有着重要影响。
- 2001年 - EM算法的应用 :Xiaojin Zhu和Andrew Goldberg等人在文本处理中应用了期望最大化(EM)算法,开启了EM算法在自然语言处理中的应用之路。
- 2001年 - 基于贝叶斯方法的机器学习 :David Heckerman等人提出了贝叶斯网络的概念,并将其应用于机器学习领域。
- 2002年 - 随机森林的提出 :Leo Breiman提出了随机森林(Random Forest)算法,通过集成多个决策树来改善分类和回归任务的性能。
- 2003年 - K-means++算法 :David Arthur和Sergei Vassilvitskii提出了K-means++算法,这是K-means聚类的一种改进方法,能够更好地初始化聚类中心,提高聚类效果。
- 2003年 - PageRank算法 :谷歌创始人Larry Page和Sergey Brin提出了PageRank算法,用于评估网页在搜索引擎结果中的重要性,成为谷歌搜索引擎的核心算法之一。
- 2004年 - LDA主题模型 :David Blei、Andrew Ng和Michael Jordan提出了Latent Dirichlet Allocation(LDA)主题模型,用于从文本数据中发现隐藏的主题结构,成为文本挖掘和信息检索领域的重要工具。
- 2005年 - 稀疏编码 :Olshausen和Field等人提出了稀疏编码(Sparse Coding)方法,用于发现数据的高效表示方式,成为了神经科学和机器学习领域的重要研究方向。
- 2006年 - t-SNE算法 :Laurens van der Maaten和Geoffrey Hinton提出了t-distributed stochastic neighbor embedding(t-SNE)算法,用于高维数据可视化,被广泛应用于聚类和降维任务
深度学习时代(21世纪初至今)
- 2006年:Hinton在《Science》杂志上发表了关于神经网络理念的重要文章,解决了BP神经网络算法中的梯度消失问题,并指出通过逐层初始化可以解决深度神经网络在训练上的难题。这一理论的提出重新点燃了对神经网络的研究热情,使得2006年被称为深度学习发展的元年
- 2011年:ReLu激活函数被提出,解决了Sigmoid函数的梯度消失问题,流行至今。
- 2012年:AlexNet网络改进,首次使用ReLu激活函数、Dropout技巧、最大池化等,在ImageNet图像分类大赛中取得突破。
- 2014年:VGGNet和GoogLeNet提出,VGGNet在图像定位比赛中获得第一名,GoogLeNet提出了inception模块。
- 2014年:GAN(生成对抗网络)问世。
- 2015年:谷歌发布TensorFlow开源深度学习框架
- 2015年:ResNet(残差网络)问世,解决了梯度消失和网络退化问题。
- 2016年:Facebook发布PyTorch开源深度学习框架
- 2016年:SqueezeNet和AlphaGo问世,SqueezeNet是轻量级卷积神经网络,AlphaGo击败围棋世界冠军李世石。
- 2017年:DenseNet和Transformer模型提出,Transformer在自然语言处理中取得巨大成功。
- 2018年:BERT发布,提升了多项NLP任务的性能。
- 2019年:开始进入大模型(Large Language Model,简称LLM)方案探索阶段
大模型发布时间轴
- 2022年11月12日:OpenAI发布文本对话产品ChatGPT,爆火科技圈
- 2023年2月:ChatGPT火爆出圈,开始进入大模型时代,这一年也被称为大语言模型元年
- 2023年2月:Google发布Bard对标ChatGPT,复旦大学发布“MOSS”
- 2023年3月:OpenAI开放ChatGPT API;Midjourney发布Midjourney V5; Meta开源LLaMA系列大模型;谷歌推出PaLM-E-562B;OpenAI发布GPT-4;百度发布文心一言;清华大学发布ChatGLM;斯坦福大学发布Alpaca;谷歌对话模型Bard开放测试;微软Bing接入OpenAI DALL-E模型;。
- 2023年4月:阿里发布“通义千问”大模型;昆仑万维发布“天工”。
- 2023年5月:科大讯飞发布“星火“大模型,360发布360智脑;谷歌发布PaLM二代模型;OpenAI推出ChatGPT手机APP;微软发布Windows Copilot。
- 2023年6月:百川智能发布Baichuan7B,北京智源发布全面开源的「悟道3.0」,百度「文心大模型」升级至3.5版本,
- 2023年7月:Meta发布支持商业应用的Llama 2模型系列,北大发布法律大模型ChatLaw,Wonder Studio发布
- 2023年8月:Meta AI推出OCR神器"Nougat",能将PDF文档轻松转换为MultiMarkdown。
- 2023年9月:微软将Copilot嵌入Windows11操作系统;金山办公的WPS AI全系产品接入; OpenAI推出文生图AI工具DALL・E 3;Mistral AI发布Mistral 7B模型;腾讯发布混元大模型。
- 2023年10月:百度推出文心4.0,科大讯飞发布星火认知大模型3.0,智谱AI发布ChatGLM3,百川智能发布Baichuan2-192K,月之暗面发布KimiChat。
- 2023年11月:PIKA Labs发布文生视频产品PIKA1.0, Runway发布二代文生视频Runway Gen-2, OpenAI发布了ChatGPT和GPT-4 Turbo的重大更新,昆仑万维开源了天工Skywork-13B系列大语言模型;阿里开源了通义千问Qwen-72B;中国电信发布星辰语义。Google发布Gemini
- 2024年1月:Neuralink开始人体临床研究,Morph Studio能生成1080P短视频
- 2024年2月:OpenAI发布了文本视频生成模型Sora,暂未公测,谷歌推出Gemini 1.5, Stability AI发布Stable Diffusion 3.0
什么是机器学习
官方定义:
"机器学习是一种人工智能的分支领域,研究如何让计算机系统通过数据和经验改进性能。它利用统计学和计算机科学的技术,使计算机系统能够自动学习并改善性能,而无需明确地编程。"
通俗定义:
"机器学习是一种让计算机从数据中学习的方法,类似于人类通过经验不断改进自己的技能。通过给计算机提供大量的数据和相应的算法,它可以逐渐提高自己的表现,并在特定任务上取得更好的结果,而无需人为地进行指令编写。"
什么是深度学习
官方定义:
"深度学习是一种机器学习方法,它通过模拟人类大脑的神经网络结构,以多层次的方式对数据进行学习和抽象,从而实现对复杂模式和特征的自动识别和提取。"
通俗定义:
"深度学习是一种模拟人脑神经网络工作方式的机器学习技术。它通过构建多层次的神经网络结构,让计算机能够自动学习数据中的模式和特征,从而实现对各种任务的准确处理,如图像识别、语音识别、自然语言处理等。深度学习的核心思想是通过不断的反馈和调整,使网络逐渐优化,达到更高的性能水平。"
什么是大语言模型
官方定义:
大语言模型(Large Language Model,LLM)是一种基于Transformer的模型,其目标是理解和生成自然语言文本。这些模型通常使用深度学习技术,特别是神经网络,来处理和生成文本数据。大语言模型具有大量的参数和训练数据,使其能够对自然语言进行更准确、更智能的处理和生成。
通俗解释:
大语言模型也是一个神经网络算法模型,是属于处理文本对话的语言模型,区别于之前训练的模型是大语言模型参数量比较大,通常都在几十亿甚至几千亿的参数。随着ChatGPT的爆火以及出色的表现,证实这种"大力出奇迹"的方式是可行且有效的。
人工智能(AI)、机器学习(ML)、深度学习(DL)、大语言模型(LLM)关系
- 大语言模型(LLM)是目前深度学习(DL)中比较火爆的一种技术实现方案
- 深度学习(DL)是机器学习(ML)中一种比较好的技术实现方案
- 机器学习(ML)是人工智能(AI)的一种比较好的技术实现方案
关系
人工智能专有名词缩写
人工智能行业有很多专有名词的缩写。以下是一些常见的:
- AI - Artificial Intelligence(人工智能)
- AGI - Artificial General Intelligence(通用人工智能)
- AIGC - Artificial Intelligence Generative Content(人工智能生成内容)
- ML - Machine Learning(机器学习)
- DL - Deep Learning(深度学习)
- NLP - Natural Language Processing(自然语言处理)
- CV - Computer Vision(计算机视觉)
- RL - Reinforcement Learning(强化学习)
- GAN - Generative Adversarial Network(生成对抗网络)
- RNN - Recurrent Neural Network(循环神经网络)
- CNN - Convolutional Neural Network(卷积神经网络)
- BERT - Bidirectional Encoder Representations from Transformers(双向编码器表示转换器)
- LSTM - Long Short-Term Memory(长短期记忆网络)
- SVM - Support Vector Machine(支持向量机)
- KNN - K-Nearest Neighbors(K近邻算法)
- PCA - Principal Component Analysis(主成分分析)
- DNN - Deep Neural Network(深度神经网络)
- LDA - Latent Dirichlet Allocation(潜在狄利克雷分配)
- GPT - Generative Pre-trained Transformer(生成式预训练变换器)
评论留言