平台简介 | 学习者能在知予AI获得什么 | 知予AI学习手册 | 知予AI研究手册 | 联系我们(寻找/成为知予AI教学者)
大语言模型时代,越来越多的学生和从业者投身于人工智能(Artificial Intelligence, AI)的学习与研究,并将其应用到生活与工作中。然而,学习与研究过程中常常充满挑战,无论是难以理解算法概念、解决编程bug,还是在研究内容上感到迷茫。知予AI(Knove-AI)应运而生,致力于为学习者提供支持与帮助。
首先,知予AI是一份内容丰富、结构清晰的中英文手册,涵盖人工智能领域的基础知识、算法原理和代码实现,系统引导学习者从入门迈向前沿研究,包括研究方向的确定、实验设计与论文撰写,帮助学习者逐步成长为研究者。
此外,知予AI还是连接经验丰富的人工智能学者与新手学习者的桥梁。手册由来自清华大学、北京大学、中国人民大学、哥伦比亚大学等高校的博士研究生与研究员精心编写,这些学者深知学习与研究的艰难。因此,知予AI还提供一对一交流机会,帮助学习者高效解决问题(联系方式见末尾)。
目前,知予AI主要聚焦于自然语言处理(Natural Language Processing, NLP)领域,提供详尽示例与研究指导。与此同时,其模式也适用于其他人工智能领域,为更多行业的学习者与研究者提供启发与支持。
2016年,人工智能学习热潮兴起,许多大学生投身AI行业,立志从事研究或相关职业。到2023年,大语言模型技术飞速发展,学习资源层出不穷,如何高效选择适合的资料、系统入门人工智能、掌握自然语言处理并迈向科研,已成为学习者面临的共同难题。
为此,知予AI汇聚了来自清华大学、北京大学、中国人民大学、哥伦比亚大学等高校的博士研究生和研究员团队,梳理了人工智能领域的基础知识、算法原理和代码实现,并总结科研全过程,从研究方向的确定到实验设计与论文撰写,推出了“知予AI学习手册”和“知予AI研究手册”。手册内容严谨、结构系统,助力学习者从入门到深入,逐步掌握AI核心技能。此外,这些研究者还加入知予AI平台,成为教学者,通过一对一指导与答疑,为学习者提供针对性帮助,帮助其克服学习与科研中的难题。知予AI的核心体系示例图如下:
无论你是人工智能领域的小白、正在学习的大学生,还是致力于从事AI研究的研究生,抑或准备参与科研立项、科技竞赛、发表AI领域论文,甚至为考研、保研、申博或留学努力,知予AI都能为你提供强有力的支持,只要你对AI学习和研究充满热情。
网络学习资源五花八门,质量参差不齐,耗费时间筛选效率低。知予AI整合了AI多个方向的基础知识、算法原理、代码实现,并编撰成统一格式的学习手册,涵盖从入门到研究的完整路径。同时,我们精选了高价值的书籍、课程、网站、博客和论文,并对主流学习资源提供中肯评价,帮助学习者节省时间,快速找到适合的资源。
在AI学习和研究中,许多问题无法通过查阅资料解决,但经验丰富的前辈往往能带来关键帮助。知予AI不仅提供学习资源,还引入教学者角色——这些教学者是在顶级会议/期刊发表过多篇论文的学者与研究员。通过平台,学习者可与教学者一对一交流,获得针对性指导,解决学习和研究中的实际难题。
如果你——
- 想学习人工智能基础知识,并将算法应用于学习和工作
- 需要规划学习路径、研究方向,或希望一对一向专家请教问题
- 正在准备升学、留学、求职,却对AI领域了解不足
- 希望参与AI竞赛、项目或撰写论文,却缺乏专业指导
知予AI是你的理想选择。我们为学习者提供以下服务:
汇集多位博士生和领域专家整理的学习手册,覆盖数学基础、机器学习、深度学习、自然语言处理、计算机视觉等方向。手册内容广度与深度兼具,包括知识点、算法详解、代码实现、练手项目及参考资源。采用图文并茂的Markdown格式,简洁美观,学习体验出色。
帮助学习者完成从“学习知识”到“开展研究”的思维转变。知予AI推出研究手册系列,涵盖研究思维的培养、方向选择、跨学科探索、论文撰写与发表、科研实验方法等内容,缩小信息差,助力进入科研领域。
平台提供与富有经验的AI领域优秀博士生/研究人员一对一交流的机会,帮助解决学习与研究中的实际问题。通过对接客服(微信号见末尾“联系我们”)描述自己的学习需求,可直接匹配并联系教学者。我们承诺:不收取任何中介费用,放心交流。
.md 和 .html。
.md文件为源文件,可下载后使用第三方软件(如 Typora)进行编辑。.html文件为通过 Typora 导出的可视化版本,适合无需 Markdown 格式的读者。
请注意,文件需下载后打开查看(因 GitHub 无法直接渲染行内公式格式),或打开我们的Github Page进行查看。
每章节的参考资源可在 .md 和 .html 文件底部找到。除此之外,根目录还附有推荐学习资源、思维导图等材料,供进一步学习使用。
| 章节 | 子章节 | 内容 |
|---|---|---|
| 人工智能数学基础 | 线性代数 | 向量,向量空间,矩阵,相似矩阵,对角化,二次型,正定矩阵,特征值,特征向量,奇异值分解,LU分解 |
| 微积分 | 微分,积分,矩阵微积分 | |
| 数学优化 | 数学优化的类型,凸优化基础,优化算法,拉格朗日乘数法与KKT条件 | |
| 概率统计 | 概率统计的基本概念,随机变量,概率分布,参数估计 | |
| 信息论 | 熵,互信息,交叉熵和散度 | |
| 机器学习 | 机器学习概述 | 人工智能,统计学习,统计学习的分类,统计学习三要素,模型评估,模型选择,正则化,交叉验证,泛化能力,生成模型与判别模型,监督学习的评价指标,假设空间,归纳偏好 |
| 线性回归 | 线性回归模型,经验风险最小化,结构风险最小化,最大似然估计与均方误差,最大后验估计与正则化,基于numpy实现线性回归模型,使用scikit-learn中的线性回归算法对波士顿房价进行预测 | |
| k近邻算法 | k近邻算法原理,k近邻算法的参数,kd树,基于numpy的k近邻算法实现,使用scikit-learn中的k近邻算法对鸢尾花数据进行分类 | |
| 感知机 | 感知机算法,感知机算法的收敛性,参数平均感知机,基于numpy的感知机实现,使用scikit-learn中的感知机算法对自行构建的数据集进行二分类 | |
| 贝叶斯分类器 | 朴素贝叶斯的学习与分类,朴素贝叶斯的参数估计,高斯朴素贝叶斯,半朴素贝叶斯分类器,基于numpy的朴素贝叶斯实现,使用scikit-learn中的多项式朴素贝叶斯算法对新闻文本进行分类 | |
| 逻辑回归与最大熵模型 | 逻辑回归模型,softmax回归模型,最大熵模型,基于numpy的逻辑回归实现,使用scikit-learn中的逻辑回归算法完成自定义数据集上的分类任务 | |
| 支持向量机 | 线性支持向量机与硬间隔最大化,线性支持向量机与软间隔最大化,非线性支持向量机与核函数,线性可分支持向量机的算法实现,使用scikit-learn中的支持向量机算法对鸢尾花数据进行分类 | |
| 决策树与随机森林 | 决策树模型,特征选择,决策树的生成,决策树的剪枝,连续与缺失值,多变量决策树,使用scikit-learn中的决策树算法对鸢尾花数据进行分类 | |
| 集成学习 | 个体与集成,集成学习的误差分析,Boosting,基于numpy的AdaBoost算法实现,使用scikit-learn中的AdaBoost算法完成自定义数据集上的分类任务,Bagging与随机森林,结合策略,提升树模型,从零开始实现一个GBDT算法系统 | |
| EM算法 | EM算法的引入,EM算法过程,EM算法的Python实现 | |
| 聚类 | 聚类的基本概念,层次聚类,k均值聚类,聚类算法拓展,基于numpy的k均值聚类算法实现,对比scikit-learn中不同的聚类算法并将聚类结果可视化 | |
| 降维 | 主成分分析,基于numpy的主成分分析算法实现,使用scikit-learn中的主成分分析算法对Olivetti人脸数据集进行降维及特征脸的提取,流形学习,使用scikit-learn中的t-SNE算法完成恒星光谱数据的降维 | |
| 特征选择 | 子集搜索与评价,过滤式选择,包裹式选择,嵌入式选择与L1正则化,稀疏表示与字典学习,scikit-learn实现几种特征选择方法 | |
| 话题模型 | 单词向量空间与话题向量空间,潜在语义分析算法,概率潜在语义分析模型,潜在狄利克雷分配,使用gensim中的潜在狄利克雷分配对题目文本进行主题分析 | |
| 概率图模型 | 概率图模型概述,模型表示,概率图模型的学习,概率图模型的推断,基于隐马尔可夫模型的语音识别,基于隐马尔可夫模型的语音识别 | |
| 深度学习 | 深度学习概述 | 表示学习,深度学习,神经网络,神经网络的学习,深度学习框架 |
| 神经网络 | 神经网络的基本结构,激活函数,前馈神经网络,反向传播算法,通用近似定理,自动梯度计算,Tensorflow实现全连接神经网络进行MNIST手写数字识别,Pytorch实现全连接神经网络进行MNIST手写数字识别 | |
| 卷积神经网络 | 卷积,卷积神经网络,参数学习,几种常见的卷积神经网络,其他卷积方式,Tensorflow实现卷积神经网络进行Fashion MNIST衣物识别,Pytorch实现卷积神经网络进行Fashion MNIST衣物识别 | |
| 循环神经网络 | 序列数据和语言模型,网络结构,循环神经网络的应用,循环神经网络的训练,长程依赖问题,LSTM,GRU,深层循环神经网络,扩展到图结构,Tensorflow实现循环神经网络进行情感分析,Tensorflow实现循环神经网络进行文本生成 | |
| 神经网络的优化 | 网络优化的难点,优化算法,参数初始化,数据预处理,逐层归一化,超参数优化,网络正则化,Tensorflow实现神经网络并比较不同的优化器的优化效果 | |
| 自编码器 | 自编码器,稀疏自编码器,堆叠自编码器,降噪自编码器,Tensroflow实现自编码器完成光谱数据的降维与重构 | |
| 深度生成模型 | 概率生成模型,变分自编码器,Pytorch实现VAE进行MNIST手写数字生成,生成式对抗网络,Tensorflow实现GAN进行MNIST手写数字生成 | |
| 注意力机制与外部记忆 | 注意力,注意力机制的应用(指针网络,自注意力机制),外部记忆 | |
| 图神经网络 | 图神经网络概述,图神经网络中的矩阵,图卷积神经网络,Text Graph Convolutional Networks,图注意力网络,图嵌入 | |
| 自然语言处理 | 自然语言处理概述 | 自然语言与编程语言,自然语言处理的任务,自然语言处理的知识域,歧义,传统模型和算法,语言、思维和理解,正则表达式,词,文本规范化,深度学习与自然语言处理,jieba库的分词、词性标注与关键词提取操作示例, |
| 词向量 | 词向量概述,CBOW,skip-gram,word2vec的优化,GloVe,词向量的评估,句子与文档的嵌入,使用gensim中的word2vec工具训练词向量, | |
| 语言模型 | N元语法,评估语言模型,泛化与未知词汇,平滑,神经语言模型,Tensorflow实现神经语言模型 | |
| seq2seq与attention | 序列到序列模型,注意力机制,注意力机制在序列模型中的应用,序列生成模型的评价指标,Tensorflow实现Seq2Seq+Attention完成机器翻译任务 | |
| 预训练模型 | ELMo,Transformer,BERT,ERNIE,GPT | |
| 自然语言处理应用 | 文本分类(序列到类别),文本摘要(异步序列到序列),机器阅读理解(同步序列到序列) |
| 章节 | 内容 |
|---|---|
| 在AI领域,从学习思维到研究思维的转变 | 基础知识学习与科学研究的区别, |
| 快速上手最新研究内容,资源,和工具:以大语言模型为例 | 大语言模型概述,最新论文 |
| 研究方向的选择:以自然语言处理领域为例 | 研究方向的分类,研究方向的来源,如何自主选择研究方向 |
| 如何构思一个有意义的idea | idea的种类,看论文与想idea的关系 |
| 如何阅读一篇AI领域(以NLP为例)的论文 | 一篇AI领域(以NLP为例)论文的结构,如何撰写一篇论文 |
| 如何撰写一篇AI领域(以NLP为例)的论文 | 摘要,Introduction,Related Work,Methods,Experiments,Conclusion |
如需要与教学者进行一对一交流,请添加对接小姐姐微信号PhiNorm,或扫描以下二维码:



