Skip to content

🔥机器学习/深度学习/Python/大模型/多模态/LLM/deeplearning/Python/Algorithm interview/NLP Tutorial

License

Notifications You must be signed in to change notification settings

zkywsg/Daily-DeepLearning

Repository files navigation

Daily-DeepLearning

欢迎来到 Daily-DearnLearning,涵盖计算机基础课程Python快速入门数据科学包的使用机器学习深度学习自然语言处理LLM等。

2017年:Attention is All you need

Background

在《Attention is all you need》之前,因为李飞飞教授推动的ImageNet数据集、GPU算力的提升,像CNN刚刚开始流行起来,如用Tensoflow或者Theano写一个手写数字识别。后来开始有人在NLP领域,用word2vec和LSTM的组合,在很多领域里做到SOTA的效果。后来就是2017年,由Google团队提出的这篇里程碑式的论文。

核心解析 | 论文链接 | 简单例子 | 自注意力机制 | 多头注意力 | 位置编码 | Harvard NLP PyTorch实现Transformer | Transformer复现

2018年 BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding

Background

Bert比较特殊的地方在于采用了双向上下文建模,通过掩码语言模型(Masked language Model),同时利用左右两侧上下文,解决传统模型中的单向性问题。还有很重要的一点,从Bert看来是,形成了“预训练+微调”的新范式,统一了多种NLP任务的框架,仅需在预训练模型基础上添加简单任务头即可适配下游任务。当时在11项NLP任务上刷新SOTA,开启了大规模预训练模型(Pre-trained Language Model, PLM)时代。

Bert解析 | 论文链接 | Bert复现

2018年 GPT1:Generative Pre-trained Transformer

Background

在NLP任务依赖定制化模型、传统单向语言模型(如LSTM)难以建模长距离上下文的背景下,GPT-1首次将Transformer解码器架构与无监督预训练结合,提出“生成式预训练+微调”范式。通过自回归预训练(预测下一个词)学习通用文本表示,仅需简单微调即可适配分类、推理等任务,在12项NLP任务中9项达到SOTA,验证了大模型规模化训练的潜力,为后续GPT系列奠定了基础。

2018年 ELMo:Embeddings from Language Models

Background

ELMo这个工作主要还是对词向量的改进,从静态的词向量转变成动态词向量,从而提升各项NLP任务上的性能。虽然和GPT、BERT在同一年的工作,但其实应该放在这两项工作前面的,从马后炮的角度来说,主要用的还是双向LSTM,相较于Transformer这样支持并行计算的架构,再配合上MLM来捕捉双向上下文。

ELMo解析 | 论文链接

More....


🖥️ 计算机基础课程

数据结构

基本概念和算法评价 | 线性表 | 栈和队列 | 树和二叉树 | | 查找 | 排序

操作系统

操作系统的基本概念 | 操作系统的发展和分类 | 操作系统的运行环境 | 进程和线程 | 处理机调度 | 进程同步 | 死锁 | 内容管理概念 | 虚拟内存管理 | 文件系统基础

计算机网络

计算机网络概述 | 计算机网络结构体系 | 通信基础 | 奈氏准则和香农定理 | 传输介质 | 物理层设备 | 数据链路层的功能


🐍 Python 快速入门

变量、字符串、数字和运算符 | 列表、元组 | 字典、集合 | 条件语句、循环 | 函数的定义与调用 | 迭代、生成器、迭代器 | 高阶函数、装饰器 | 面向对象编程 | 类的高级特性 | 错误处理与调试 | 文件操作 | 多线程与多进程 | 日期时间、集合、结构体 | 协程与异步编程 | 综合实践


📊 数据科学包的使用

NumPy

创建 ndarray | 数据类型和运算 | 索引和切片 | 矩阵操作

Pandas

加载数据 | 行列选择 | 索引操作 | 数据过滤 | 更新行列 | 数据排序 | 数据聚合 | 数据清洗 | 时间数据处理

Matplotlib

直线图 | 柱状图 | 饼状图 | 堆叠图 | 填充图 | 直方图 | 散点图 | 时序图 | 子图


🤖 机器学习理论与实战

理论

逻辑回归 | EM 算法 | 集成学习 | 随机森林与 GBDT | ID3/C4.5 算法 | K-means | K 最近邻 | 贝叶斯 | XGBoost/LightGBM | Gradient Boosting | Boosting Tree | 回归树 | XGBoost | GBDT 分类 | GBDT 回归 | LightGBM | CatBoost


🏊‍♀️ 深度学习理论与实战

理论

Word2Vec | BatchNorm | Dropout | CNN | RNN | LSTM | Attention | ELMo | Transformer | BERT | ALBERT | XLNet

实战


🀄 NLP 相关

Word2Vec | LSTM | ELMo | ALBERT | XLNet


📫 联系我们

如果你有任何问题或建议,欢迎通过以下方式联系我们: