【中文普通话】102小时使用TensorFlow 2掌握深度学习
最后更新日期:2023年2月
MP4 | 视频:h264,1280×720 | 音频:AAC,44.1 KHz
语言:英语 | 大小:45.88 GB | 时长:102小时36分钟
使用TensorFlow 2掌握深度学习,包括计算机视觉、自然语言处理、声音识别和部署
你将学到:
– 使用TensorFlow的张量和变量基础知识
– 使用TensorFlow 2构建神经网络的基础知识
– 应用于疟疾检测的卷积神经网络
– 使用功能API、模型子类化和自定义层构建更高级的TensorFlow模型
– 使用不同指标(如精确度、召回率、准确度和F1分数)评估分类模型
– 使用混淆矩阵和ROC曲线评估分类模型
– TensorFlow回调、学习率调度和模型检查点
– 使用Dropout、正则化和数据增强减轻过拟合和欠拟合
– 使用TensorFlow图像和Keras层进行数据增强
– 使用Cutmix和Mixup等高级增强策略
– 使用TensorFlow 2和PyTorch的Albumentations进行数据增强
– TensorFlow 2中的自定义损失和指标
– TensorFlow 2中的即时执行模式和图模式
– TensorFlow 2中的自定义训练循环
– 将Tensorboard与TensorFlow 2集成,用于数据记录、查看模型图、超参数调整和性能分析
– 使用Weights and Biases进行机器学习操作(MLOps)
– 使用Wandb进行实验跟踪
– 使用Wandb进行超参数调整
– 使用Wandb进行数据集版本控制
– 使用Wandb进行模型版本控制
– 人类情绪检测
– 现代卷积神经网络(Alexnet、Vggnet、Resnet、Mobilenet、EfficientNet)
– 迁移学习
– 可视化卷积神经网络中间层
– Grad-cam方法
– 模型集成和类别不平衡
– 视觉中的Transformer
– 模型部署
– 从TensorFlow转换为Onnx模型
– 量化感知训练
– 使用Fastapi构建API
– 将API部署到云端
– 从头开始进行目标检测(YOLO)
– 从头开始进行图像分割(UNET模型)
– 从头开始进行人数统计(Csrnet)
– 使用变分自编码器(VAE)生成数字
– 使用生成对抗神经网络(GAN)生成人脸
– 使用循环神经网络、注意力模型和Transformer从头开始进行情感分析
– 使用循环神经网络、注意力模型和Transformer从头开始进行神经机器翻译
– 使用Huggingface transformers中的Deberta进行意图分类
– 使用Huggingface transformers中的T5进行神经机器翻译
– 使用Huggingface transformers中的Longformer进行抽取式问答
– 使用Sentence transformers构建电子商务搜索引擎
– 使用Huggingface transformers中的GPT2生成歌词
– 使用Huggingface transformers中的T5进行语法错误纠正
– 使用Huggingface transformers中的BlenderBot创建Elon Musk机器人
要求:
– 基本数学知识
– 互联网连接,因为我们将使用Google Colab(免费版本)
– 基本的Python知识
描述:
深度学习是当今计算机科学中最受欢迎的领域之一。它在许多不同的领域中都有应用。随着2010年代初更高效的深度学习模型的发布,我们在计算机视觉、自然语言处理、图像生成和信号处理等领域的最新技术取得了巨大的进步。深度学习工程师的需求量飙升,这个领域的专家因其价值而获得高薪。然而,入门并不容易。有太多的信息可供参考,其中很多已经过时,而且很多时候并没有考虑到初学者的情况。在这门课程中,我们将以逐步和项目为基础的方法带领你进行一次惊人的学习之旅。你将使用TensorFlow 2(世界上最流行的深度学习库,由Google开发)和Huggingface。我们将从理解如何构建非常简单的模型(如用于汽车价格预测的线性回归模型、用于电影评论的文本分类器、用于疟疾预测的二元分类器)开始,然后逐步过渡到更高级的模型(如使用YOLO进行目标检测的模型、使用GPT2进行歌词生成的模型以及使用GAN进行图像生成的模型)。通过学习本课程并完成不同的项目,你将掌握开发现代深度学习解决方案所需的技能,这些解决方案在大型科技公司中得到广泛应用。
你将学到:
– TensorFlow的基础知识(张量、模型构建、训练和评估)
– 卷积神经网络和视觉Transformer等深度学习算法
– 分类模型的评估(精确度、召回率、准确度、F1分数、混淆矩阵、ROC曲线)
– 使用数据增强减轻过拟合的方法
– 高级TensorFlow概念,如自定义损失和指标、即时执行模式和图模式、自定义训练循环、Tensorboard
– 使用Weights and Biases进行机器学习操作(MLOps)(实验跟踪、超参数调整、数据集版本控制、模型版本控制)
– 疟疾检测的二元分类
– 人类情绪检测的多类分类
– 使用现代卷积神经网络(Vggnet、Resnet、Mobilenet、Efficientnet)和视觉Transformer(VITs)进行迁移学习
– 使用YOLO进行目标检测
– 使用UNET进行图像分割
– 使用Csrnet进行人数统计
– 模型部署(蒸馏、Onnx格式、量化、Fastapi、Heroku云)
– 使用变分自编码器(VAE)生成数字
– 使用生成对抗神经网络(GAN)生成人脸
– 自然语言处理的文本预处理
– 使用循环神经网络、注意力模型、Transformer和卷积神经网络等深度学习算法
– 使用RNN、Transformer和Huggingface Transformers(Deberta)进行情感分析
– 使用Word2vec和现代Transformer(GPT、Bert、ULmfit、Deberta、T5等)进行迁移学习
– 使用RNN、注意力模型、Transformer和Huggingface Transformers(T5)进行机器翻译
– 模型部署(Onnx格式、量化、Fastapi、Heroku云)
– 使用Huggingface transformers中的Deberta进行意图分类
– 使用Huggingface transformers中的Roberta进行命名实体关系
– 使用Huggingface transformers中的T5进行
第45讲 自定义损失和指标
第46讲 即时执行模式和图模式
第47讲 自定义训练循环
第10节:Tensorboard集成
第48讲 数据记录
第49讲 查看模型图
第50讲 超参数调优
第51讲 使用Tensorboard进行性能分析和其他可视化。
第11节:使用Weights and Biases进行MLOps
第52讲 实验跟踪
第53讲 使用wandb进行超参数调优
第54讲 使用Weights and Biases和TensorFlow 2进行数据集版本控制
第55讲 使用Weights and Biases和TensorFlow 2进行模型版本控制
第12节:人类情绪检测
第56讲 数据准备
第57讲 建模和训练
第58讲 数据增强
第59讲 TensorFlow记录
第13节:现代卷积神经网络
第60讲 Alexnet
第61讲 Vggnet
第62讲 Resnet
第63讲 编码Resnets
第64讲 Mobilenet
第65讲 Efficientnet
第14节:迁移学习
第66讲 利用预训练模型
第67讲 微调
第15节:理解黑盒
第68讲 可视化中间层
第69讲 Grad-cam方法
第16节:集成和类别不平衡
第70讲 集成
第71讲 类别不平衡
第17节:视觉中的Transformer
第72讲 理解VITs
第73讲 从头开始构建VITs
第74讲 使用Huggingface transformers微调
第75讲 使用wandb进行模型评估
第76讲 数据高效的Transformer
第77讲 Swin transformers
第18节:模型部署
第78讲 从Tensorflow转换为Onnx
第79讲 理解量化
第80讲 Onnx的实际量化
第81讲 量化感知训练
第82讲 转换为Tensorflow Lite
第83讲 什么是API
第84讲 使用Fastapi构建情绪检测API
第85讲 将情绪检测API部署到云端
第86讲 使用Locust进行负载测试情绪检测API
第19节:使用YOLO算法进行目标检测
第87讲 理解目标检测
第88讲 YOLO论文
第89讲 数据集准备
第90讲 YOLO Resnet
第91讲 数据增强
第92讲 测试
第93讲 数据生成器
第20节:图像分割
第94讲 图像分割-牛津IIIT宠物数据集
第95讲 UNET模型
第96讲 训练和优化
第97讲 数据增强和dropout
第98讲 类别加权
第21节:人数统计
第99讲 人数统计-上海科技数据集
第100讲 数据集准备
第101讲 CSRNET
第102讲 训练和优化
第103讲 数据增强
第22节:图像生成
第104讲 图像生成简介
第105讲 理解变分自编码器
第106讲 VAE训练和数字生成
第107讲 潜在空间可视化
第108讲 GAN的工作原理
第109讲 改进GAN的训练
第110讲 使用GAN生成人脸
第23节:情感分析的文本预处理
第111讲 理解情感分析
第112讲 文本标准化
第113讲 分词
第114讲 独热编码和词袋模型
第115讲 词频-逆文档频率(TF-IDF)
第116讲 嵌入
第24节:使用循环神经网络进行情感分析
第117讲 循环神经网络的工作原理
第118讲 数据准备
第119讲 构建和训练RNN
第120讲 高级RNN(LSTM和GRU)
第121讲 一维卷积神经网络
第25节:使用迁移学习进行情感分析
第122讲 理解Word2vec
第123讲 集成预训练的Word2vec嵌入
第124讲 测试
第125讲 可视化嵌入
第26节:使用循环神经网络进行神经机器翻译
第126讲 理解机器翻译
第127讲 数据准备
第128讲 构建、训练和测试模型
第129讲 理解BLEU分数
第130讲 从头开始编写BLEU分数
第27节:使用注意力机制进行神经机器翻译
第131讲 理解Bahdanau注意力机制
第132讲 构建、训练和测试Bahdanau注意力模型
第28节:使用Transformer进行神经机器翻译
第133讲 理解Transformer网络
第134讲 构建、训练和测试Transformer模型
第135讲 使用自定义注意力层构建Transformer
第136讲 可视化注意力分数
第29节:使用Transformer进行情感分析
第137讲 使用Transformer编码器进行情感分析
第138讲 使用LSH注意力进行情感分析
第30节:迁移学习和通用语言模型
第139讲 理解迁移学习
第140讲 Ulmfit
第141讲 Gpt
第142讲 Bert
第143讲 Albert
第144讲 Gpt2
第145讲 Roberta
第146讲 T5
第31节:使用Deberta进行情感分析的Huggingface transformers
第147讲 数据准备
第148讲 构建、训练和测试模型
第32节:使用Deberta进行意图分类的Huggingface transformers
第149讲 问题理解和数据准备
第150讲 构建、训练和测试模型
第33节:使用Roberta进行命名实体关系的Huggingface transformers
第151讲 问题理解和数据准备
第152讲 构建、训练和测试模型
第34节:使用Longformer进行抽取式问答的Huggingface transformers
第153讲 问题理解和数据准备
第154讲 构建、训练和测试模型
第35节:使用Sentence transformers进行电子商务搜索引擎
第155讲 问题理解和句子嵌入
第156讲 数据集准备
第157讲 构建、训练和测试模型
第36节:使用GPT2进行歌词生成的Huggingface transformers
第158讲 问题理解和数据准备
第159讲 构建、训练和测试模型
第37节:使用T5进行语法错误修正的Huggingface transformers
第160讲 问题理解和数据准备
第161讲 构建、训练和测试模型
第38节:使用BlenderBot进行Elon Musk机器人的Huggingface transformers
第162讲 问题理解和数据准备
第163讲 构建、训练和测试模型
第39节:[已弃用]介绍
第164讲 欢迎
第165讲 概述
第166讲 深度学习的应用
第167讲 关于本课程
第168讲 代码链接
第40节:Python编程基础
第169讲 Python安装
第170讲 变量和基本运算符
第171讲 条件语句
第172讲 循环
第173讲 方法
第174讲 对象和类
第175讲 运算符重载
第176讲 方法类型
第177讲 继承
第178讲 封装
第179讲 多态
第180讲 装饰器
第181讲 生成器
第182讲 Numpy包
第183讲 Matplotlib简介
第41节:[已弃用]机器学习入门
第184讲 任务-机器学习开发生命周期
第185讲 数据-机器学习开发生命周期
第186讲 模型-机器学习开发生命周期
第187讲 错误制裁-机器学习开发生命周期
第188讲 线性回归
第189讲 逻辑回归
第190讲 线性回归实践
第191讲 逻辑回归实践
第192讲 优化
第193讲 性能测量
第194讲 验证和测试
第195讲 Softmax回归-数据
第196讲 Softmax回归-建模
第197讲 Softmax回归-错误制裁
第198讲 Softmax回归-训练和优化
第199讲 Softmax回归-性能测量
第200讲 神经网络-建模
第201讲 神经网络-错误制裁
第202讲 神经网络-训练和优化
第203讲 神经网络-训练和优化实践
第204讲 神经网络-性能测量
第205讲 神经网络-验证和测试
第206讲 解决过拟合和欠拟合
第207讲 洗牌
第208讲 集成
第209讲 权重初始化
第210讲 数据不平衡
第211讲 学习率衰减
第212讲 归一化
第213讲 超参数调优
第214讲 课堂练习
第42节:[已弃用]TensorFlow 2入门
第215讲 TensorFlow安装
第216讲 TensorFlow简介
第217讲 TensorFlow基础知识
第218讲 使用TensorFlow训练神经网络
第43节:[已弃用]使用TensorFlow 2进行深度计算机视觉入门
第219讲 Tiny Imagenet数据集
第220讲 TinyImagenet准备
第221讲 卷积神经网络简介
第222讲 错误制裁
第223讲 训练、验证和性能测量
第224讲 减少过拟合
第225讲 VGGNet
第226讲 InceptionNet
第227讲 ResNet
第228讲 MobileNet
第229讲 EfficientNet
第230讲 迁移学习和微调
第231讲 数据增强
第232讲 回调函数
第233讲 使用TensorBoard进行监控
第234讲 ConvNet项目1
第235讲 ConvNet项目2
第44节:[已弃用]使用TensorFlow 2进行深度自然语言处理入门
第236讲 情感分析数据集
第237讲 Imdb数据集代码
第238讲 循环神经网络
第239讲 训练和优化、评估
第240讲 嵌入
第241讲 LSTM
第242讲 GRU
第243讲 一维卷积
第244讲 双向RNN
第245讲 Word2Vec
第246讲 RNN项目
第45节:[已弃用]乳腺癌检测
第247讲 乳腺癌数据集
第248讲 ResNet模型
第249讲 训练和性能测量
第250讲 纠正措施
第251讲 植物病害项目
第46节:[已弃用]使用YOLO进行目标检测
第252讲 目标检测
第253讲 Pascal VOC数据集
第254讲 建模-YOLO v1
第255讲 错误制裁
第256讲 训练和优化
第257讲 测试
第258讲 性能测量-平均精度(mAP)
第259讲 数据增强
第260讲 YOLO v3
第261讲 实例分割项目
第47节:[已弃用]使用UNET进行语义分割
第262讲 图像分割-Oxford IIIT宠物数据集
第263讲 UNET模型
第264讲 训练和优化
第265讲 数据增强和dropout
第266讲 类别加权和简化网络
第267讲 语义分割项目
第48节:[已弃用]人数统计
第268讲 人数统计-Shangai Tech数据集
第269讲 数据集准备
第270讲 CSRNET
第271讲 训练和优化
第272讲 数据增强
第273讲 对象计数项目
第49节:[已弃用]使用TensorFlow 2进行神经机器翻译
第274讲 Fre-Eng数据集和任务
第275讲 序列到序列模型
第276讲 训练序列到序列模型
第277讲 性能测量-BLEU分数
第278讲 测试序列到序列模型
第279讲 注意力机制-Bahdanau注意力
第280讲 Transformer理论
第281讲 使用TensorFlow 2构建Transformer
第282讲 文本规范化项目
第50节:[已弃用]使用TensorFlow 2进行问答
第283讲 理解问答
第284讲 SQUAD数据集
第285讲 SQUAD数据集准备
第286讲 上下文-答案网络
第287讲 训练和优化
第288讲 数据增强
第289讲 LSH注意力
第290讲 BERT模型
第291讲 BERT实践
第292讲 基于GPT的聊天机器人
第51节:[已弃用]自动语音识别
第293讲 什么是自动语音识别
第294讲 LJ-Speech数据集
第295讲 傅里叶变换
第296讲 短时傅里叶变换
第297讲 Conv-CTC模型
第298讲 语音Transformer
第299讲 音频分类项目
第52节:[已弃用]图像字幕生成
第300讲 Flickr 30k数据集
第301讲 CNN-Transformer模型
第302讲 训练和优化
第303讲 视觉Transformer
第304讲 OCR项目
第53节:[已弃用]图像生成建模
第305讲 生成建模简介
第306讲 图像生成
第307讲 GAN损失
第308讲 GAN训练和优化
第309讲 Wasserstein GAN
第310讲 图像到图像转换项目
第54节:[已弃用]使用Google Cloud Function部署模型
第311讲 介绍
第312讲 模型准备
第313讲 部署
近期评论