【中文普通话】32.5小时深度学习:2023年使用TensorFlow进行图像分类
发布日期:2023年2月
MP4 | 视频:h264,1280×720 | 音频:AAC,44.1 KHz
语言:英语 | 大小:14.93 GB | 时长:32小时28分钟
使用TensorFlow的卷积神经网络和视觉Transformer等模型,掌握和部署图像分类解决方案
你将学到什么:
– 使用TensorFlow的张量和变量的基础知识
– 从头开始构建线性回归、逻辑回归和神经网络
– TensorFlow的基础知识和使用TensorFlow 2训练神经网络
– 应用于疟疾检测的卷积神经网络
– 使用功能API、模型子类化和自定义层构建更高级的TensorFlow模型
– 使用不同指标(如精确度、召回率、准确度和F1分数)评估分类模型
– 使用混淆矩阵和ROC曲线评估分类模型
– TensorFlow回调、学习率调度和模型检查点
– 使用Dropout、正则化和数据增强来减轻过拟合和欠拟合
– 使用TensorFlow图像和Keras层进行数据增强
– 使用Cutmix和Mixup等高级增强策略
– 使用TensorFlow 2和PyTorch的Albumentations进行数据增强
– TensorFlow 2中的自定义损失和指标
– TensorFlow 2中的即时执行模式和图模式
– TensorFlow 2中的自定义训练循环
– 将Tensorboard与TensorFlow 2集成,用于数据记录、查看模型图、超参数调整和性能分析
– 使用Weights and Biases进行机器学习操作(MLOps)
– 使用Wandb进行实验跟踪
– 使用Wandb进行超参数调整
– 使用Wandb进行数据集版本控制
– 使用Wandb进行模型版本控制
– 人类情绪检测
– 现代卷积神经网络(Alexnet、Vggnet、Resnet、Mobilenet、EfficientNet)
– 迁移学习
– 可视化卷积神经网络的中间层
– Grad-cam方法
– 模型集成和类别不平衡
– 视觉中的Transformer
– Huggingface Transformers
– 视觉Transformer
– 模型部署
– 从TensorFlow转换为Onnx模型
– 量化感知训练
– 使用Fastapi构建API
– 将API部署到云端
要求:
– 基本的Python知识
– 有互联网连接,因为我们将使用Google Colab(免费版本)
描述:
图像分类模型如今广泛应用于农场、医院、工业、学校和高速公路等不同领域。随着从2010年代初开始更高效的深度学习模型的创建,我们在图像分类领域的最新技术取得了巨大的进步。在本课程中,我们将带您进行一次令人惊叹的旅程,逐步掌握不同的概念。我们将从理解图像分类算法的工作原理开始,并在遵循最佳实践的同时将它们部署到云端。我们将使用TensorFlow 2(由Google构建的全球最流行的深度学习库)和Huggingface。
你将学到:
– TensorFlow的基础知识(张量、模型构建、训练和评估)
– 卷积神经网络和视觉Transformer等深度学习算法
– 分类模型的评估(精确度、召回率、准确度、F1分数、混淆矩阵、ROC曲线)
– 使用数据增强减轻过拟合
– 自定义损失和指标、即时执行模式和图模式、自定义训练循环、Tensorboard
– 使用Weights and Biases进行机器学习操作(MLOps)
– 疟疾检测的二分类、人类情绪检测的多分类
– 使用现代卷积神经网络进行迁移学习(Vggnet、Resnet、Mobilenet、Efficientnet)
– 模型部署(Onnx格式、量化、Fastapi、Heroku云)
如果你想在职业生涯中迈出更大的一步,这门课程就是为你准备的,我们非常期待帮助你实现目标!本课程由Neuralearn提供。和Neuralearn的其他课程一样,我们非常重视反馈。你在论坛上的评论和问题将帮助我们改进这门课程。请在论坛上尽可能多地提问。我们会尽快回复。
概述:
第1节:介绍
第2节:张量和变量
第3节:基础知识
第4节:初始化和类型转换
第5节:索引
第6节:数学运算
第7节:线性代数运算
第8节:常用方法
第9节:RaggedTensors
第10节:稀疏张量
第11节:字符串张量
第12节:变量
第三部分:使用TensorFlow构建神经网络
第13讲 理解任务
第14讲 数据准备
第15讲 线性回归模型
第16讲 错误惩罚
第17讲 训练和优化
第18讲 性能测量
第19讲 验证和测试
第20讲 纠正措施
第四部分:使用TensorFlow构建卷积神经网络
第21讲 理解任务
第22讲 数据准备
第23讲 数据可视化
第24讲 数据处理
第25讲 卷积神经网络的工作原理和原因
第26讲 使用TensorFlow构建卷积神经网络
第27讲 二元交叉熵损失
第28讲 训练
第29讲 模型评估和测试
第30讲 将TensorFlow模型加载和保存到gdrive
第五部分:使用Functional API、子类化和Cu构建更高级的TensorFlow模型
第31讲 Functional API
第32讲 模型子类化
第33讲 自定义层
第六部分:评估分类模型
第34讲 精确度、召回率、准确度
第35讲 混淆矩阵
第36讲 ROC曲线
第七部分:提高模型性能
第37讲 TensorFlow中的回调函数
第38讲 学习率调度
第39讲 模型检查点
第40讲 使用Dropout、正则化减轻过拟合和欠拟合
第八部分:数据增强
第41讲 使用tf.image和Keras Layers进行数据增强
第42讲 使用tf.data集成的TensorFlow 2进行Mixup数据增强
第43讲 使用tf.data集成的TensorFlow 2进行Cutmix数据增强
第44讲 使用TensorFlow 2和PyTorch的Albumentations进行数据增强
第九部分:高级TensorFlow
第45讲 TensorFlow 2中的自定义损失和指标
第46讲 TensorFlow 2中的Eager模式和Graph模式
第47讲 TensorFlow 2中的自定义训练循环
第十部分:与TensorFlow 2集成的Tensorboard
第48讲 记录数据
第49讲 查看模型图
第50讲 超参数调优
第51讲 使用Tensorboard进行性能分析和其他可视化
第十一部分:使用Weights and Biases进行MLOps
第52讲 实验跟踪
第53讲 使用Weights and Biases和TensorFlow 2进行超参数调优
第54讲 使用Weights and Biases和TensorFlow 2进行数据集版本控制
第55讲 使用Weights and Biases和TensorFlow 2进行模型版本控制
第十二部分:人脸情绪检测
第56讲 数据准备
第57讲 建模和训练
第58讲 数据增强
第59讲 TensorFlow记录
第十三部分:现代卷积神经网络
第60讲 AlexNet
第61讲 VGGNet
第62讲 ResNet
第63讲 编码ResNet
第64讲 MobileNet
第65讲 EfficientNet
第十四部分:迁移学习
第66讲 预训练模型
第67讲 微调
第十五部分:理解黑盒模型
第68讲 可视化中间层
第69讲 Grad-CAM方法
第十六部分:类别不平衡和集成
第70讲 集成
第71讲 类别不平衡
第十七部分:视觉中的Transformer
第72讲 理解VITs
第73讲 从头开始构建VITs
第74讲 使用Huggingface VITs进行微调
第75讲 使用Wandb进行模型评估
第76讲 数据高效的Transformer
第77讲 Swin Transformer
第十八部分:部署图像分类模型
第78讲 从TensorFlow转换为Onnx模型
第79讲 理解量化
第80讲 Onnx模型的实际量化
第81讲 量化感知训练
第82讲 转换为TensorFlow Lite模型
第83讲 API的工作原理
第84讲 使用Fastapi构建API
第85讲 部署API到云端
第86讲 负载测试API
对于对应用深度学习进行计算机视觉的初级Python开发人员感兴趣的人,对于想要在幕后深入了解事物运作方式的计算机视觉实践者,希望掌握深度学习基础知识并使用TensorFlow进行图像分类的最佳实践的任何人,希望学习如何构建和训练最先进的图像分类模型的计算机视觉实践者,希望部署图像分类模型的任何人,希望以实践的方式学习图像分类的学习者。
近期评论