<?xml version="1.0" encoding="utf-8" standalone="yes" ?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>25秋深度学习训练营 on </title>
    <link>/categories/25%E7%A7%8B%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0%E8%AE%AD%E7%BB%83%E8%90%A5/</link>
    <description>Recent content in 25秋深度学习训练营 on </description>
    <generator>Hugo -- gohugo.io</generator>
    <lastBuildDate>Sat, 07 Mar 2026 00:00:00 +0000</lastBuildDate>
    
	<atom:link href="/categories/25%E7%A7%8B%E6%B7%B1%E5%BA%A6%E5%AD%A6%E4%B9%A0%E8%AE%AD%E7%BB%83%E8%90%A5/index.xml" rel="self" type="application/rss+xml" />
    
    
    <item>
      <title>25秋深度学习训练营-第3周：MobileNet_ShuffleNet</title>
      <link>/posts/2026-03-07-note-dl-3/</link>
      <pubDate>Sat, 07 Mar 2026 00:00:00 +0000</pubDate>
      
      <guid>/posts/2026-03-07-note-dl-3/</guid>
      <description>第3周：MobileNet_ShuffleNet 1.1 MobileNet V1 &amp;amp; V2  MobileNet_V1_V2⽹络讲解 https://www.bilibili.com/video/BV1yE411p7L7/ 参考PPT mobilenet.pdf  传统卷积神经网络，内存需求大、运算量大 导致无法在移动设备以及嵌入式设备上运行
核心：相比传统卷积神经网络，在准确率小幅降低的前提下大大减少模型参数与运算量。
网络中的亮点：
 Depthwise Convolution(大大减少运算量和参数数量) 增加超参数α、β  传统卷积： DW(Depthwise)卷积： 计算量比较 传统卷积 总计算量为：
$$ D_K·D_K·M·N·D_F·D_F $$
MobileNetV1 DW+PW卷积 总计算量为： $$ D_K·D_K·M·D_F·D_F+M·N·D_F·D_F $$</description>
    </item>
    
    <item>
      <title>25秋深度学习训练营-第2周：卷积神经网络</title>
      <link>/posts/2025-12-12-note-dl-2/</link>
      <pubDate>Fri, 12 Dec 2025 00:00:00 +0000</pubDate>
      
      <guid>/posts/2025-12-12-note-dl-2/</guid>
      <description>第2周：卷积神经网络 学习内容：https://oucai.club/classes/dl/week01#第2周-卷积神经网络
学习视频：https://www.jianguoyun.com/p/Dde3HS8QrKKIBhi2xpEGIAA
 视频学习至1小时06分，包括： - CNN的基本结构：卷积、池化、全连接
 代码练习 实验1: 使用 LeNet 对 MNIST 数据集分类 代码见https://oucai.club/classes/dl/week02
Epoch [1/10], Step [100/938], Loss: 0.9421, Accuracy: 70.53% Epoch [1/10], Step [200/938], Loss: 0.2978, Accuracy: 80.96% Epoch [1/10], Step [300/938], Loss: 0.1998, Accuracy: 85.28% Epoch [1/10], Step [400/938], Loss: 0.1483, Accuracy: 87.91% Epoch [1/10], Step [500/938], Loss: 0.1318, Accuracy: 89.54% Epoch [1/10], Step [600/938], Loss: 0.1123, Accuracy: 90.72% Epoch [1/10], Step [700/938], Loss: 0.</description>
    </item>
    
    <item>
      <title>25秋深度学习训练营-第1周：深度学习基础</title>
      <link>/posts/2025-12-02-note-dl-1/</link>
      <pubDate>Tue, 02 Dec 2025 00:00:00 +0000</pubDate>
      
      <guid>/posts/2025-12-02-note-dl-1/</guid>
      <description>第1周：深度学习基础 学习内容：https://oucai.club/classes/dl/week01#第1周-深度学习基础
学习视频：https://www.jianguoyun.com/p/Dde3HS8QrKKIBhi2xpEGIAA
 学习要求： - 深度学习的入门知识 - pytorch 基础练习，螺旋数据分类代码练习
 1、视频学习 学习视频：深度学习基础，主要内容包括：
 浅层神经⽹络：⽣物神经元到单层感知器，多层感知器，反向传播和梯度消失 神经⽹络到深度学习：逐层预训练，⾃编码器和受限玻尔兹曼机  2、代码练习 可以在Google Colaboratory开发Deep Learning Applications，它自带免费的Tesla K80 GPU。
1. PyTorch 基础练习 什么是 PyTorch ? PyTorch是一个python库，它主要提供了两个高级功能： - GPU加速的张量计算 - 构建在反向自动求导系统上的深度神经网络
1. 定义数据 Tensor支持各种各样类型的数据，包括：
torch.float32, torch.float64, torch.float16, torch.uint8, torch.int8, torch.int16, torch.int32, torch.int64  2. 定义操作 凡是用Tensor进行各种运算的，都是Function
最终，还是需要用Tensor来进行计算的，计算无非是
基本运算，加减乘除，求幂求余 布尔运算，大于小于，最大最小 线性运算，矩阵乘法，求模，求行列式 基本运算包括： abs/sqrt/div/exp/fmod/pow ，及一些三角函数 cos/ sin/ asin/ atan2/ cosh，及 ceil/round/floor/trunc 等  布尔运算包括： gt/lt/ge/le/eq/ne，topk, sort, max/min</description>
    </item>
    
  </channel>
</rss>