<?xml version="1.0" encoding="utf-8" standalone="yes" ?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom">
  <channel>
    <title>Posts on </title>
    <link>/posts/</link>
    <description>Recent content in Posts on </description>
    <generator>Hugo -- gohugo.io</generator>
    <lastBuildDate>Thu, 23 Apr 2026 00:00:00 +0000</lastBuildDate>
    
	<atom:link href="/posts/index.xml" rel="self" type="application/rss+xml" />
    
    
    <item>
      <title>Ascend C算子开发能力认证（中级）：Sigmoid算子实现</title>
      <link>/posts/2026-04-23-blog-ascendc-certivicate/</link>
      <pubDate>Thu, 23 Apr 2026 00:00:00 +0000</pubDate>
      
      <guid>/posts/2026-04-23-blog-ascendc-certivicate/</guid>
      <description>参考资料（用于学习与核对）
Ascend C算子开发能力认证（中级）Sigmoid算子的实现（外部参考）
 这篇文章记录的是我在 Ascend C 中级认证 Sigmoid 题目上的完整实践过程，包含环境准备、实现要点、常见坑位和可复现代码，方便后来者少走弯路。
环境搭建要求 环境需满足以下条件：
 设备需具备昇腾 NPU。 CANN 版本需为 8.0.0.beta1。 环境由开发者自行准备。  典型场景举例（若指导文档中的 CANN 版本号与 8.0.0.beta1 不一致，请自行调整）：
 开发者套件（Atlas200I DK A2，或香橙派）部署方式： Atlas 200I DK A2算子开发环境搭建指导-Ascendc中级认证专用.docx 华为云 ModelArts Notebook 部署方式： 华为云Ascend C算子开发环境搭建手册（微认证）.docx  题目说明 题目要求实现 Ascend C 算子 Sigmoid，算子命名为 SigmoidCustom，需要完成：
 kernel 侧代码。 host 侧代码。 aclnn 算子调用测试。  相关算法：
$$ sigmoid(x) = \frac{1}{1 + exp(-x)} $$
具体要求：
 完成 Sigmoid 算子 kernel 侧核函数相关代码补齐。 完成 Sigmoid 算子 host 侧 Tiling 结构体成员变量创建，以及 Tiling 实现函数补齐。 支持 Float16 类型输入输出。  代码工程与下载 下载文件：</description>
    </item>
    
    <item>
      <title>Unitree Go 2 开发日志1：初步调试</title>
      <link>/posts/2026-04-08-blog-unitree-go2-devlog-1/</link>
      <pubDate>Wed, 08 Apr 2026 00:00:00 +0000</pubDate>
      
      <guid>/posts/2026-04-08-blog-unitree-go2-devlog-1/</guid>
      <description>今日记录 参考网页： 拓展坞模块配置开发指南
SLAM导航服务接口开发指南
Go2开发教学10-SLAM 导航服务接口
网络配置 将Unitree Go 2机器人与路由器通过有线方式配置局域网，因为机器需要以下三个固定IP
192.168.123.18 #拓展坞PC IP 192.168.123.20 #雷达IP 192.168.123.161 #运控PC IP  故在路由器控制台将网段更改至
192.168.123.xxx  ping成功通过
拓展坞模块调试 宇树科技官方在2026-04-01发布了新版本拓展坞的固件
访问拓展坞模块 &amp;lt;192.168.123.18&amp;gt; 上传了新拓展坞固件包进行更新
通过ssh连接，配置好雷达类型、YSN参数以及雷达的外参数（即坐标轴相对偏移量）
成功运行官方文档中SLAM导航服务接口的功能测试参考例程
将巡检项目的代码 &amp;lt;unitree_go2_patrol-master.zip&amp;gt;
通过scp传到机器人拓展坞模块重新编译，并且成功运行
现存问题：  Go 2机器电池问题——已联系返修   今天尝试通过路由器Wi-Fi无线连接，手机app上一直无法控制连接成功，暂时先使用有线连接的方式。后续调试参考链接：有线连接，无线连接 后续需要用到遥控手柄，而遥控手柄也存在问题，无法充上电  后续安排 基本的配置调试已做好，接下来先进行代码侧的开发，学习MQTT协议、SLAM等相关内容</description>
    </item>
    
    <item>
      <title>Move Constructor 学习记录</title>
      <link>/posts/2026-03-31-note-move-constructor/</link>
      <pubDate>Tue, 31 Mar 2026 00:00:00 +0000</pubDate>
      
      <guid>/posts/2026-03-31-note-move-constructor/</guid>
      <description></description>
    </item>
    
    <item>
      <title>25秋深度学习训练营-第3周：MobileNet_ShuffleNet</title>
      <link>/posts/2026-03-07-note-dl-3/</link>
      <pubDate>Sat, 07 Mar 2026 00:00:00 +0000</pubDate>
      
      <guid>/posts/2026-03-07-note-dl-3/</guid>
      <description>第3周：MobileNet_ShuffleNet 1.1 MobileNet V1 &amp;amp; V2  MobileNet_V1_V2⽹络讲解 https://www.bilibili.com/video/BV1yE411p7L7/ 参考PPT mobilenet.pdf  传统卷积神经网络，内存需求大、运算量大 导致无法在移动设备以及嵌入式设备上运行
核心：相比传统卷积神经网络，在准确率小幅降低的前提下大大减少模型参数与运算量。
网络中的亮点：
 Depthwise Convolution(大大减少运算量和参数数量) 增加超参数α、β  传统卷积： DW(Depthwise)卷积： 计算量比较 传统卷积 总计算量为：
$$ D_K·D_K·M·N·D_F·D_F $$
MobileNetV1 DW+PW卷积 总计算量为： $$ D_K·D_K·M·D_F·D_F+M·N·D_F·D_F $$</description>
    </item>
    
    <item>
      <title>基于卷积神经网络的图像降噪方法研究(Image Denoising Based on Convolutional Neural Networks)</title>
      <link>/posts/2026-01-22-blog-imgdeno-cnn/</link>
      <pubDate>Thu, 22 Jan 2026 00:00:00 +0000</pubDate>
      
      <guid>/posts/2026-01-22-blog-imgdeno-cnn/</guid>
      <description>1. Background  为什么会想到做这样一个实验尝试？
 这是我 2025年秋季学期通识课程的作业(课程为：人工神经网络与深度学习基础)
实话说，大一上的课程有一半左右都是水课（上课不听的那种），还有四分之一是公共课（得好好学，考试重要），剩下的仅有的两门：计算机科学与技术导论、人工神经网络与深度学习基础，在陌生的城市，带着一颗低落的心，这两门是仅有的能让我提起兴趣，给我带来快乐感的课。
……
摄影、计算机技术能摩擦出怎样的火花？我十分好奇，也十分有兴趣。
无聊的我开始了和ChatGPT的对话，我在和他构建由这两个方向共同撑起的世界，我发现当你认真自己思考事情，遇到了一些小的、和事情本身关联性不大的能力型(?)困难时，AI就是这样一个，高质量的工具。有些难以表达这种感受，比如在构建，思考摄影、技术结合的未来可能性这件事上，我自己完全可以一步一步花时间深挖、思考、记录、补充，但在用上AI后，这件事情的做法就出现了变化，brainstorm的过程变成了和一个能理解你的朋友交流的过程，他是一个能理解你，知道你意思的朋友（虽然很多时候是不能知道的，但可以归结于自己的表达能力不够），在和他沟通的时候，他又能帮你记录下这一切，你只需要口述，我还尝试让他一直提醒我，让我别忘了这一切蓝图前景，让我保持激情，同时为我的生活提供动力，但是很遗憾，他不能跳出对话框。
回归正题，当通识课布置出一个期末小论文这样的作业的时候，我是有些没头绪的，甚至有些担心会不会就这样水过去了。还好，我找到了一个有趣的题材；幸好，我有足够的兴趣研究这件事情；更好，课上学的Matlab以及知识点确实能帮助我进一步了解我感兴趣的影像领域，这不是在应付作业，或者说，这个实验的根本目的甚至不是为了完成这样一个期末任务，而是一次我自己的探索。这是我想象中课程学习价值的最正确的兑现形式。
计导课也给了我很大的启发，课上提到了CV相关的内容，让我知道了很多基础的图像后期处理操作都是通过卷积的方式，比如锐化、模糊等等，对于这些底层的技术内容有了更深一步的了解，那节课提到这一点的那页PPT简直让我醍醐灌顶！！
拓宽CNN传统情况中的数据对标签形式 &amp;gt;是否能打破传统局限思考，让数据和标签形式一致？
带着这样的思考，我的脑中跳出了由高噪点图像到低噪点图像的对应。这一种独特的映射关系，不正是符合CNN吗？
当然，有了想法之后，是时候开始思考可行性：
 高噪点和低噪点之间的关系是否能找到规律？ 不同环境下的情况怎么办？ 噪点产生的原因有多种，合理性？ ……  从这些角度来看，这样一个实验似乎完完全全是不成熟的，但又何妨？Just do it.
抱着多多少少能得到一些收获的心态，我开始了实验。
2. Let&amp;rsquo;s do it! 由于具体、正式的内容已经在论文(自己玩玩的)中较为完整地给出，本文章只会做我想留下的补充，做记录和复盘用途。 翻译：想到啥说啥
整体思路流程  本文所提出的图像降噪方法流程主要包括数据采集与预处理、卷积神经网络模型构建、模型训练以及图像仿真预测四个阶段。首先，在暗光环境下固定拍摄场景，分别使用高 ISO 与低 ISO 参数获取成对图像数据。随后，对图像进行裁剪并划分为固定大小的图像patch，构建训练样本。接着，设计并训练卷积神经网络模型，使其学习高噪声图像到低噪声图像之间的映射关系。最后，将训练完成的模型应用于完整图像的降噪处理，实现仿真预测。
 首先是数据集的准备： 在答辩时，老师问我：这些高低噪点的图像都是你自己准备的吗？ 我的第一反应是“不然呢？” 而思考之后，这句话也让我意识到了很多东西：
 对于我一个玩摄影的来说，准备这些数据集完全不是问题，但并不是所有人都这样，应该说大部分人不会有对这方面垂直的了解，当然，也从另一方面说明了我的选题合理与贴合性： &amp;gt; 为了获取真实的图像噪声数据，本文在暗光环境下使用相机对同一场景进行多次拍摄，分别设置高 ISO （ISO 12800）和低 ISO （ISO 100）参数。高 ISO 图像由于感光度较高，包含较多噪声信息，而低 ISO 图像则相对清晰，噪声较少。为了保证除了噪点信息差异外，图像内容不存在偏差，在调整 ISO 时同时调整快门速度，确保画面曝光一致。 通过从老师的角度思考这句话，我了解到了在对于神经网络的应用里，数据的重要性，如ImageNet的存在同样说明了这一点，在AI时代，除了底层算法逻辑的改动之外，能比拼出差距的地方就在于：数据、算力——又联想到内存的断供、电力行业的蓬勃前景  高 ISO 与低 ISO 图像对比示例: 数据预处理与Patch切分 这一步骤是我自己没有构想出来的，源于ChatGPT为我设计的实验思路，学习了</description>
    </item>
    
    <item>
      <title>25秋深度学习训练营-第2周：卷积神经网络</title>
      <link>/posts/2025-12-12-note-dl-2/</link>
      <pubDate>Fri, 12 Dec 2025 00:00:00 +0000</pubDate>
      
      <guid>/posts/2025-12-12-note-dl-2/</guid>
      <description>第2周：卷积神经网络 学习内容：https://oucai.club/classes/dl/week01#第2周-卷积神经网络
学习视频：https://www.jianguoyun.com/p/Dde3HS8QrKKIBhi2xpEGIAA
 视频学习至1小时06分，包括： - CNN的基本结构：卷积、池化、全连接
 代码练习 实验1: 使用 LeNet 对 MNIST 数据集分类 代码见https://oucai.club/classes/dl/week02
Epoch [1/10], Step [100/938], Loss: 0.9421, Accuracy: 70.53% Epoch [1/10], Step [200/938], Loss: 0.2978, Accuracy: 80.96% Epoch [1/10], Step [300/938], Loss: 0.1998, Accuracy: 85.28% Epoch [1/10], Step [400/938], Loss: 0.1483, Accuracy: 87.91% Epoch [1/10], Step [500/938], Loss: 0.1318, Accuracy: 89.54% Epoch [1/10], Step [600/938], Loss: 0.1123, Accuracy: 90.72% Epoch [1/10], Step [700/938], Loss: 0.</description>
    </item>
    
    <item>
      <title>25秋深度学习训练营-第1周：深度学习基础</title>
      <link>/posts/2025-12-02-note-dl-1/</link>
      <pubDate>Tue, 02 Dec 2025 00:00:00 +0000</pubDate>
      
      <guid>/posts/2025-12-02-note-dl-1/</guid>
      <description>第1周：深度学习基础 学习内容：https://oucai.club/classes/dl/week01#第1周-深度学习基础
学习视频：https://www.jianguoyun.com/p/Dde3HS8QrKKIBhi2xpEGIAA
 学习要求： - 深度学习的入门知识 - pytorch 基础练习，螺旋数据分类代码练习
 1、视频学习 学习视频：深度学习基础，主要内容包括：
 浅层神经⽹络：⽣物神经元到单层感知器，多层感知器，反向传播和梯度消失 神经⽹络到深度学习：逐层预训练，⾃编码器和受限玻尔兹曼机  2、代码练习 可以在Google Colaboratory开发Deep Learning Applications，它自带免费的Tesla K80 GPU。
1. PyTorch 基础练习 什么是 PyTorch ? PyTorch是一个python库，它主要提供了两个高级功能： - GPU加速的张量计算 - 构建在反向自动求导系统上的深度神经网络
1. 定义数据 Tensor支持各种各样类型的数据，包括：
torch.float32, torch.float64, torch.float16, torch.uint8, torch.int8, torch.int16, torch.int32, torch.int64  2. 定义操作 凡是用Tensor进行各种运算的，都是Function
最终，还是需要用Tensor来进行计算的，计算无非是
基本运算，加减乘除，求幂求余 布尔运算，大于小于，最大最小 线性运算，矩阵乘法，求模，求行列式 基本运算包括： abs/sqrt/div/exp/fmod/pow ，及一些三角函数 cos/ sin/ asin/ atan2/ cosh，及 ceil/round/floor/trunc 等  布尔运算包括： gt/lt/ge/le/eq/ne，topk, sort, max/min</description>
    </item>
    
    <item>
      <title>Quote</title>
      <link>/posts/2025-11-28-blog-quote/</link>
      <pubDate>Fri, 28 Nov 2025 00:00:00 +0000</pubDate>
      
      <guid>/posts/2025-11-28-blog-quote/</guid>
      <description> A good life is one inspired by love and guided by knowledge. 好的生活，由爱激扬、由知识引导。
Bertrand Russell
  A rose by any other name would smell as sweet.
 </description>
    </item>
    
    <item>
      <title>计导试验报告6</title>
      <link>/posts/2025-11-28-coursework-cs-test-6/</link>
      <pubDate>Fri, 28 Nov 2025 00:00:00 +0000</pubDate>
      
      <guid>/posts/2025-11-28-coursework-cs-test-6/</guid>
      <description>实验 6 排序算法  计算机类3班 施家鑫 25020007105
Content  实验 6 排序算法  Content C语言实现 生成100000个随机数 实现冒泡排序功能 实现快速排序功能 分别记录两者执行时间，并进行比较 完成主程序 Python语言实现 生成100000个随机数到数组 冒泡排序功能 快速排序功能 记录执行时间并进行比较 主程序 关于本文档的撰写  C语言实现  随机生成 100000个随机数，进行冒泡排序和快速排序，并比较执行时间。
 生成100000个随机数  引用头文件
#include &amp;lt;stdlib.h&amp;gt; // 使用其中的rand()函数 #include &amp;lt;time.h&amp;gt; // 记录执行时间 // 使用其中的time()函数为随机数做种子，以保证“随机”  使用time()为随机数做种
srand(time(NULL));  生成100000个随机数
int a[100001] = {0}; for (int i = 0; i &amp;lt; 100000; i++) { a[i] = rand() % 1000000; }   实现冒泡排序功能 void bubble_sort(int a[], int n) { int i, j, temp; for (i = 0; i &amp;lt; n-1; i++) { for (j = 0; j &amp;lt; n-i-1; j++) { if (a[j] &amp;gt; a[j+1]) { temp = a[j]; a[j] = a[j+1]; a[j+1] = temp; } } } }  实现快速排序功能 void quick_sort(int a[], int low, int high) { if (low &amp;lt; high) { int pivot = a[high]; int i = low - 1; for (int j = low; j &amp;lt; high; j++) { if (a[j] &amp;lt; pivot) { i++; int temp = a[i]; a[i] = a[j]; a[j] = temp; } } int temp = a[i + 1]; a[i + 1] = a[high]; a[high] = temp; int pi = i + 1; quick_sort(a, low, pi - 1); quick_sort(a, pi + 1, high); } }  分别记录两者执行时间，并进行比较  使用两个变量分别记录开始与结束时间</description>
    </item>
    
  </channel>
</rss>