<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>Pytorch on Jeanphilo Blog</title><link>https://shio-chan-dev.github.io/jeanblog/zh/tags/pytorch/</link><description>Recent content in Pytorch on Jeanphilo Blog</description><generator>Hugo -- 0.159.2</generator><language>zh-cn</language><lastBuildDate>Sun, 25 Jan 2026 12:50:33 +0800</lastBuildDate><atom:link href="https://shio-chan-dev.github.io/jeanblog/zh/tags/pytorch/index.xml" rel="self" type="application/rss+xml"/><item><title>Self-Attention 计算公式与 Softmax 数值稳定：从推导到工程实现</title><link>https://shio-chan-dev.github.io/jeanblog/zh/ai/attention/self-attention-softmax-formula-and-stability/</link><pubDate>Sun, 25 Jan 2026 12:50:33 +0800</pubDate><guid>https://shio-chan-dev.github.io/jeanblog/zh/ai/attention/self-attention-softmax-formula-and-stability/</guid><description>用公式与可运行示例讲清 Self-Attention 的计算流程、softmax 的数值问题与工程实现要点。</description></item><item><title>空洞卷积（Dilated Convolution）：扩大感受野的工程利器</title><link>https://shio-chan-dev.github.io/jeanblog/zh/ai/vision/dilated-convolution/</link><pubDate>Sat, 24 Jan 2026 16:33:00 +0800</pubDate><guid>https://shio-chan-dev.github.io/jeanblog/zh/ai/vision/dilated-convolution/</guid><description>系统讲清空洞卷积的原理、复杂度与工程应用，并给出最小 PyTorch 示例。</description></item><item><title>NMS 描述：非极大值抑制的原理与工程实践</title><link>https://shio-chan-dev.github.io/jeanblog/zh/ai/vision/nms-overview/</link><pubDate>Sat, 24 Jan 2026 16:32:59 +0800</pubDate><guid>https://shio-chan-dev.github.io/jeanblog/zh/ai/vision/nms-overview/</guid><description>系统讲清 NMS 的核心流程、IoU 计算与工程取舍，并给出最小 PyTorch 示例。</description></item><item><title>CNN 参数量计算：从卷积核到整网规模</title><link>https://shio-chan-dev.github.io/jeanblog/zh/ai/vision/cnn-parameter-count/</link><pubDate>Sat, 24 Jan 2026 16:28:40 +0800</pubDate><guid>https://shio-chan-dev.github.io/jeanblog/zh/ai/vision/cnn-parameter-count/</guid><description>系统讲清 CNN 参数量计算方法与常见陷阱，并给出最小 PyTorch 示例。</description></item><item><title>动量（Momentum）优化的过程：从直觉到公式</title><link>https://shio-chan-dev.github.io/jeanblog/zh/ai/llm/momentum-optimizer-process/</link><pubDate>Sat, 24 Jan 2026 16:28:18 +0800</pubDate><guid>https://shio-chan-dev.github.io/jeanblog/zh/ai/llm/momentum-optimizer-process/</guid><description>解释动量优化的更新过程、直觉与工程取舍，并给出最小 PyTorch 示例。</description></item><item><title>图像自编码是怎么做的：原理、流程与最小实现</title><link>https://shio-chan-dev.github.io/jeanblog/zh/ai/vision/image-autoencoder-how/</link><pubDate>Sat, 24 Jan 2026 16:26:15 +0800</pubDate><guid>https://shio-chan-dev.github.io/jeanblog/zh/ai/vision/image-autoencoder-how/</guid><description>系统讲清图像自编码的结构、训练目标与工程场景，并给出最小 PyTorch 示例。</description></item><item><title>ViT 结构描述：从 Patch Embedding 到 Transformer 编码器</title><link>https://shio-chan-dev.github.io/jeanblog/zh/ai/vision/vit-architecture-overview/</link><pubDate>Sat, 24 Jan 2026 16:25:35 +0800</pubDate><guid>https://shio-chan-dev.github.io/jeanblog/zh/ai/vision/vit-architecture-overview/</guid><description>系统讲清 ViT 的结构组件、工作流程与工程实践，并给出最小 PyTorch 示例。</description></item><item><title>BN 与 Dropout：训练与推理时的关键区别</title><link>https://shio-chan-dev.github.io/jeanblog/zh/ai/llm/bn-vs-dropout-train-infer/</link><pubDate>Sat, 24 Jan 2026 16:24:44 +0800</pubDate><guid>https://shio-chan-dev.github.io/jeanblog/zh/ai/llm/bn-vs-dropout-train-infer/</guid><description>系统对比 BatchNorm 与 Dropout 在训练/推理阶段的行为差异，并提供最小 PyTorch 示例。</description></item><item><title>BN 与 LN 的区别：训练稳定性与工程取舍</title><link>https://shio-chan-dev.github.io/jeanblog/zh/ai/llm/batchnorm-vs-layernorm/</link><pubDate>Sat, 24 Jan 2026 16:23:47 +0800</pubDate><guid>https://shio-chan-dev.github.io/jeanblog/zh/ai/llm/batchnorm-vs-layernorm/</guid><description>对比 BatchNorm 与 LayerNorm 的原理、适用场景与工程代价，并提供最小 PyTorch 示例。</description></item><item><title>为什么注意力要除以 √(d_k)：从数值稳定到工程收益</title><link>https://shio-chan-dev.github.io/jeanblog/zh/ai/attention/why-scale-attention-by-sqrt-dk/</link><pubDate>Sat, 24 Jan 2026 16:22:25 +0800</pubDate><guid>https://shio-chan-dev.github.io/jeanblog/zh/ai/attention/why-scale-attention-by-sqrt-dk/</guid><description>解释注意力中 QK^T 为何需要除以 √(d_k)，并给出最小 PyTorch 示例与工程场景。</description></item><item><title>SGD vs Adam：优化器原理与工程取舍</title><link>https://shio-chan-dev.github.io/jeanblog/zh/ai/llm/sgd-vs-adam-optimizer/</link><pubDate>Sat, 24 Jan 2026 16:12:12 +0800</pubDate><guid>https://shio-chan-dev.github.io/jeanblog/zh/ai/llm/sgd-vs-adam-optimizer/</guid><description>对比 SGD 与 Adam 的原理、收敛特性与应用场景，并提供最小 PyTorch 示例。</description></item><item><title>LoRA 初始化的常见方法与工程取舍</title><link>https://shio-chan-dev.github.io/jeanblog/zh/ai/llm/lora-initialization-methods/</link><pubDate>Sat, 24 Jan 2026 16:00:02 +0800</pubDate><guid>https://shio-chan-dev.github.io/jeanblog/zh/ai/llm/lora-initialization-methods/</guid><description>系统对比 LoRA 的常见初始化方式，并给出最小 PyTorch 示例与工程实践建议。</description></item><item><title>LLaMA 中 RMSNorm 相比 LayerNorm 的优势</title><link>https://shio-chan-dev.github.io/jeanblog/zh/ai/llm/rmsnorm-vs-layernorm-llama/</link><pubDate>Sat, 24 Jan 2026 15:52:58 +0800</pubDate><guid>https://shio-chan-dev.github.io/jeanblog/zh/ai/llm/rmsnorm-vs-layernorm-llama/</guid><description>从公式、复杂度与工程实践出发，解析 LLaMA 选择 RMSNorm 的原因，并给出最小 PyTorch 示例。</description></item><item><title>BLIP/BLIP-2 实战原理与最小推理示例</title><link>https://shio-chan-dev.github.io/jeanblog/zh/ai/blip/blip-blip2-principles-minimal-inference/</link><pubDate>Sat, 24 Jan 2026 15:40:51 +0800</pubDate><guid>https://shio-chan-dev.github.io/jeanblog/zh/ai/blip/blip-blip2-principles-minimal-inference/</guid><description>按 ACERS 结构讲清 BLIP 与 BLIP-2 的原理差异，并给出最小 PyTorch 推理示例。</description></item><item><title>CLIP 系列（2/3）：PyTorch 完整可复现实战——从数据到训练闭环</title><link>https://shio-chan-dev.github.io/jeanblog/zh/ai/clip/2-clip-pytorch-reproducible-implementation/</link><pubDate>Sat, 24 Jan 2026 12:46:49 +0800</pubDate><guid>https://shio-chan-dev.github.io/jeanblog/zh/ai/clip/2-clip-pytorch-reproducible-implementation/</guid><description>用 CIFAR-10 + 文本提示搭建最小 CLIP 训练闭环，提供完整可复现的 PyTorch 实战脚本。</description></item></channel></rss>