<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>Attention on Jeanphilo Blog</title><link>https://shio-chan-dev.github.io/jeanblog/zh/tags/attention/</link><description>Recent content in Attention on Jeanphilo Blog</description><generator>Hugo -- 0.159.2</generator><language>zh-cn</language><lastBuildDate>Sun, 25 Jan 2026 20:08:41 +0800</lastBuildDate><atom:link href="https://shio-chan-dev.github.io/jeanblog/zh/tags/attention/index.xml" rel="self" type="application/rss+xml"/><item><title>Attention Is All You Need：Transformer 的核心算法与工程落地</title><link>https://shio-chan-dev.github.io/jeanblog/zh/ai/attention/attention-is-all-you-need/</link><pubDate>Sun, 25 Jan 2026 20:08:41 +0800</pubDate><guid>https://shio-chan-dev.github.io/jeanblog/zh/ai/attention/attention-is-all-you-need/</guid><description>从算法抽象、复杂度与工程约束出发，解释 Transformer 如何用注意力替代递归与卷积，并给出可运行示例与选型指南。</description></item><item><title>FlashAttention 的 MQA/GQA：共享 KV 的等价、收益与实现要点（含可运行验证）</title><link>https://shio-chan-dev.github.io/jeanblog/zh/ai/attention/flash-attention-mqa-gqa/</link><pubDate>Sun, 25 Jan 2026 12:51:15 +0800</pubDate><guid>https://shio-chan-dev.github.io/jeanblog/zh/ai/attention/flash-attention-mqa-gqa/</guid><description>解释 FlashAttention 如何处理 MQA/GQA：共享 KV、按组计算与内存复用策略，并附可运行示例验证等价性。</description></item><item><title>FlashAttention 为什么能 one-pass：在线 softmax（m/l）与 Tiling 的核心思想</title><link>https://shio-chan-dev.github.io/jeanblog/zh/ai/attention/flash-attention-one-pass-and-tiling/</link><pubDate>Sun, 25 Jan 2026 12:51:14 +0800</pubDate><guid>https://shio-chan-dev.github.io/jeanblog/zh/ai/attention/flash-attention-one-pass-and-tiling/</guid><description>解释 FlashAttention 的 one-pass 计算原理与 tiling 策略：在线 softmax（m,l）更新、流式累积输出、不落地 $QK^\top$ 与概率矩阵，并给出可运行的块级注意力验证与访存算账。</description></item><item><title>Softmax 工程实现与 GPU 访存优化：在线更新、融合与带宽算账（含可运行验证）</title><link>https://shio-chan-dev.github.io/jeanblog/zh/ai/attention/softmax-gpu-memory-io-optimization/</link><pubDate>Sun, 25 Jan 2026 12:51:13 +0800</pubDate><guid>https://shio-chan-dev.github.io/jeanblog/zh/ai/attention/softmax-gpu-memory-io-optimization/</guid><description>拆解 softmax 标准计算的访存问题，并给出在线 softmax 与融合实现的工程优化思路，包含可运行示例与带宽算账。</description></item><item><title>Self-Attention 计算公式与 Softmax 数值稳定：从推导到工程实现</title><link>https://shio-chan-dev.github.io/jeanblog/zh/ai/attention/self-attention-softmax-formula-and-stability/</link><pubDate>Sun, 25 Jan 2026 12:50:33 +0800</pubDate><guid>https://shio-chan-dev.github.io/jeanblog/zh/ai/attention/self-attention-softmax-formula-and-stability/</guid><description>用公式与可运行示例讲清 Self-Attention 的计算流程、softmax 的数值问题与工程实现要点。</description></item><item><title>为什么注意力要除以 √(d_k)：从数值稳定到工程收益</title><link>https://shio-chan-dev.github.io/jeanblog/zh/ai/attention/why-scale-attention-by-sqrt-dk/</link><pubDate>Sat, 24 Jan 2026 16:22:25 +0800</pubDate><guid>https://shio-chan-dev.github.io/jeanblog/zh/ai/attention/why-scale-attention-by-sqrt-dk/</guid><description>解释注意力中 QK^T 为何需要除以 √(d_k)，并给出最小 PyTorch 示例与工程场景。</description></item><item><title>Attention 的复杂度与为什么需要位置编码</title><link>https://shio-chan-dev.github.io/jeanblog/zh/ai/attention/attention-complexity-and-positional-encoding/</link><pubDate>Sat, 24 Jan 2026 16:21:51 +0800</pubDate><guid>https://shio-chan-dev.github.io/jeanblog/zh/ai/attention/attention-complexity-and-positional-encoding/</guid><description>解释注意力的时间/空间复杂度，并说明位置编码对序列建模的必要性，含最小示例。</description></item><item><title>为什么使用多头注意力机制：能力、稳定性与工程取舍</title><link>https://shio-chan-dev.github.io/jeanblog/zh/ai/attention/why-multi-head-attention/</link><pubDate>Sat, 24 Jan 2026 16:20:59 +0800</pubDate><guid>https://shio-chan-dev.github.io/jeanblog/zh/ai/attention/why-multi-head-attention/</guid><description>用 ACERS 框架解释多头注意力的必要性、核心原理与工程场景，并给出最小可运行示例。</description></item><item><title>Transformer 结构描述：从编码器到解码器</title><link>https://shio-chan-dev.github.io/jeanblog/zh/ai/llm/transformer-architecture-overview/</link><pubDate>Sat, 24 Jan 2026 16:18:19 +0800</pubDate><guid>https://shio-chan-dev.github.io/jeanblog/zh/ai/llm/transformer-architecture-overview/</guid><description>用 ACERS 框架讲清 Transformer 结构、模块职责与工程场景，并给出最小可运行示例。</description></item><item><title>为什么 GPT 是 Decoder-Only：自回归生成的最佳形态</title><link>https://shio-chan-dev.github.io/jeanblog/zh/ai/llm/why-gpt-decoder-only/</link><pubDate>Sat, 24 Jan 2026 16:15:34 +0800</pubDate><guid>https://shio-chan-dev.github.io/jeanblog/zh/ai/llm/why-gpt-decoder-only/</guid><description>解释 GPT 选择 decoder-only 结构的原因，并与 encoder-only / encoder-decoder 做工程对比。</description></item><item><title>Self-Attention vs Cross-Attention：机制、差异与工程应用</title><link>https://shio-chan-dev.github.io/jeanblog/zh/ai/attention/self-attention-vs-cross-attention/</link><pubDate>Sat, 24 Jan 2026 15:44:12 +0800</pubDate><guid>https://shio-chan-dev.github.io/jeanblog/zh/ai/attention/self-attention-vs-cross-attention/</guid><description>用 ACERS 框架讲清 self-attention 与 cross-attention 的核心差异、公式与工程场景。</description></item></channel></rss>