<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/"><channel><title>优克</title><link>https://youkre.github.io/nlp-with-pytorch/</link><description>Recent content on 优克</description><generator>Hugo -- 0.148.0</generator><language>zh-cn</language><lastBuildDate>Wed, 29 Oct 2025 23:32:00 +0800</lastBuildDate><atom:link href="https://youkre.github.io/nlp-with-pytorch/index.xml" rel="self" type="application/rss+xml"/><item><title>Transformer：让神经网络学会“全局扫描”——从“逐字阅读”到“一眼看懂”</title><link>https://youkre.github.io/nlp-with-pytorch/7-transformer/</link><pubDate>Wed, 29 Oct 2025 23:32:00 +0800</pubDate><guid>https://youkre.github.io/nlp-with-pytorch/7-transformer/</guid><description>使用自注意力机制实现编码器-解码器模型</description></item><item><title>注意力机制：让神经网络学会“重点回顾”</title><link>https://youkre.github.io/nlp-with-pytorch/6-attention/</link><pubDate>Wed, 08 Oct 2025 21:59:00 +0800</pubDate><guid>https://youkre.github.io/nlp-with-pytorch/6-attention/</guid><description>让解码器在生成每个词时，能“回头看”输入序列，自动找到最相关的部分，它解决了 Seq2Seq 的核心痛点，上下文向量容量有限，长句子信息丢失严重</description></item><item><title>Seq2Seq：教神经网络“中译英”——从一句话到一段话</title><link>https://youkre.github.io/nlp-with-pytorch/5-seq2seq/</link><pubDate>Wed, 08 Oct 2025 21:58:00 +0800</pubDate><guid>https://youkre.github.io/nlp-with-pytorch/5-seq2seq/</guid><description>Seq2Seq 就像一个“双人翻译小组”，用编码器把所有意思浓缩成一个“小纸条”，再让解码器看着这张小纸条，用另一种语言说出来</description></item><item><title>LSTM：给神经网络装上“长期记忆”</title><link>https://youkre.github.io/nlp-with-pytorch/4-lstm/</link><pubDate>Wed, 08 Oct 2025 08:05:00 +0800</pubDate><guid>https://youkre.github.io/nlp-with-pytorch/4-lstm/</guid><description>RNN记性不太好，如果文章太长，前面写的笔记就会慢慢模糊，甚至被新内容覆盖，用长短期记忆网络LSTM来改进</description></item><item><title>RNN：让神经网络学会“记笔记”</title><link>https://youkre.github.io/nlp-with-pytorch/3-rnn/</link><pubDate>Tue, 07 Oct 2025 23:30:00 +0800</pubDate><guid>https://youkre.github.io/nlp-with-pytorch/3-rnn/</guid><description>RNN 就像一个会写读书笔记的学生，每读一个词，他就翻看之前的笔记，结合新词，写下新的理解，这样，整段话的“上下文”就被保存在了最后一页笔记里</description></item><item><title>改进Word2Vec：从“暴力计算”到“聪明学习”</title><link>https://youkre.github.io/nlp-with-pytorch/2-improve-word2vec/</link><pubDate>Tue, 07 Oct 2025 15:19:00 +0800</pubDate><guid>https://youkre.github.io/nlp-with-pytorch/2-improve-word2vec/</guid><description>Word2Vec 原始模型计算太慢？本文带你升级！用 nn.Embedding 替代 one-hot，高效提取词向量。引入负采样，化“大海捞针”为“真假判断”，大幅加速训练。代码实战，教你打造聪明高效的词向量模型。</description></item><item><title>自然语言处理入门：从一句话到词向量——用PyTorch实现Word2Vec</title><link>https://youkre.github.io/nlp-with-pytorch/1-word2vec/</link><pubDate>Sat, 27 Sep 2025 18:22:00 +0800</pubDate><guid>https://youkre.github.io/nlp-with-pytorch/1-word2vec/</guid><description>计算机不懂人类语言，它只懂数字。我们要让AI理解“猫”和“狗”是相似的动物，第一步就是把“猫”变成一串数字向量——这就是Word2Vec的核心思想。</description></item></channel></rss>