<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom" xmlns:content="http://purl.org/rss/1.0/modules/content/">
  <channel>
    <title>温度参数 on Answer</title>
    <link>https://answer.freetools.me/tags/%E6%B8%A9%E5%BA%A6%E5%8F%82%E6%95%B0/</link>
    <description>Recent content in 温度参数 on Answer</description>
    <generator>Hugo -- 0.152.2</generator>
    <language>zh-cn</language>
    <lastBuildDate>Thu, 12 Mar 2026 17:58:29 +0800</lastBuildDate>
    <atom:link href="https://answer.freetools.me/tags/%E6%B8%A9%E5%BA%A6%E5%8F%82%E6%95%B0/index.xml" rel="self" type="application/rss+xml" />
    <item>
      <title>对比学习如何用&#34;比较&#34;重构神经网络的表示能力</title>
      <link>https://answer.freetools.me/%E5%AF%B9%E6%AF%94%E5%AD%A6%E4%B9%A0%E5%A6%82%E4%BD%95%E7%94%A8%E6%AF%94%E8%BE%83%E9%87%8D%E6%9E%84%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C%E7%9A%84%E8%A1%A8%E7%A4%BA%E8%83%BD%E5%8A%9B/</link>
      <pubDate>Thu, 12 Mar 2026 17:58:29 +0800</pubDate>
      <guid>https://answer.freetools.me/%E5%AF%B9%E6%AF%94%E5%AD%A6%E4%B9%A0%E5%A6%82%E4%BD%95%E7%94%A8%E6%AF%94%E8%BE%83%E9%87%8D%E6%9E%84%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C%E7%9A%84%E8%A1%A8%E7%A4%BA%E8%83%BD%E5%8A%9B/</guid>
      <description>从2006年孪生网络到CLIP、SimCLR等现代应用，深入解析对比学习的数学原理、InfoNCE损失函数、温度参数机制，以及为什么&amp;#34;比较&amp;#34;能成为神经网络学习表示的核心范式</description>
    </item>
    <item>
      <title>Logits：神经网络输出的原始真相，从概念到实践的完整解析</title>
      <link>https://answer.freetools.me/logits%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C%E8%BE%93%E5%87%BA%E7%9A%84%E5%8E%9F%E5%A7%8B%E7%9C%9F%E7%9B%B8%E4%BB%8E%E6%A6%82%E5%BF%B5%E5%88%B0%E5%AE%9E%E8%B7%B5%E7%9A%84%E5%AE%8C%E6%95%B4%E8%A7%A3%E6%9E%90/</link>
      <pubDate>Thu, 12 Mar 2026 07:33:21 +0800</pubDate>
      <guid>https://answer.freetools.me/logits%E7%A5%9E%E7%BB%8F%E7%BD%91%E7%BB%9C%E8%BE%93%E5%87%BA%E7%9A%84%E5%8E%9F%E5%A7%8B%E7%9C%9F%E7%9B%B8%E4%BB%8E%E6%A6%82%E5%BF%B5%E5%88%B0%E5%AE%9E%E8%B7%B5%E7%9A%84%E5%AE%8C%E6%95%B4%E8%A7%A3%E6%9E%90/</guid>
      <description>深入解析神经网络中logits的本质：从统计学中的log-odds概念起源，到现代深度学习中作为模型&amp;#34;思考过程&amp;#34;的核心载体。涵盖logits与softmax的数学关系、温度参数的作用机制、logit bias等处理技术、以及在知识蒸馏、模型校准、不确定性量化等场景的实际应用。</description>
    </item>
    <item>
      <title>知识蒸馏：为什么大模型能教小模型学会本事</title>
      <link>https://answer.freetools.me/%E7%9F%A5%E8%AF%86%E8%92%B8%E9%A6%8F%E4%B8%BA%E4%BB%80%E4%B9%88%E5%A4%A7%E6%A8%A1%E5%9E%8B%E8%83%BD%E6%95%99%E5%B0%8F%E6%A8%A1%E5%9E%8B%E5%AD%A6%E4%BC%9A%E6%9C%AC%E4%BA%8B/</link>
      <pubDate>Thu, 12 Mar 2026 05:48:23 +0800</pubDate>
      <guid>https://answer.freetools.me/%E7%9F%A5%E8%AF%86%E8%92%B8%E9%A6%8F%E4%B8%BA%E4%BB%80%E4%B9%88%E5%A4%A7%E6%A8%A1%E5%9E%8B%E8%83%BD%E6%95%99%E5%B0%8F%E6%A8%A1%E5%9E%8B%E5%AD%A6%E4%BC%9A%E6%9C%AC%E4%BA%8B/</guid>
      <description>从Hinton 2015年的开创性论文到DeepSeek R1的推理能力蒸馏，深入解析知识蒸馏的核心原理：温度参数如何软化概率分布？暗知识究竟是什么？损失函数如何平衡硬标签与软标签？涵盖PyTorch完整实现、响应蒸馏与特征蒸馏的技术差异、DistilBERT与TinyBERT的架构对比，以及温度参数选择的数学原理。</description>
    </item>
    <item>
      <title>软标签的秘密：为什么知识蒸馏能让小模型拥有大智慧</title>
      <link>https://answer.freetools.me/%E8%BD%AF%E6%A0%87%E7%AD%BE%E7%9A%84%E7%A7%98%E5%AF%86%E4%B8%BA%E4%BB%80%E4%B9%88%E7%9F%A5%E8%AF%86%E8%92%B8%E9%A6%8F%E8%83%BD%E8%AE%A9%E5%B0%8F%E6%A8%A1%E5%9E%8B%E6%8B%A5%E6%9C%89%E5%A4%A7%E6%99%BA%E6%85%A7/</link>
      <pubDate>Mon, 09 Mar 2026 03:45:14 +0800</pubDate>
      <guid>https://answer.freetools.me/%E8%BD%AF%E6%A0%87%E7%AD%BE%E7%9A%84%E7%A7%98%E5%AF%86%E4%B8%BA%E4%BB%80%E4%B9%88%E7%9F%A5%E8%AF%86%E8%92%B8%E9%A6%8F%E8%83%BD%E8%AE%A9%E5%B0%8F%E6%A8%A1%E5%9E%8B%E6%8B%A5%E6%9C%89%E5%A4%A7%E6%99%BA%E6%85%A7/</guid>
      <description>深入解析知识蒸馏技术的数学原理与工程实践。从Hinton 2015年原始论文中的温度参数与软标签概念，到DeepSeek-R1将推理能力迁移到小模型的最新突破。系统阐述蒸馏损失函数、特征蒸馏、注意力迁移、思维链蒸馏等核心技术，以及容量差距、暗知识的理论解释。包含MNIST实验数据、大模型蒸馏的性能基准、以及蒸馏技术的边界与挑战。</description>
    </item>
    <item>
      <title>为什么最先进的AI依然会编造事实：从训练机制到评估陷阱的技术解密</title>
      <link>https://answer.freetools.me/%E4%B8%BA%E4%BB%80%E4%B9%88%E6%9C%80%E5%85%88%E8%BF%9B%E7%9A%84ai%E4%BE%9D%E7%84%B6%E4%BC%9A%E7%BC%96%E9%80%A0%E4%BA%8B%E5%AE%9E%E4%BB%8E%E8%AE%AD%E7%BB%83%E6%9C%BA%E5%88%B6%E5%88%B0%E8%AF%84%E4%BC%B0%E9%99%B7%E9%98%B1%E7%9A%84%E6%8A%80%E6%9C%AF%E8%A7%A3%E5%AF%86/</link>
      <pubDate>Sun, 08 Mar 2026 12:55:10 +0800</pubDate>
      <guid>https://answer.freetools.me/%E4%B8%BA%E4%BB%80%E4%B9%88%E6%9C%80%E5%85%88%E8%BF%9B%E7%9A%84ai%E4%BE%9D%E7%84%B6%E4%BC%9A%E7%BC%96%E9%80%A0%E4%BA%8B%E5%AE%9E%E4%BB%8E%E8%AE%AD%E7%BB%83%E6%9C%BA%E5%88%B6%E5%88%B0%E8%AF%84%E4%BC%B0%E9%99%B7%E9%98%B1%E7%9A%84%E6%8A%80%E6%9C%AF%E8%A7%A3%E5%AF%86/</guid>
      <description>深入解析大语言模型幻觉现象的科学机制。从2023年Mata v Avianca律师案到OpenAI 2025年论文的核心发现，系统阐述幻觉产生的根本原因：概率生成的本质、知识存储的线性解码机制、训练评估对&amp;#34;猜测&amp;#34;的奖励。涵盖幻觉类型分类（内在/外在、事实性/忠实性）、Vectara幻觉排行榜数据、RAG与Chain-of-Verification等缓解方案的技术权衡，以及温度参数对创造力与事实性的影响。</description>
    </item>
  </channel>
</rss>
