<?xml version="1.0" encoding="UTF-8"?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"
        xmlns:image="http://www.google.com/schemas/sitemap-image/1.1">
  <url>
    <loc>https://kayolu.com/</loc>
    <changefreq>daily</changefreq>
    <priority>1.0</priority>
  </url>
  <url>
    <loc>https://kayolu.com/archive</loc>
    <changefreq>weekly</changefreq>
    <priority>0.6</priority>
  </url>
  <url>
    <loc>https://kayolu.com/about</loc>
    <changefreq>monthly</changefreq>
    <priority>0.5</priority>
  </url>
  
  <url>
    <loc>https://kayolu.com/posts/scheduling-algorithms-for-multiprogramming-in-a-hard-real-time-environment</loc>
    <lastmod>2026-04-24</lastmod>
    <changefreq>monthly</changefreq>
    <priority>0.8</priority>
    
    <image:image>
      <image:loc>https://cdn.kayolu.com/uploads/1776952916707-cover-1776952915234.webp</image:loc>
      <image:title>論文解析 | Scheduling Algorithms for Multiprogramming in a Hard-Real-Time Environment</image:title>
      <image:caption>#Scheduling Algorithms for Multiprogramming in a Hard-Real-Time Environment

Author


C. L. Liu, Project MAC, Massachusetts Institute of Technology
Hames W. Layland, Jet Propulsion Laboratory,…</image:caption>
    </image:image>
  </url>
  <url>
    <loc>https://kayolu.com/posts/pytorch-cnn-masterclass-guide</loc>
    <lastmod>2026-04-24</lastmod>
    <changefreq>monthly</changefreq>
    <priority>0.8</priority>
    
    <image:image>
      <image:loc>/images/pytorch-cnn-guide.png</image:loc>
      <image:title>從零到一：PyTorch 卷積神經網路 (CNN) 全方位實戰指南</image:title>
      <image:caption>這是一篇超過 1000 字的深度技術指南，涵蓋了從數據預處理、CNN 架構設計、損失函數調整到模型評估的完整流程。適合想要深入理解 PyTorch 內部運作機制的開發者。</image:caption>
    </image:image>
  </url>
  <url>
    <loc>https://kayolu.com/posts/attention-machnism-tutorial</loc>
    <lastmod>2026-04-24</lastmod>
    <changefreq>monthly</changefreq>
    <priority>0.8</priority>
    
    <image:image>
      <image:loc>https://images.unsplash.com/photo-1591453089816-0fbb971b454c?crop=entropy&cs=tinysrgb&fit=max&fm=jpg&ixid=M3w5MzQxMzd8MHwxfHJhbmRvbXx8fHx8fHx8fDE3NzcwMzQzNDR8&ixlib=rb-4.1.0&q=80&w=1080&w=1200&h=630&fit=crop&crop=entropy</image:loc>
      <image:title>深入理解 Attention 機制：從原理到實作</image:title>
      <image:caption>在深度學習的發展歷程中，Attention 機制（注意力機制）無疑是近十年來最具革命性的突破之一。從 2015 年首次被引入 Seq2Seq 模型，到 2017 年 Transformer 架構的誕生，再到今天的 GPT、BERT、ChatGPT，Attention 機制始終是這些模型的核心引擎。但 Attention 到底是什麼？它解決了什麼問題？數學原理是什麼？本文將從零開始，帶你完整理解 A</image:caption>
    </image:image>
  </url>
</urlset>