<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>マルレク | MaruLabo</title>
	<atom:link href="https://www.marulabo.net/seminartype/marulec/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.marulabo.net</link>
	<description>技術と科学の未来講座</description>
	<lastBuildDate>Fri, 27 Feb 2026 23:06:29 +0000</lastBuildDate>
	<language>ja</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.5.8</generator>

<image>
	<url>https://www.marulabo.net/wp-content/uploads/2018/12/cropped-logo01-01-02-32x32.png</url>
	<title>マルレク | MaruLabo</title>
	<link>https://www.marulabo.net</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>embeddingの共有・蓄積・検索の未来</title>
		<link>https://www.marulabo.net/docs/infomationshare/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=infomationshare</link>
		
		<dc:creator><![CDATA[MaruyamaFujio]]></dc:creator>
		<pubDate>Sat, 21 Feb 2026 01:21:53 +0000</pubDate>
				<guid isPermaLink="false">https://www.marulabo.net/?post_type=docs&#038;p=7426</guid>

					<description><![CDATA[<p>embeddingがグローバルな検索の世界に与える影響 このパートでは、AIの登場がグローバルなインターネット上の検索に与える影響を見ていきたいと思います。 検索の世界は、今、急速な変化の只中にあります。その変化を特徴 [&#8230;]</p>
<p>The post <a href="https://www.marulabo.net/docs/infomationshare/">embeddingの共有・蓄積・検索の未来</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image size-large"><img fetchpriority="high" decoding="async" width="1024" height="755" src="https://www.marulabo.net/wp-content/uploads/2026/02/Season−3-1024x755.jpg" alt="" class="wp-image-7428" srcset="https://www.marulabo.net/wp-content/uploads/2026/02/Season−3-1024x755.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−3-300x221.jpg 300w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−3-768x566.jpg 768w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−3.jpg 1372w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">Screenshot</figcaption></figure>



<h3 class="wp-block-heading is-style-vk-heading-default">embeddingがグローバルな検索の世界に与える影響</h3>



<p>このパートでは、AIの登場がグローバルなインターネット上の検索に与える影響を見ていきたいと思います。</p>



<p>検索の世界は、今、急速な変化の只中にあります。その変化を特徴づけるのは、機械が「ことばの意味を理解し始めた」という変化です。<mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-red-color">その変化は、<strong>「文字から意味への変化</strong>」と考えることができます。</mark></p>



<p>「機械と人間が意味を共有するembeddingの世界」の登場が、検索の世界を変えようとしています。</p>



<h4 class="wp-block-heading is-style-vk-heading-default">21世紀のIT技術の二度目の大変化</h4>



<p>それは、LLMの能力がRAGによって大きく拡大したという、狭いAI技術の変化の話ではないのです。</p>



<p>振り返ってみれば、GAFAM等のBig Techの成立に結果した21世紀初頭のITの世界の大きな変化は、Googleのグローバルな検索技術の登場によって先導されました。</p>



<p>その成功は、PageRank・MapReduceというアルゴリズムの実行を可能とするWebスケールの大規模分散システムと、「広告モデル」という新しいビジネス・モデルによって支えられたものでした。</p>



<p>四半世紀の時を経て、21世紀のIT技術・ITビジネスは二度目の大きな変化を迎えようとしています。</p>


<div class="wp-block-image">
<figure class="aligncenter size-large is-resized"><img decoding="async" width="751" height="1024" src="https://www.marulabo.net/wp-content/uploads/2026/02/文字から意味へ2-751x1024.jpg" alt="" class="wp-image-7398" style="width:947px;height:auto" srcset="https://www.marulabo.net/wp-content/uploads/2026/02/文字から意味へ2-751x1024.jpg 751w, https://www.marulabo.net/wp-content/uploads/2026/02/文字から意味へ2-220x300.jpg 220w, https://www.marulabo.net/wp-content/uploads/2026/02/文字から意味へ2-768x1048.jpg 768w, https://www.marulabo.net/wp-content/uploads/2026/02/文字から意味へ2.jpg 944w" sizes="(max-width: 751px) 100vw, 751px" /><figcaption class="wp-element-caption">Screenshot</figcaption></figure></div>


<h4 class="wp-block-heading is-style-vk-heading-default">どのような変化を展望するのか</h4>



<p><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-cyan-blue-color">もっとも、予想される変化を現在のIT技術・ITビジネスの延長で考える必要はないと思います。</mark></p>



<p>「機械の言語能力の獲得」は、機械にとっても人間にとっても歴史的な大事件です。より具体的に、「機械と人間が意味を共有するembeddingの世界」の進展は、機械にとっても人間にとっても重要な意味を持ちます。</p>



<p>それは、人類の情報共有と情報蓄積のスタイルが、大きく変わるだろうという展望を我々が持ちうることだと思います。</p><p>The post <a href="https://www.marulabo.net/docs/infomationshare/">embeddingの共有・蓄積・検索の未来</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>“Next token prediction” 描像を超えて</title>
		<link>https://www.marulabo.net/docs/overntp/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=overntp</link>
		
		<dc:creator><![CDATA[MaruyamaFujio]]></dc:creator>
		<pubDate>Sat, 21 Feb 2026 00:05:11 +0000</pubDate>
				<guid isPermaLink="false">https://www.marulabo.net/?post_type=docs&#038;p=7422</guid>

					<description><![CDATA[<p>“Next token prediction” 描像を超える理論の探究 今回のセミナーの問題意識の一つは、LLMを「次のトークンを確率的に予測する」機械として捉える見方は、LLMの現実の振る舞いの説明としては、十分ではな [&#8230;]</p>
<p>The post <a href="https://www.marulabo.net/docs/overntp/">“Next token prediction” 描像を超えて</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image size-large"><img decoding="async" width="1024" height="760" src="https://www.marulabo.net/wp-content/uploads/2026/02/Season−4-1024x760.jpg" alt="" class="wp-image-7418" srcset="https://www.marulabo.net/wp-content/uploads/2026/02/Season−4-1024x760.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−4-300x223.jpg 300w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−4-768x570.jpg 768w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−4.jpg 1340w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">Screenshot</figcaption></figure>



<h2 class="wp-block-heading is-style-vk-heading-default">“Next token prediction” 描像を超える理論の探究</h2>



<p>今回のセミナーの問題意識の一つは、LLMを「次のトークンを確率的に予測する」機械として捉える見方は、LLMの現実の振る舞いの説明としては、十分ではないのではというものです。</p>



<p>“LLM = Next token prediction Machine”という描像は、先のセミナーでも触れたように LLMの成功の技術的バックボーンの役割を果たしました。そのイメージは、一方で、「生成AI = 確率論的オーム」という誤解を生み出し、他方ではAI研究者を含む多くの人に、「LLM = ブラックボックス」であることを印象付けました。ただ、後者の認識は「誤解」ではありません。</p>



<p>LLMのある意味不思議な振る舞い、「LLMは、Next token predictionをするシステムだ」という還元論的特徴づけと、現実のLLMが示す柔軟で高度な意味理解能力の乖離がその典型的な例だと思いますが、そのメカニズムを、embedding論に遡って解明しようとする研究が活発に展開されていることです。</p>



<p>“Next token prediction” 描像を超えるLLM理論の探究は、現在のLLM研究のもっとも興味深い領域だと思います。<br>基本的には、カテゴリー論を使ってこの問題にアプローチする流儀と、AI研究者の「ブラック・ボックス問題」に切り込もうとする流儀の、二つのアプローチがあります。興味深いのは、両者の研究がクロスする状況が生まれていることです。</p>



<h3 class="wp-block-heading is-style-vk-heading-default" id="ai%e7%a0%94%e7%a9%b6%e8%80%85%e3%81%ae%e3%82%a2%e3%83%97%e3%83%ad%e3%83%bc%e3%83%81">AI研究者のアプローチ<a href="https://www.marulabo.net/docs/embedding2/#ai%e7%a0%94%e7%a9%b6%e8%80%85%e3%81%ae%e3%82%a2%e3%83%97%e3%83%ad%e3%83%bc%e3%83%81"></a></h3>



<h4 class="wp-block-heading is-style-vk-heading-default" id="sae-sparse-autoencoders">SAE Sparse Autoencoders<a href="https://www.marulabo.net/docs/embedding2/#sae-sparse-autoencoders"></a></h4>



<p>AnthropicのChristopher Olahらの「スパーズ・オートエンコーダー」 （Sparse Autoencoders） SAE理論が代表的な議論だと思います。</p>



<p>これらの議論は、ブラックボックスとしてのLLMの振る舞いを、説明可能なものとして解明しようとするものです。同時に、こうした研究は、LLMの安全性を人間がキチンとコントロールする可能性を開くものでもあります。</p>



<h5 class="wp-block-heading is-style-vk-heading-default" id="%e9%9f%b3%e5%a3%b0%e6%a6%82%e8%aa%ac%e3%80%80sae">音声概説　SAE<a href="https://www.marulabo.net/docs/embedding2/#%e9%9f%b3%e5%a3%b0%e6%a6%82%e8%aa%ac%e3%80%80sae"></a></h5>



<figure class="wp-block-audio"><audio controls src="https://www.marulabo.net/wp-content/uploads/2026/02/SAE1.mp3"></audio></figure>



<p>個人的には、こうした研究は、VlassopoulosらのLLMの内部動作の解析と通じ、それをステップに BradleyのLLMのMagnitude論に通ずると考えています。</p>



<h4 class="wp-block-heading is-style-vk-heading-default" id="mi-mechanistic-interpretability">MI Mechanistic Interpretability<a href="https://www.marulabo.net/docs/embedding2/#mi-mechanistic-interpretability"></a></h4>



<p>この分野では、Olahらによる議論に触発された「機械論的解釈可能性」(Mechanistic Interpretability) MI理論も 興味深いものです。</p>



<h5 class="wp-block-heading is-style-vk-heading-default" id="%e9%9f%b3%e5%a3%b0%e6%a6%82%e8%aa%ac-mi">音声概説 MI<a href="https://www.marulabo.net/docs/embedding2/#%e9%9f%b3%e5%a3%b0%e6%a6%82%e8%aa%ac-mi"></a></h5>



<figure class="wp-block-audio"><audio controls src="https://www.marulabo.net/wp-content/uploads/2026/02/MI1.mp3"></audio></figure>



<h3 class="wp-block-heading is-style-vk-heading-default" id="%e3%82%ab%e3%83%86%e3%82%b4%e3%83%aa%e3%83%bc%e8%ab%96%e7%9a%84%e3%82%a2%e3%83%97%e3%83%ad%e3%83%bc%e3%83%81">カテゴリー論的アプローチ<a href="https://www.marulabo.net/docs/embedding2/#%e3%82%ab%e3%83%86%e3%82%b4%e3%83%aa%e3%83%bc%e8%ab%96%e7%9a%84%e3%82%a2%e3%83%97%e3%83%ad%e3%83%bc%e3%83%81"></a></h3>



<p>カテゴリー論的アプローチの代表者は、Tai−Danae Bradleyです。<br>彼女の 「co−presheaf 意味論」は、画期的なものです。</p>



<p>画像クリックで、それぞれのセミナーのまとめページにアクセスできます。</p>



<div class="wp-block-columns is-layout-flex wp-container-core-columns-is-layout-1 wp-block-columns-is-layout-flex">
<div class="wp-block-column is-layout-flow wp-block-column-is-layout-flow">
<figure class="wp-block-image size-large"><a href="https://www.marulabo.net/docs/llm-math/"><img loading="lazy" decoding="async" width="1024" height="767" src="https://www.marulabo.net/wp-content/uploads/2023/12/スクリーンショット-2023-12-24-7.20.19-1024x767.png" alt="" class="wp-image-6108" srcset="https://www.marulabo.net/wp-content/uploads/2023/12/スクリーンショット-2023-12-24-7.20.19-1024x767.png 1024w, https://www.marulabo.net/wp-content/uploads/2023/12/スクリーンショット-2023-12-24-7.20.19-300x225.png 300w, https://www.marulabo.net/wp-content/uploads/2023/12/スクリーンショット-2023-12-24-7.20.19-768x575.png 768w, https://www.marulabo.net/wp-content/uploads/2023/12/スクリーンショット-2023-12-24-7.20.19.png 1300w" sizes="(max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>



<div class="wp-block-column is-layout-flow wp-block-column-is-layout-flow">
<figure class="wp-block-image size-large"><a href="https://www.marulabo.net/docs/llm-math2/"><img loading="lazy" decoding="async" width="1024" height="755" src="https://www.marulabo.net/wp-content/uploads/2024/01/スクリーンショット-2024-01-06-19.07.49-1024x755.png" alt="" class="wp-image-6120" srcset="https://www.marulabo.net/wp-content/uploads/2024/01/スクリーンショット-2024-01-06-19.07.49-1024x755.png 1024w, https://www.marulabo.net/wp-content/uploads/2024/01/スクリーンショット-2024-01-06-19.07.49-300x221.png 300w, https://www.marulabo.net/wp-content/uploads/2024/01/スクリーンショット-2024-01-06-19.07.49-768x567.png 768w, https://www.marulabo.net/wp-content/uploads/2024/01/スクリーンショット-2024-01-06-19.07.49.png 1304w" sizes="(max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>
</div>



<div class="wp-block-columns is-layout-flex wp-container-core-columns-is-layout-2 wp-block-columns-is-layout-flex">
<div class="wp-block-column is-layout-flow wp-block-column-is-layout-flow">
<figure class="wp-block-image size-large"><a href="https://www.marulabo.net/docs/llm0/"><img loading="lazy" decoding="async" width="1024" height="771" src="https://www.marulabo.net/wp-content/uploads/2025/12/LLMと意味の理論モデル-1024x771.jpg" alt="" class="wp-image-7276" srcset="https://www.marulabo.net/wp-content/uploads/2025/12/LLMと意味の理論モデル-1024x771.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2025/12/LLMと意味の理論モデル-300x226.jpg 300w, https://www.marulabo.net/wp-content/uploads/2025/12/LLMと意味の理論モデル-768x578.jpg 768w, https://www.marulabo.net/wp-content/uploads/2025/12/LLMと意味の理論モデル.jpg 1264w" sizes="(max-width: 1024px) 100vw, 1024px" /></a><figcaption class="wp-element-caption">Screenshot</figcaption></figure>
</div>



<div class="wp-block-column is-layout-flow wp-block-column-is-layout-flow">
<figure class="wp-block-image size-large"><a href="https://www.marulabo.net/docs/llm%e3%81%ae%e3%83%9e%e3%82%b0%e3%83%8b%e3%83%81%e3%83%a5%e3%83%bc%e3%83%89%e8%ab%96-1-%e2%88%92%e2%88%92-llm%e3%81%ae%e7%a2%ba%e7%8e%87%e8%a8%88%e7%ae%97%e3%81%a8enriched%e3%82%ab%e3%83%86%e3%82%b4-2/"><img loading="lazy" decoding="async" width="1024" height="790" src="https://www.marulabo.net/wp-content/uploads/2026/02/スクリーンショット-2026-02-15-12.27.36-1024x790.jpg" alt="" class="wp-image-7412" srcset="https://www.marulabo.net/wp-content/uploads/2026/02/スクリーンショット-2026-02-15-12.27.36-1024x790.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2026/02/スクリーンショット-2026-02-15-12.27.36-300x231.jpg 300w, https://www.marulabo.net/wp-content/uploads/2026/02/スクリーンショット-2026-02-15-12.27.36-768x593.jpg 768w, https://www.marulabo.net/wp-content/uploads/2026/02/スクリーンショット-2026-02-15-12.27.36.jpg 1182w" sizes="(max-width: 1024px) 100vw, 1024px" /></a><figcaption class="wp-element-caption">Screenshot</figcaption></figure>
</div>
</div>



<h4 class="wp-block-heading is-style-vk-heading-default" id="bradley">Bradley<a href="https://www.marulabo.net/docs/embedding2/#bradley"></a></h4>



<p>彼女の最近の研究は、次の二つの点で大きな前進を遂げています。<br>・LLMの内部の確率計算の精緻な分析。プロンプトxが与えられた時、LLMが出力yを返す確率π( y | x )の計算式を与えました。<br>・その上で、「確率」を「距離」に変換し、「意味の幾何学」への道を開きました。</p>



<h5 class="wp-block-heading is-style-vk-heading-default" id="%e9%9f%b3%e5%a3%b0%e6%a6%82%e8%aa%ac-bradley1">音声概説 Bradley1<a href="https://www.marulabo.net/docs/embedding2/#%e9%9f%b3%e5%a3%b0%e6%a6%82%e8%aa%ac-bradley1"></a></h5>



<figure class="wp-block-audio"><audio controls src="https://www.marulabo.net/wp-content/uploads/2026/02/Bradley1.mp3"></audio></figure>



<h5 class="wp-block-heading is-style-vk-heading-default" id="%e9%9f%b3%e5%a3%b0%e6%a6%82%e8%aa%ac-bradley2">音声概説 Bradley2<a href="https://www.marulabo.net/docs/embedding2/#%e9%9f%b3%e5%a3%b0%e6%a6%82%e8%aa%ac-bradley2"></a></h5>



<figure class="wp-block-audio"><audio controls src="https://www.marulabo.net/wp-content/uploads/2026/02/Bradley2.mp3"></audio></figure>



<h4 class="wp-block-heading is-style-vk-heading-default" id="vlassopoulos">Vlassopoulos<a href="https://www.marulabo.net/docs/embedding2/#vlassopoulos"></a></h4>



<p>Vlassopoulosは、基本的にBradley と同じアプローチをとっています。<br>興味深いのは、彼の議論は、SAE理論の「Superinpose」の議論と親和性が高いと、僕は感じています。</p>



<h5 class="wp-block-heading is-style-vk-heading-default" id="%e9%9f%b3%e5%a3%b0%e6%a6%82%e8%aa%ac%e3%80%80vlassopoulos">音声概説　Vlassopoulos</h5>



<figure class="wp-block-audio"><audio controls src="https://www.marulabo.net/wp-content/uploads/2026/02/Vlassopoulos1.mp3"></audio></figure><p>The post <a href="https://www.marulabo.net/docs/overntp/">“Next token prediction” 描像を超えて</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>embeddingプログラミングの基礎</title>
		<link>https://www.marulabo.net/docs/embedding2/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=embedding2</link>
		
		<dc:creator><![CDATA[MaruyamaFujio]]></dc:creator>
		<pubDate>Sun, 08 Feb 2026 11:59:22 +0000</pubDate>
				<guid isPermaLink="false">https://www.marulabo.net/?post_type=docs&#038;p=7388</guid>

					<description><![CDATA[<p>Part 1 機械と人間が意味を共有するembeddingの世界 このセミナーは、前回のマルレク「機械の言語能力の獲得を考える」の続編になっています。当初は、「機械と人間が意味を共有するembeddingの世界を考える」 [&#8230;]</p>
<p>The post <a href="https://www.marulabo.net/docs/embedding2/">embeddingプログラミングの基礎</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="757" src="https://www.marulabo.net/wp-content/uploads/2026/02/Season−2x-1024x757.jpg" alt="" class="wp-image-7430" srcset="https://www.marulabo.net/wp-content/uploads/2026/02/Season−2x-1024x757.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−2x-300x222.jpg 300w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−2x-768x567.jpg 768w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−2x.jpg 1126w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">Screenshot</figcaption></figure>



<h2 class="wp-block-heading is-style-vk-heading-default">Part 1 機械と人間が意味を共有するembeddingの世界</h2>



<p>このセミナーは、前回のマルレク「機械の言語能力の獲得を考える」の続編になっています。当初は、「機械と人間が意味を共有するembeddingの世界を考える」というタイトルで予告されたものです。タイトル変更に伴う、今後のセミナー開催の予定については、このページの最後をご覧ください。</p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/competence/" title="">前回のセミナー「機械の言語能力の獲得を考える」</a>を振り返る</h3>



<p>↑ 見出しクリックで前回セミナーの「まとめページ」へ<br>前回のセミナーのblog リストは、<a href="https://maruyama097.blogspot.com/2025/12/embedding-blog.html" title="">こちら</a> をクリック。</p>



<p>前回のセミナーは、現代のAI技術の到達点を「機械が言語能力を獲得した」と捉え、その中核を「意味を理解する」能力の獲得と見なして議論を展開していました。</p>



<p>その中心問題は、機械はどのようにして「意味を理解する」ようになったのかという問いであり、これに対して「意味の分散表現論」の発展が一つの答えを与えると述べています。</p>



<p><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-cyan-blue-color"><strong>この四半世紀のAI技術の理論史は、「意味とは何か」を探求する「意味の分散表現論」すなわちembedding論の発展史であると考えることができます。</strong></mark></p>



<p>語の意味の分散表現が文の意味の分散表現へと進み、それをベースとした「翻訳モデル」がAttention メカニズムの導入により発展します。　変化はさらに続きます。Transformerを頂点とした「翻訳モデル」がencoder-only / decoder-only アーキテクチャーに分解・解体する中で、後者のアーキテクチャーの「勝利」として、「大規模言語モデル」が成立します。</p>



<p><strong><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-red-color">「機械の言語能力の獲得」という機械の能力の画期的な拡大を可能としたのは、技術的には、強力な「大規模言語モデル」の成立によるものです。</mark></strong></p>



<h4 class="wp-block-heading is-style-vk-heading-default">マルレク<a href="https://www.marulabo.net/docs/competence/" title="">「機械の言語能力の獲得を考える」</a>のAIによる要約</h4>



<p>意味の分散表現論、翻訳モデルから大規模言語モデルの成立の歴史を振り返ったこのセミナーは、embeddingに注目するこの連続セミナーの基本的な問題意識を示しています。</p>



<p class="is-style-vk-heading-default"><span data-fontsize="18px" style="font-size: 18px;" class="vk_inline-font-size"><strong>前回のセミナーのAIによる音声概要</strong></span></p>



<p>このセミナーのAIによる音声概要は、次からアクセスできます。200ページの長い資料がとてもよくまとまっています。ぜひ、お聞きください。</p>



<figure class="wp-block-audio"><audio controls src="https://www.marulabo.net/wp-content/uploads/2026/02/AIandEmbeddings.mp3"></audio></figure>



<p></p>



<p class="is-style-vk-heading-default"><strong>前回のセミナーのメインのpdf資料のAIによるまとめ</strong></p>



<p>また、<a href="https://drive.google.com/file/d/10PMapPcsoPvi3oYLbl9PlcvfLNJyGBsw/view?usp=sharing" title="">このセミナーのメインのpdf資料</a>のAIによるまとめは、次のリンクからアクセスできます。<br><a href="https://maruyama097.blogspot.com/2026/02/blog-post_22.html">https://maruyama097.blogspot.com/2026/02/blog-post_22.html</a></p>



<p>セミナー資料は、次のリンクで公開済みです。<a href="https://maruyama097.blogspot.com/2026/02/blog-post.html" title="">「マルレク「機械の言語能力の獲得を考える」の講演ビデオと講演資料公開しました」</a></p>



<h3 class="wp-block-heading is-style-vk-heading-default">機械と人間が意味を共有するembeddingの世界を考える</h3>



<p>先のセミナーの振り返りでもみたように、機械が言語能力を獲得できたのは、人間のことばの意味をLLMがembeddingを通じて、理解できるようになったからだと考えています。</p>



<p>ただ、LLMが Next token predictionマシンであるという一般的な認識と、それがコンテキストを含む言葉の意味を理解する能力として現れるという認識には、ギャップがあるように思います。</p>



<p>また、embeddingは、それ自身で既に「世界」についての情報を豊富に含んでいるように思えます。そうした特徴は外付けのRAGとは独立なものです。それは、embedding の生成メカニズムそのものに根ざしているはずです。</p>



<p>ただ、こうした問題の多くに、今回のセミナーでは、答えることができませんでした。予告したコンテンツを一回のセミナーに収めることが難しくなっていて、セミナーを分割することになりました。</p>



<p class="is-style-vk-heading-default"><span data-fontsize="21px" style="font-size: 21px;" class="vk_inline-font-size"><strong>embedding プログラミングを学ぶことの意味</strong></span></p>



<p>今回のセミナーでは、直接embeddingを操作するembeddingプログラミングを紹介します。<br>AIが、ほとんどどんなプログラムも作ってくれる時代に、プリミティブなembeddingプログラミングを学ぶことの意味を確認しておきましょう。</p>



<p class="is-style-vk-heading-default"><span data-fontsize="18px" style="font-size: 18px;" class="vk_inline-font-size"><strong>機械と意味を通じ合うための「共通言語」としての理解</strong></span></p>



<p><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-cyan-blue-color"><strong>僕は、Embeddingの発見を「この4半世紀のAI研究の白眉」と高く評価し、それを「人間と機械の共通言語」と呼んでいます。また、人間にとってEmbeddingは、音声や文字に次ぐ「ことばの第三の形態」であるとも位置づけています。 </strong></mark></p>



<p>単なるプログラミングテクニックとしてだけでなく、「機械がどのように言葉の意味を数値（ベクトル）として捉え、意味の近さを計算しているのか（コサイン類似度など）」を知ることは、機械の言語理解の本質に触れることであり、AIを活用する上での強力な土台となります。</p>



<p class="is-style-vk-heading-default"><span data-fontsize="18px" style="font-size: 18px;" class="vk_inline-font-size"><strong>信頼性の高いAIシステムの根幹技術であるため</strong></span></p>



<p>LLMの弱点であるハルシネーションを抑制し、情報の透明性と正確性を担保する手法として「RAG（検索拡張生成）」が重要視されています。 RAGのパイプラインでは、テキストをEmbeddingに変換してベクトルデータベースに登録し、ユーザーの入力とのコサイン類似度を用いて関連情報を検索（Vector Search）するというプロセスが必須のステップとして組み込まれています。 </p>



<p>AIがコード自体を書いてくれるとしても、この「データをどのようにチャンクに分割し、ベクトル化して検索させるか」というシステム全体の設計やチューニングは人間が行う必要があり、その裏側にある技術を理解しているかどうかがシステムの品質を左右します。</p>



<p class="is-style-vk-heading-default"><span data-fontsize="18px" style="font-size: 18px;" class="vk_inline-font-size"><strong>より高度なシステムへの進化に対応するため</strong></span></p>



<p>AI技術は、単純なベクトル検索を行うものから、クエリの書き換えや再順位付けを行う「Advanced RAG」、さらにはAIが自律的に検索対象や再検索を判断する「Agentic RAG」へと急速に進化しています。また、今後は「embeddingの共有・蓄積・検索」が情報の世界に大きなインパクトを与えると予想されています。</p>



<p>AIにプログラミングを任せる時代だからこそ、ブラックボックスになりがちな「ベクトル空間における意味の検索」の仕組みを人間が直接理解しておくことで、AIに対してより高度な指示を出し、生成されたシステムの評価や改善を正確に行うことができるようになると考えられます。</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="マルレク「embeddingプログラミングの基礎」へのお誘い" width="1140" height="855" src="https://www.youtube.com/embed/UthMNlQtI-w?list=PLQIrJ0f9gMcMtd68N6t0r-R-V_keMWFhH" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<h2 class="wp-block-heading is-style-vk-heading-default">Part 2 embedding プログラミング入門</h2>



<p class="is-style-vk-heading-default"><span data-fontsize="18px" style="font-size: 18px;" class="vk_inline-font-size"><strong>Language Model と Embedding Model</strong></span></p>



<p>多くのAI ベンダーは、Language Model (LLM) と並んで Embedding Modelを提供しています。</p>



<p>OpenAIの text-embedding-3-large, Googleのgemini-embedding-001をはじめとして、Cohere, Voyage AI, Mistral AI, Jina AI&nbsp; 等、多くのAIベンダーから多くのembeddingモデルが公開されています。オープンソースのHugging FaceのBGE(Beijing Academy of AI)もよく利用されているようです。</p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://drive.google.com/file/d/1S3mnJNDgMvcU1ZDrzfCKsJKisT-ejhqj/view?usp=sharing" title="">embedding体験入門</a></h3>



<p>↑ 見出しクリックでpdfへ</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="embedding体験入門" width="1140" height="855" src="https://www.youtube.com/embed/pZWu7bCaQrc?list=PLQIrJ0f9gMcMtd68N6t0r-R-V_keMWFhH" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<h3 class="wp-block-heading is-style-vk-heading-default">Amazon レビュー情報からの意味的検索</h3>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://drive.google.com/file/d/1a7L9lvWR8PisjpHqaS3qDUakKZA5avn6/view?usp=sharing" title="">データを準備する</a></h4>



<p>↑ 見出しクリックでpdfへ</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="Amazon レビュー情報からの意味的検索 1" width="1140" height="855" src="https://www.youtube.com/embed/Sm7Cy7vBKY0?list=PLQIrJ0f9gMcMtd68N6t0r-R-V_keMWFhH" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://drive.google.com/file/d/1I4rzpR5aj3h0taf48KGyRCjCEIpWWAU5/view?usp=sharing" title=""> embeddingを利用したテキストの意味的検索</a></h4>



<p>↑ 見出しクリックでpdfへ</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="embeddingを利用したテキストの検索" width="1140" height="855" src="https://www.youtube.com/embed/bqkqn28DUYs?list=PLQIrJ0f9gMcMtd68N6t0r-R-V_keMWFhH" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<h2 class="wp-block-heading is-style-vk-heading-default">Part 3 embeddingと検索技術の新しい展開</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://drive.google.com/file/d/1_BfAhMTajClsgL8b1Ac0vgBpFmedc7Aw/view?usp=sharing" title="">文字列検索と画像検索 </a></h3>



<p>↑ 見出しクリックでpdfへ</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="文字列検索と画像検索−− Vector Searchとembedding" width="1140" height="855" src="https://www.youtube.com/embed/cMlAlVRv44w?list=PLQIrJ0f9gMcMtd68N6t0r-R-V_keMWFhH" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://drive.google.com/file/d/1o5Admupdnf25Tmbwlk9Q8Usd51j4RTJF/view?usp=sharing" title="">Vector Search </a>の紹介</h3>



<p>↑ 見出しクリックでpdfへ</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="Vector Search−-embeddingを検索する" width="1140" height="855" src="https://www.youtube.com/embed/Ks1NkPEAjHU?list=PLQIrJ0f9gMcMtd68N6t0r-R-V_keMWFhH" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://drive.google.com/file/d/1sUwqowHcOu5vo_DtWeUhGUy3wyEdaVZR/view?usp=sharing" title="">マトリョーシカ −− embedding技術の革新</a></h3>



<p>↑ 見出しクリックでpdfへ</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="embedding技術の発展 −− マトリョーシカ" width="1140" height="855" src="https://www.youtube.com/embed/Z9WJeB0r2rY?list=PLQIrJ0f9gMcMtd68N6t0r-R-V_keMWFhH" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://drive.google.com/file/d/1WrCJuiqW7tRMP7_IFTtgMsyibJZQR-S0/view?usp=sharing" title="">Adaptive Classification</a></h4>



<p><a href="https://drive.google.com/file/d/1WrCJuiqW7tRMP7_IFTtgMsyibJZQR-S0/view?usp=sharing">↑ 見出しクリックでpdfへ</a></p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="Adaptive Classification" width="1140" height="855" src="https://www.youtube.com/embed/Da7SJA-gtug?list=PLQIrJ0f9gMcMtd68N6t0r-R-V_keMWFhH" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://drive.google.com/file/d/1Nb8Yb3OoUnO5GSclGoRIlSOUtQ8ZdtsU/view?usp=sharing" title="">Adaptive Retrieval</a></h4>



<p>↑ 見出しクリックでpdfへ</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="Adaptive Retrieval" width="1140" height="855" src="https://www.youtube.com/embed/9W5SIR2gL6Q?list=PLQIrJ0f9gMcMtd68N6t0r-R-V_keMWFhH" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<h2 class="wp-block-heading is-style-vk-heading-default">今後のセミナーについて</h2>



<p>前回のセミナーと今回のセミナーと合わせて、次のようなセミナーを開催することになります。準備中のセミナーを分割したので、それぞれのまとめページを別個に作成しました。下のセミナー・タイトルのクリックで、それぞれのセミナーのまとめページにジャンプできます。</p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/infomationshare/" title="">「embeddingの共有・蓄積・検索の未来」</a></h3>



<p>embedding技術が可能とする情報の共有と情報の蓄積と検索の未来について考えます。</p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/overntp/" title="">“Next token prediction” 描像を超えて</a></h3>



<p>“Next token prediction&#8221;のみかけ上の単純さの背後には、embeddingに表現される複雑な「意味の世界」が隠れています。</p>



<p>下の画像クリックで、それぞれのセミナーのまとめページにジャンプできます。</p>



<div class="wp-block-columns is-layout-flex wp-container-core-columns-is-layout-3 wp-block-columns-is-layout-flex">
<div class="wp-block-column is-layout-flow wp-block-column-is-layout-flow">
<figure class="wp-block-image size-large"><a href="https://www.marulabo.net/docs/competence/"><img loading="lazy" decoding="async" width="1024" height="745" src="https://www.marulabo.net/wp-content/uploads/2026/01/セミナータイトル2026−01−31-1024x745.jpg" alt="" class="wp-image-7339" srcset="https://www.marulabo.net/wp-content/uploads/2026/01/セミナータイトル2026−01−31-1024x745.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2026/01/セミナータイトル2026−01−31-300x218.jpg 300w, https://www.marulabo.net/wp-content/uploads/2026/01/セミナータイトル2026−01−31-768x559.jpg 768w, https://www.marulabo.net/wp-content/uploads/2026/01/セミナータイトル2026−01−31.jpg 1152w" sizes="(max-width: 1024px) 100vw, 1024px" /></a><figcaption class="wp-element-caption"><a href="https://www.marulabo.net/docs/competence/">https://www.marulabo.net/docs/competence/</a></figcaption></figure>
</div>



<div class="wp-block-column is-layout-flow wp-block-column-is-layout-flow">
<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="757" src="https://www.marulabo.net/wp-content/uploads/2026/02/Season−2x-1024x757.jpg" alt="" class="wp-image-7430" srcset="https://www.marulabo.net/wp-content/uploads/2026/02/Season−2x-1024x757.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−2x-300x222.jpg 300w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−2x-768x567.jpg 768w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−2x.jpg 1126w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption"><a href="https://draft.blogger.com/blog/post/edit/633957148720976943/6093079773345027412#">https://www.marulabo.net/docs/embedding2/</a><br></figcaption></figure>
</div>
</div>



<div class="wp-block-columns is-layout-flex wp-container-core-columns-is-layout-4 wp-block-columns-is-layout-flex">
<div class="wp-block-column is-layout-flow wp-block-column-is-layout-flow">
<figure class="wp-block-image size-large"><a href="https://www.marulabo.net/docs/infomationshare/"><img loading="lazy" decoding="async" width="1024" height="755" src="https://www.marulabo.net/wp-content/uploads/2026/02/Season−3-1-1024x755.jpg" alt="" class="wp-image-7429" srcset="https://www.marulabo.net/wp-content/uploads/2026/02/Season−3-1-1024x755.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−3-1-300x221.jpg 300w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−3-1-768x566.jpg 768w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−3-1.jpg 1372w" sizes="(max-width: 1024px) 100vw, 1024px" /></a><figcaption class="wp-element-caption"><a href="https://www.marulabo.net/docs/infomationshare/">https://www.marulabo.net/docs/infomationshare/</a></figcaption></figure>
</div>



<div class="wp-block-column is-layout-flow wp-block-column-is-layout-flow">
<figure class="wp-block-image size-large"><a href="https://www.marulabo.net/docs/overntp/"><img loading="lazy" decoding="async" width="1024" height="760" src="https://www.marulabo.net/wp-content/uploads/2026/02/Season−4-1024x760.jpg" alt="" class="wp-image-7418" srcset="https://www.marulabo.net/wp-content/uploads/2026/02/Season−4-1024x760.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−4-300x223.jpg 300w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−4-768x570.jpg 768w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−4.jpg 1340w" sizes="(max-width: 1024px) 100vw, 1024px" /></a><figcaption class="wp-element-caption"><a href="https://www.marulabo.net/docs/overntp/">https://www.marulabo.net/docs/overntp/</a></figcaption></figure>
</div>
</div><p>The post <a href="https://www.marulabo.net/docs/embedding2/">embeddingプログラミングの基礎</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>LLMのマグニチュード論 1 −− LLMの確率計算とenrichedカテゴリー論</title>
		<link>https://www.marulabo.net/docs/llm%e3%81%ae%e3%83%9e%e3%82%b0%e3%83%8b%e3%83%81%e3%83%a5%e3%83%bc%e3%83%89%e8%ab%96-1-%e2%88%92%e2%88%92-llm%e3%81%ae%e7%a2%ba%e7%8e%87%e8%a8%88%e7%ae%97%e3%81%a8enriched%e3%82%ab%e3%83%86%e3%82%b4-2/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=llm%25e3%2581%25ae%25e3%2583%259e%25e3%2582%25b0%25e3%2583%258b%25e3%2583%2581%25e3%2583%25a5%25e3%2583%25bc%25e3%2583%2589%25e8%25ab%2596-1-%25e2%2588%2592%25e2%2588%2592-llm%25e3%2581%25ae%25e7%25a2%25ba%25e7%258e%2587%25e8%25a8%2588%25e7%25ae%2597%25e3%2581%25a8enriched%25e3%2582%25ab%25e3%2583%2586%25e3%2582%25b4-2</link>
		
		<dc:creator><![CDATA[MaruyamaFujio]]></dc:creator>
		<pubDate>Fri, 19 Dec 2025 06:30:18 +0000</pubDate>
				<guid isPermaLink="false">https://www.marulabo.net/?post_type=docs&#038;p=7308</guid>

					<description><![CDATA[<p>はじめに 今回のマルレクは、LLMの理論研究で、もっとも新しく最も先進的な業績である Tai−Danae Bradleyの論文 &#8220;The Magnitude of Categories of Texts En [&#8230;]</p>
<p>The post <a href="https://www.marulabo.net/docs/llm%e3%81%ae%e3%83%9e%e3%82%b0%e3%83%8b%e3%83%81%e3%83%a5%e3%83%bc%e3%83%89%e8%ab%96-1-%e2%88%92%e2%88%92-llm%e3%81%ae%e7%a2%ba%e7%8e%87%e8%a8%88%e7%ae%97%e3%81%a8enriched%e3%82%ab%e3%83%86%e3%82%b4-2/">LLMのマグニチュード論 1 −− LLMの確率計算とenrichedカテゴリー論</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image is-resized alignnone size-medium wp-image-7107"><img loading="lazy" decoding="async" width="300" height="223" src="https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53-300x223.jpg" alt="" class="wp-image-7107" style="width:962px;height:auto" srcset="https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53-300x223.jpg 300w, https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53-1024x762.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53-768x571.jpg 768w, https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53.jpg 1148w" sizes="(max-width: 300px) 100vw, 300px" /><figcaption class="wp-element-caption">Screenshot</figcaption></figure>



<h2 class="wp-block-heading is-style-vk-heading-default">はじめに</h2>



<p>今回のマルレクは、LLMの理論研究で、もっとも新しく最も先進的な業績である Tai−Danae Bradleyの論文 &#8220;The Magnitude of Categories of Texts Enriched by Language Models&#8221;<br><a href="https://draft.blogger.com/blog/post/edit/633957148720976943/7505595375502458078#">https://arxiv.org/pdf/2501.06662</a>&nbsp;の紹介をしようと思います。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">この論文が扱っている二つの課題</h3>



<p>この論文は、二つの問題を扱っています。</p>



<p>一つは、LLMの意味論に カテゴリー論的基礎を与えた 2022年のBradleyらの論文<br>&#8220;An enriched category theory of language: From syntax to semantics.&#8221;<br><a href="https://draft.blogger.com/blog/post/edit/633957148720976943/7505595375502458078#">https://arxiv.org/pdf/2106.07890</a></p>



<p>のアプローチを、たとえば、LLMが行っている「プロンプトの入力」「プロンプトへの回答の出力」というLLMの現実の振る舞いの解釈にまで拡大するという課題です。</p>



<p>もう一つの課題は、拡大されたLLMの理論とmagnitudeの理論を結びつけることです。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">LLMモデルの拡大</h3>



<p>第一の課題である 2022年論文の拡大については、この論文の第二セクション &#8220;2. Obtaining Enriched Categories from an LLM&#8221; で展開されています。</p>



<p>2022年の論文は、LLM意味論にco−presheaf意味論というフレームを導入し、さらにそのカテゴリーのオブジェクト間の射に、enrichedカテゴリーの手法で、LLMと同じように[0,1]の値を持つ確率値を付与するというものでした。それは、LLMの振る舞いと意味の数学的モデルとしては、画期的なものでした。ただ、テキストxが与えられた時のテキストy の条件付き確率 𝜋( y | x )を直接与えるものではありませんでした。</p>



<p>今回の論文では、以前の[0,1]の値を取る確率モデルを [0, ♾️] の値を取るLawvereの一般化された距離空間のモデルに変えています。ここでもenrichedカテゴリー論の手法が利用されます。</p>



<p>さらに、文頭を表すトークン&#8217;⊥&#8217; と文末を表すトークン&#8217;†&#8217;を導入して、&#8217;⊥&#8217; で始まり&#8217;†&#8217; でおわるプロンプトxに対して、テキスト生成の終了条件を明示的に示しつつ、co−presheafに対応する 𝜋( ー | x )の計算ができるようになりました。</p>



<p>論文のモデルは、現実のLLMの具体的な振る舞いを解釈することを目指したものです。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">LLMとmagnitude論</h3>



<p>拡大されたLLMの理論とmagnitudeの理論を結びつけるという二つ目の課題は、この論文の第三セクション &#8220;3. Magnitude&#8221; で展開されています。</p>



<p>論文では、要素が文字列 x, y, &#8230; であり、二点間の距離が d( x, y ) = − ln π( y | x)&nbsp; で与えられる一般化された距離空間 M のmagnitudeが研究されています。こでのMは、LLMの生成する距離空間に他なりません。</p>



<p>論文のタイトル &#8220;The Magnitude of Categories of Texts Enriched by Language Models&#8221; 「言語モデルによってenrich化されたテキストのカテゴリーのマグニチュード」は、このパートが、論文の主要な内容であることを示しています。実際、多くの結果が語られています。</p>



<p>論文は、M のmagnitude 関数 f( t ) は、テキスト x (プロンプト) に対する、次トークン確率分布 p( − | x ) の Tsallis t−エントロピーと、モデルの可能な出力のカーディナリティの和であることを証明しています。</p>



<p>また、f の t = 1 における導関数はシャノンエントロピーの和を再現すること、これによりmagnitudeを分割関数と見なすことが正当化されると述べています。</p>



<p>さらに論文は、M のmagnitude関数をmagnitude のホモロジーにおけるオイラー特性として表現し、第0次および第1次magnitude Homology群の明示的な記述を提供しています。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">セミナーの構成 </h3>



<p>前回のセミナーでMagnitude論の紹介を始めたのですが、まだ、入り口のところで終わっています。今回のセミナーのメインの論文の解説に入る前に、そこを補う必要があると思っています。今回のセミナーでは、次のような構成を考えています。</p>



<p>　　Part 1&nbsp; Magnitude論の展開<br>　　Part 2&nbsp; LLMモデルの拡大　　（論文の第二セクションに対応）<br>　　Part 3&nbsp; LLMとMagnitude論 （論文の第三セクションに対応）</p>



<p>実際のセッションは、それぞれのPartを行ったり来たりする形で進めたいと思っています。</p>



<h2 class="wp-block-heading is-style-vk-heading-default">セミナーに向けたセッション資料</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/7XtYnz6IpkM?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">BradleyのLLMのマグニチュード論への招待</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1Dh_lza2ejo4GwxIpJ8iRMk2dJpqgANCG/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/xfPTdRTWAC8?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">Bradleyの理論を学ぶ</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/155zV2DoCbHw-VblbrQ7WP7yIoaXwh1yV/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/Sn4YVvc_F2w?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">トークンとテキスト</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/11oAZla0Z0krd4ajXrAK75A5Au84eD34_/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/1hIrxyYRP6A?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">LLMとテキスト上の誘導確率</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1niruk7_jmKYl3ZVV-j5uzxgebBI19-cT/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/7KJeDC482AI?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">LLMの確率計算の基本</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/182D1nhVmjk6stoKjQ2Q0VwmxB_PrgZn2/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/5DyL1k3rVzs?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">論文前半の基本定理の証明</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1PIFKecQkyEX36hnr050gzMZb_ee0VmJ_/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/x0p81M-EJhU?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">LLMへのenrichedカテゴリー論の応用</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1xbjfxIVk38JGH_Ik-lBdt9Rp2-F7kaO2/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/rwXB6TCJ2Vo?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">マルレク「LLMのマグニチュード論 1」へのお誘い</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1vKmIbxNCH2ZZU3SWIwqC_ipwoR_TW4GY/preview" width="640" height="480"></iframe></p>



<h2 class="wp-block-heading is-style-vk-heading-default">LLMの新しい理論研究(1)　関連リンク</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><mark style="background-color:#ffffff" class="has-inline-color has-vivid-cyan-blue-color"><a href="https://www.marulabo.net/docs/llm0/" title="">LLMと意味の理論モデル概説</a></mark></h3>



<h4 class="wp-block-heading is-style-vk-heading-default"><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-cyan-blue-color"><a href="https://www.marulabo.net/docs/magnitude/" title="">マグニチュードとは何か</a></mark></h4>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm1bradley/" title="">マグニチュード論の展開</a></h4>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="http://https-www-marulabo-net-docs-llm1bradley2" title="">LLMのマグニチュード論</a></h4>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm0/#Bradley%E3%81%AEcopresheaf%E6%84%8F%E5%91%B3%E8%AB%96" title="">Bradleyのco−presheaf意味論</a></h3>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm-math/">大規模言語モデルの数学的構造 I</a></h4>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm-math2/">大規模言語モデルの数学的構造 II</a></h4><p>The post <a href="https://www.marulabo.net/docs/llm%e3%81%ae%e3%83%9e%e3%82%b0%e3%83%8b%e3%83%81%e3%83%a5%e3%83%bc%e3%83%89%e8%ab%96-1-%e2%88%92%e2%88%92-llm%e3%81%ae%e7%a2%ba%e7%8e%87%e8%a8%88%e7%ae%97%e3%81%a8enriched%e3%82%ab%e3%83%86%e3%82%b4-2/">LLMのマグニチュード論 1 −− LLMの確率計算とenrichedカテゴリー論</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>LLMのマグニチュード論 1 −− LLMの確率計算とenrichedカテゴリー論</title>
		<link>https://www.marulabo.net/docs/llm%e3%81%ae%e3%83%9e%e3%82%b0%e3%83%8b%e3%83%81%e3%83%a5%e3%83%bc%e3%83%89%e8%ab%96-1-%e2%88%92%e2%88%92-llm%e3%81%ae%e7%a2%ba%e7%8e%87%e8%a8%88%e7%ae%97%e3%81%a8enriched%e3%82%ab%e3%83%86%e3%82%b4/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=llm%25e3%2581%25ae%25e3%2583%259e%25e3%2582%25b0%25e3%2583%258b%25e3%2583%2581%25e3%2583%25a5%25e3%2583%25bc%25e3%2583%2589%25e8%25ab%2596-1-%25e2%2588%2592%25e2%2588%2592-llm%25e3%2581%25ae%25e7%25a2%25ba%25e7%258e%2587%25e8%25a8%2588%25e7%25ae%2597%25e3%2581%25a8enriched%25e3%2582%25ab%25e3%2583%2586%25e3%2582%25b4</link>
		
		<dc:creator><![CDATA[MaruyamaFujio]]></dc:creator>
		<pubDate>Thu, 11 Dec 2025 09:42:55 +0000</pubDate>
				<guid isPermaLink="false">https://www.marulabo.net/?post_type=docs&#038;p=7281</guid>

					<description><![CDATA[<p>はじめに 今回のマルレクは、LLMの理論研究で、もっとも新しく最も先進的な業績である Tai−Danae Bradleyの論文 &#8220;The Magnitude of Categories of Texts En [&#8230;]</p>
<p>The post <a href="https://www.marulabo.net/docs/llm%e3%81%ae%e3%83%9e%e3%82%b0%e3%83%8b%e3%83%81%e3%83%a5%e3%83%bc%e3%83%89%e8%ab%96-1-%e2%88%92%e2%88%92-llm%e3%81%ae%e7%a2%ba%e7%8e%87%e8%a8%88%e7%ae%97%e3%81%a8enriched%e3%82%ab%e3%83%86%e3%82%b4/">LLMのマグニチュード論 1 −− LLMの確率計算とenrichedカテゴリー論</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image is-resized alignnone size-medium wp-image-7107"><img loading="lazy" decoding="async" width="300" height="223" src="https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53-300x223.jpg" alt="" class="wp-image-7107" style="width:962px;height:auto" srcset="https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53-300x223.jpg 300w, https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53-1024x762.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53-768x571.jpg 768w, https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53.jpg 1148w" sizes="(max-width: 300px) 100vw, 300px" /><figcaption class="wp-element-caption">Screenshot</figcaption></figure>



<h2 class="wp-block-heading is-style-vk-heading-default">はじめに</h2>



<p>今回のマルレクは、LLMの理論研究で、もっとも新しく最も先進的な業績である Tai−Danae Bradleyの論文 &#8220;The Magnitude of Categories of Texts Enriched by Language Models&#8221;<br><a href="https://draft.blogger.com/blog/post/edit/633957148720976943/7505595375502458078#">https://arxiv.org/pdf/2501.06662</a>&nbsp;の紹介をしようと思います。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">この論文が扱っている二つの課題</h3>



<p>この論文は、二つの問題を扱っています。</p>



<p>一つは、LLMの意味論に カテゴリー論的基礎を与えた 2022年のBradleyらの論文<br>&#8220;An enriched category theory of language: From syntax to semantics.&#8221;<br><a href="https://draft.blogger.com/blog/post/edit/633957148720976943/7505595375502458078#">https://arxiv.org/pdf/2106.07890</a></p>



<p>のアプローチを、たとえば、LLMが行っている「プロンプトの入力」「プロンプトへの回答の出力」というLLMの現実の振る舞いの解釈にまで拡大するという課題です。</p>



<p>もう一つの課題は、拡大されたLLMの理論とmagnitudeの理論を結びつけることです。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">LLMモデルの拡大</h3>



<p>第一の課題である 2022年論文の拡大については、この論文の第二セクション &#8220;2. Obtaining Enriched Categories from an LLM&#8221; で展開されています。</p>



<p>2022年の論文は、LLM意味論にco−presheaf意味論というフレームを導入し、さらにそのカテゴリーのオブジェクト間の射に、enrichedカテゴリーの手法で、LLMと同じように[0,1]の値を持つ確率値を付与するというものでした。それは、LLMの振る舞いと意味の数学的モデルとしては、画期的なものでした。ただ、テキストxが与えられた時のテキストy の条件付き確率 𝜋( y | x )を直接与えるものではありませんでした。</p>



<p>今回の論文では、以前の[0,1]の値を取る確率モデルを [0, ♾️] の値を取るLawvereの一般化された距離空間のモデルに変えています。ここでもenrichedカテゴリー論の手法が利用されます。</p>



<p>さらに、文頭を表すトークン&#8217;⊥&#8217; と文末を表すトークン&#8217;†&#8217;を導入して、&#8217;⊥&#8217; で始まり&#8217;†&#8217; でおわるプロンプトxに対して、テキスト生成の終了条件を明示的に示しつつ、co−presheafに対応する 𝜋( ー | x )の計算ができるようになりました。</p>



<p>論文のモデルは、現実のLLMの具体的な振る舞いを解釈することを目指したものです。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">LLMとmagnitude論</h3>



<p>拡大されたLLMの理論とmagnitudeの理論を結びつけるという二つ目の課題は、この論文の第三セクション &#8220;3. Magnitude&#8221; で展開されています。</p>



<p>論文では、要素が文字列 x, y, &#8230; であり、二点間の距離が d( x, y ) = − ln π( y | x)&nbsp; で与えられる一般化された距離空間 M のmagnitudeが研究されています。こでのMは、LLMの生成する距離空間に他なりません。</p>



<p>論文のタイトル &#8220;The Magnitude of Categories of Texts Enriched by Language Models&#8221; 「言語モデルによってenrich化されたテキストのカテゴリーのマグニチュード」は、このパートが、論文の主要な内容であることを示しています。実際、多くの結果が語られています。</p>



<p>論文は、M のmagnitude 関数 f( t ) は、テキスト x (プロンプト) に対する、次トークン確率分布 p( − | x ) の Tsallis t−エントロピーと、モデルの可能な出力のカーディナリティの和であることを証明しています。</p>



<p>また、f の t = 1 における導関数はシャノンエントロピーの和を再現すること、これによりmagnitudeを分割関数と見なすことが正当化されると述べています。</p>



<p>さらに論文は、M のmagnitude関数をmagnitude のホモロジーにおけるオイラー特性として表現し、第0次および第1次magnitude Homology群の明示的な記述を提供しています。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">セミナーの構成 </h3>



<p>前回のセミナーでMagnitude論の紹介を始めたのですが、まだ、入り口のところで終わっています。今回のセミナーのメインの論文の解説に入る前に、そこを補う必要があると思っています。今回のセミナーでは、次のような構成を考えています。</p>



<p>　　Part 1&nbsp; Magnitude論の展開<br>　　Part 2&nbsp; LLMモデルの拡大　　（論文の第二セクションに対応）<br>　　Part 3&nbsp; LLMとMagnitude論 （論文の第三セクションに対応）</p>



<p>実際のセッションは、それぞれのPartを行ったり来たりする形で進めたいと思っています。</p>



<h2 class="wp-block-heading is-style-vk-heading-default">セミナーに向けたセッション資料</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/7XtYnz6IpkM?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">BradleyのLLMのマグニチュード論への招待</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1Dh_lza2ejo4GwxIpJ8iRMk2dJpqgANCG/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/xfPTdRTWAC8?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">Bradleyの理論を学ぶ</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/155zV2DoCbHw-VblbrQ7WP7yIoaXwh1yV/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/Sn4YVvc_F2w?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">トークンとテキスト</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/11oAZla0Z0krd4ajXrAK75A5Au84eD34_/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/1hIrxyYRP6A?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">LLMとテキスト上の誘導確率</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1niruk7_jmKYl3ZVV-j5uzxgebBI19-cT/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/7KJeDC482AI?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">LLMの確率計算の基本</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/182D1nhVmjk6stoKjQ2Q0VwmxB_PrgZn2/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/5DyL1k3rVzs?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">論文前半の基本定理の証明</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1PIFKecQkyEX36hnr050gzMZb_ee0VmJ_/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/x0p81M-EJhU?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">LLMへのenrichedカテゴリー論の応用</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1xbjfxIVk38JGH_Ik-lBdt9Rp2-F7kaO2/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/rwXB6TCJ2Vo?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">マルレク「LLMのマグニチュード論 1」へのお誘い</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1vKmIbxNCH2ZZU3SWIwqC_ipwoR_TW4GY/preview" width="640" height="480"></iframe></p>



<h2 class="wp-block-heading is-style-vk-heading-default">LLMの新しい理論研究(1)　関連リンク</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><mark style="background-color:#ffffff" class="has-inline-color has-vivid-cyan-blue-color"><a href="https://www.marulabo.net/docs/llm0/" title="">LLMと意味の理論モデル概説</a></mark></h3>



<h4 class="wp-block-heading is-style-vk-heading-default"><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-cyan-blue-color"><a href="https://www.marulabo.net/docs/magnitude/" title="">マグニチュードとは何か</a></mark></h4>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm1bradley/" title="">マグニチュード論の展開</a></h4>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="http://https-www-marulabo-net-docs-llm1bradley2" title="">LLMのマグニチュード論</a></h4>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm0/#Bradley%E3%81%AEcopresheaf%E6%84%8F%E5%91%B3%E8%AB%96" title="">Bradleyのco−presheaf意味論</a></h3>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm-math/">大規模言語モデルの数学的構造 I</a></h4>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm-math2/">大規模言語モデルの数学的構造 II</a></h4><p>The post <a href="https://www.marulabo.net/docs/llm%e3%81%ae%e3%83%9e%e3%82%b0%e3%83%8b%e3%83%81%e3%83%a5%e3%83%bc%e3%83%89%e8%ab%96-1-%e2%88%92%e2%88%92-llm%e3%81%ae%e7%a2%ba%e7%8e%87%e8%a8%88%e7%ae%97%e3%81%a8enriched%e3%82%ab%e3%83%86%e3%82%b4/">LLMのマグニチュード論 1 −− LLMの確率計算とenrichedカテゴリー論</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>LLMのマグニチュード論 1 −− LLMの確率計算とenrichedカテゴリー論</title>
		<link>https://www.marulabo.net/docs/llm1bradley2/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=llm1bradley2</link>
		
		<dc:creator><![CDATA[MaruyamaFujio]]></dc:creator>
		<pubDate>Mon, 20 Oct 2025 15:26:43 +0000</pubDate>
				<guid isPermaLink="false">https://www.marulabo.net/?post_type=docs&#038;p=7124</guid>

					<description><![CDATA[<p>はじめに 今回のマルレクは、LLMの理論研究で、もっとも新しく最も先進的な業績である Tai−Danae Bradleyの論文 &#8220;The Magnitude of Categories of Texts En [&#8230;]</p>
<p>The post <a href="https://www.marulabo.net/docs/llm1bradley2/">LLMのマグニチュード論 1 −− LLMの確率計算とenrichedカテゴリー論</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image is-resized alignnone size-medium wp-image-7107"><img loading="lazy" decoding="async" width="300" height="223" src="https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53-300x223.jpg" alt="" class="wp-image-7107" style="width:962px;height:auto" srcset="https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53-300x223.jpg 300w, https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53-1024x762.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53-768x571.jpg 768w, https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53.jpg 1148w" sizes="(max-width: 300px) 100vw, 300px" /><figcaption class="wp-element-caption">Screenshot</figcaption></figure>



<h2 class="wp-block-heading is-style-vk-heading-default">はじめに</h2>



<p>今回のマルレクは、LLMの理論研究で、もっとも新しく最も先進的な業績である Tai−Danae Bradleyの論文 &#8220;The Magnitude of Categories of Texts Enriched by Language Models&#8221;<br><a href="https://draft.blogger.com/blog/post/edit/633957148720976943/7505595375502458078#">https://arxiv.org/pdf/2501.06662</a>&nbsp;の紹介をしようと思います。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">この論文が扱っている二つの課題</h3>



<p>この論文は、二つの問題を扱っています。</p>



<p>一つは、LLMの意味論に カテゴリー論的基礎を与えた 2022年のBradleyらの論文<br>&#8220;An enriched category theory of language: From syntax to semantics.&#8221;<br><a href="https://draft.blogger.com/blog/post/edit/633957148720976943/7505595375502458078#">https://arxiv.org/pdf/2106.07890</a></p>



<p>のアプローチを、たとえば、LLMが行っている「プロンプトの入力」「プロンプトへの回答の出力」というLLMの現実の振る舞いの解釈にまで拡大するという課題です。</p>



<p>もう一つの課題は、拡大されたLLMの理論とmagnitudeの理論を結びつけることです。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">LLMモデルの拡大</h3>



<p>第一の課題である 2022年論文の拡大については、この論文の第二セクション &#8220;2. Obtaining Enriched Categories from an LLM&#8221; で展開されています。</p>



<p>2022年の論文は、LLM意味論にco−presheaf意味論というフレームを導入し、さらにそのカテゴリーのオブジェクト間の射に、enrichedカテゴリーの手法で、LLMと同じように[0,1]の値を持つ確率値を付与するというものでした。それは、LLMの振る舞いと意味の数学的モデルとしては、画期的なものでした。ただ、テキストxが与えられた時のテキストy の条件付き確率 𝜋( y | x )を直接与えるものではありませんでした。</p>



<p>今回の論文では、以前の[0,1]の値を取る確率モデルを [0, ♾️] の値を取るLawvereの一般化された距離空間のモデルに変えています。ここでもenrichedカテゴリー論の手法が利用されます。</p>



<p>さらに、文頭を表すトークン&#8217;⊥&#8217; と文末を表すトークン&#8217;†&#8217;を導入して、&#8217;⊥&#8217; で始まり&#8217;†&#8217; でおわるプロンプトxに対して、テキスト生成の終了条件を明示的に示しつつ、co−presheafに対応する 𝜋( ー | x )の計算ができるようになりました。</p>



<p>論文のモデルは、現実のLLMの具体的な振る舞いを解釈することを目指したものです。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">LLMとmagnitude論</h3>



<p>拡大されたLLMの理論とmagnitudeの理論を結びつけるという二つ目の課題は、この論文の第三セクション &#8220;3. Magnitude&#8221; で展開されています。</p>



<p>論文では、要素が文字列 x, y, &#8230; であり、二点間の距離が d( x, y ) = − ln π( y | x)&nbsp; で与えられる一般化された距離空間 M のmagnitudeが研究されています。こでのMは、LLMの生成する距離空間に他なりません。</p>



<p>論文のタイトル &#8220;The Magnitude of Categories of Texts Enriched by Language Models&#8221; 「言語モデルによってenrich化されたテキストのカテゴリーのマグニチュード」は、このパートが、論文の主要な内容であることを示しています。実際、多くの結果が語られています。</p>



<p>論文は、M のmagnitude 関数 f( t ) は、テキスト x (プロンプト) に対する、次トークン確率分布 p( − | x ) の Tsallis t−エントロピーと、モデルの可能な出力のカーディナリティの和であることを証明しています。</p>



<p>また、f の t = 1 における導関数はシャノンエントロピーの和を再現すること、これによりmagnitudeを分割関数と見なすことが正当化されると述べています。</p>



<p>さらに論文は、M のmagnitude関数をmagnitude のホモロジーにおけるオイラー特性として表現し、第0次および第1次magnitude Homology群の明示的な記述を提供しています。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">セミナーの構成 </h3>



<p>前回のセミナーでMagnitude論の紹介を始めたのですが、まだ、入り口のところで終わっています。今回のセミナーのメインの論文の解説に入る前に、そこを補う必要があると思っています。今回のセミナーでは、次のような構成を考えています。</p>



<p>　　Part 1&nbsp; Magnitude論の展開<br>　　Part 2&nbsp; LLMモデルの拡大　　（論文の第二セクションに対応）<br>　　Part 3&nbsp; LLMとMagnitude論 （論文の第三セクションに対応）</p>



<p>実際のセッションは、それぞれのPartを行ったり来たりする形で進めたいと思っています。</p>



<h2 class="wp-block-heading is-style-vk-heading-default">セミナーに向けたセッション資料</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/7XtYnz6IpkM?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">BradleyのLLMのマグニチュード論への招待</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1Dh_lza2ejo4GwxIpJ8iRMk2dJpqgANCG/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/xfPTdRTWAC8?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">Bradleyの理論を学ぶ</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/155zV2DoCbHw-VblbrQ7WP7yIoaXwh1yV/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/Sn4YVvc_F2w?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">トークンとテキスト</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/11oAZla0Z0krd4ajXrAK75A5Au84eD34_/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/1hIrxyYRP6A?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">LLMとテキスト上の誘導確率</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1niruk7_jmKYl3ZVV-j5uzxgebBI19-cT/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/7KJeDC482AI?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">LLMの確率計算の基本</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/182D1nhVmjk6stoKjQ2Q0VwmxB_PrgZn2/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/5DyL1k3rVzs?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">論文前半の基本定理の証明</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1PIFKecQkyEX36hnr050gzMZb_ee0VmJ_/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/x0p81M-EJhU?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">LLMへのenrichedカテゴリー論の応用</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1xbjfxIVk38JGH_Ik-lBdt9Rp2-F7kaO2/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/rwXB6TCJ2Vo?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">マルレク「LLMのマグニチュード論 1」へのお誘い</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1vKmIbxNCH2ZZU3SWIwqC_ipwoR_TW4GY/preview" width="640" height="480"></iframe></p>



<h2 class="wp-block-heading is-style-vk-heading-default">LLMの新しい理論研究(1)　関連リンク</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><mark style="background-color:#ffffff" class="has-inline-color has-vivid-cyan-blue-color"><a href="https://www.marulabo.net/docs/llm0/" title="">LLMと意味の理論モデル概説</a></mark></h3>



<h4 class="wp-block-heading is-style-vk-heading-default"><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-cyan-blue-color"><a href="https://www.marulabo.net/docs/magnitude/" title="">マグニチュードとは何か</a></mark></h4>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm1bradley/" title="">マグニチュード論の展開</a></h4>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="http://https-www-marulabo-net-docs-llm1bradley2" title="">LLMのマグニチュード論</a></h4>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm0/#Bradley%E3%81%AEcopresheaf%E6%84%8F%E5%91%B3%E8%AB%96" title="">Bradleyのco−presheaf意味論</a></h3>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm-math/">大規模言語モデルの数学的構造 I</a></h4>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm-math2/">大規模言語モデルの数学的構造 II</a></h4><p>The post <a href="https://www.marulabo.net/docs/llm1bradley2/">LLMのマグニチュード論 1 −− LLMの確率計算とenrichedカテゴリー論</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>マグニチュード論の展開 −− LLMの新しい理論研究(1)</title>
		<link>https://www.marulabo.net/docs/llm1bradley/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=llm1bradley</link>
		
		<dc:creator><![CDATA[MaruyamaFujio]]></dc:creator>
		<pubDate>Thu, 02 Oct 2025 18:29:12 +0000</pubDate>
				<guid isPermaLink="false">https://www.marulabo.net/?post_type=docs&#038;p=7106</guid>

					<description><![CDATA[<p>お詫び：タイトルを「マグニチュード論の展開」に変更しました。 セミナーのタイトルを、「Bradleyのマグニチュード論」から「マグニチュード論の展開」 に変更しました。すみません。 当初、今月は、Tai−Danae B [&#8230;]</p>
<p>The post <a href="https://www.marulabo.net/docs/llm1bradley/">マグニチュード論の展開 −− LLMの新しい理論研究(1)</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image is-resized alignnone size-medium wp-image-7126"><img loading="lazy" decoding="async" width="300" height="223" src="https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-20-18.55.03-300x223.jpg" alt="" class="wp-image-7126" style="width:734px;height:auto" srcset="https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-20-18.55.03-300x223.jpg 300w, https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-20-18.55.03-1024x762.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-20-18.55.03-768x572.jpg 768w, https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-20-18.55.03.jpg 1346w" sizes="(max-width: 300px) 100vw, 300px" /><figcaption class="wp-element-caption">Screenshot</figcaption></figure>



<h3 class="wp-block-heading is-style-vk-heading-default">お詫び：タイトルを「マグニチュード論の展開」に変更しました。</h3>



<p>セミナーのタイトルを、「Bradleyのマグニチュード論」から「マグニチュード論の展開」 に変更しました。すみません。</p>



<p>当初、今月は、Tai−Danae Bradleyの論文&#8221;The Magnitude of Categories of Texts Enriched by Language Models&#8221; <a href="https://arxiv.org/pdf/2501.06662">https://arxiv.org/pdf/2501.06662</a>　を素材としてで、次のような構成を考えていました。</p>



<p><span data-fontsize="18px" style="font-size: 18px;" class="vk_inline-font-size">「Bradleyのマグニチュード論」<br>      <mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-red-color">Part 1&nbsp; マグニチュード論の展開</mark><br>　　Part 2&nbsp; LLMモデルの拡大　 　  （論文の第二セクション）<br>　　Part 3&nbsp; LLMとマグニチュード論 （論文の第三セクション）</span></p>



<p>今回のセミナーは、予告した内容の Part 1 を、一つのセミナーに独立させたものになります。<br><br>次回のセミナーは、今回入り口の前で止まってしまった「Bradleyのマグニチュード論」をキチンと紹介したいと思っています。<a href="http://https-www-marulabo-net-docs-llm1bradley2/" title="">新しいURLで「Bradleyのマグニチュード論」のまとめページを作りました。</a>（Part 1 だけで未完に終わったページをうつしただけです。）</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="マルレク「マグニチュード論の展開」へのお誘い ver.2" width="1140" height="855" src="https://www.youtube.com/embed/z9yDD5jLmL0?list=PLQIrJ0f9gMcMBg47ryEOaF7o6TDZgipNN" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<h2 class="wp-block-heading is-style-vk-heading-default">セミナー「マグニチュード論の展開」の構成</h2>



<p>今回のセミナーは、次のような構成をしています。</p>



<p><span data-fontsize="18px" style="font-size: 18px;" class="vk_inline-font-size">「マグニチュード論の展開」<br><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-black-color">　　Part 1&nbsp; マグニチュード論の登場<br></mark>　　Part 2&nbsp; enriched カテゴリー論とマグニチュード<br>　　Part 3&nbsp; Lawvereのenriched カテゴリー論</span></p>



<p>以下、それぞれの内容を簡単に見ていきましょう。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">マグニチュード論の登場</h3>



<p>前回のセミナーは、現代のマグニチュード論の前身ともいうべき数学的対象の「大きさ」についての理論、カントールの「無限の大きさ」や、オイラーの「変わらぬ大きさ – 不変量」の理論を見てきました。また、20世紀のシャニュエルの「オイラー特性数」の研究や、レンスターの「生物多様性」の理論も「大きさ」の理論として取り上げてきました。</p>



<p>ただ、それらの多様な理論は、まだ「マグニチュード」という概念に辿り着いていたわけではありません。このセミナーでは、先のセミナーを受けて、21世紀の「マグニチュード」論の登場とその発展を見ていきたいと思います。</p>



<h4 class="wp-block-heading is-style-vk-heading-default">ゼータ関数とメビウス関数</h4>



<p>ただ、マグニチュード論の理論的起源は、それにとどまりません。マグニチュード論のテキストの中でしばしば「ゼータ関数」や「メビウス反転」という言葉が登場します。それは、古典的・数論的な「リーマンのζ関数」と「メビウスのμ関数」に起源を持っています。</p>



<p>さらに遡って、両者の関係はオイラーの「ゼータ関数の無限積表示」を用いると明らかになるという話をします。またしてもオイラーが出てきます。（ただ、今回紹介する計算は初等的なものです。）</p>



<p>マグニチュード論の、深い数学的背景を知るために、こうした繋がりについて述べてみたいと思います。</p>



<h4 class="wp-block-heading is-style-vk-heading-default">カテゴリーのオイラー特性数 −− 2006年</h4>



<p>このセクションでは、現代のマグニチュード論の最初の論文と見なされている Leinsterの2006年の論文「カテゴリーのオイラー特性数」　“<strong>The Euler characteristic of a category</strong>” を紹介します。ただ、この論文ではマグニチュードという言葉は使われてはおらず、それは「カテゴリーのオイラー特性数」として扱われています。</p>



<p>前回のセミナーで見てきたシャニュエルのオイラー特性数の研究が、現代のマグニチュード論につながっていることがわかると思います。</p>



<h4 class="wp-block-heading is-style-vk-heading-default">距離空間のマグニチュード −− 2011年</h4>



<p>このセクションでは、 先に見た2006年の論文とは異なり、「マグニチュード」を論文タイトルに掲げた、Leinsterの2011年の論文を紹介します。今回のセミナーは、この論文の第一章の構成に従っています。<br><strong>&#8220;The magnitude of metric spaces&#8221;<br></strong>https://arxiv.org/abs/1012.5857　　</p>



<p>この論文で最初に導入されているのが「行列のマグニチュード」です。ここで導入される行列の「重み付け」とその双対の「co重み付け」の概念は、マグニチュード論にとって基本的なものです。<br>それは前回のセミナーのLeinsterの「生物多様性」の定義でも出てきていたものです。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">enriched カテゴリー論とマグニチュード</h3>



<p>このセクションでは、Leinsterのマグニチュード論の展開にとっても、また、今回のセミナーの本来のターゲットであったBradleyのマグニチュード論にとっても、両者にとって重要な飛躍である「enrichedカテゴリーのマグニチュード」の紹介です。</p>



<p>先に見たLeinsterの2011年の論文を彼自身がblogにした <strong>“The Magnitude of an Enriched Category”</strong>に依拠しています。。<br><a href="https://golem.ph.utexas.edu/category/2011/06/the_magnitude_of_an_enriched_c.html">https://golem.ph.utexas.edu/category/2011/06/the_magnitude_of_an_enriched_c.html</a></p>



<p>重要なことは、マグニチュードの理解には、こうしたカテゴリー論的なアプローチが不可欠だということです。</p>



<p>カテゴリー論の利用では、LLMの意味理解の構造の解明にカテゴリー論のco−presheafの概念を導入したBradleyの研究は画期的なものだったと思います。その点では、Leinsterのマグニチュード論とBradleyの新しいLLM論は、理論的土台の多くを共有していると、僕は考えています。別のセミナーで紹介する予定のCoeckeらのQNLP（量子コンピュータを使った言語理解の取り組み）も同じ土台に立っています。カテゴリー論という共通の武器を得て、さまざまな分野で同時多発的に進行する研究の展開は、21世紀の科学・技術の発展の大きな特徴です。</p>



<p>このセクションの前半は、「enrichedカテゴリー論」の基本的な紹介に当てられています。ここでの「ダイアルのたとえ」は、とてもわかりやすいものだと思います。後半は、enrich化されたカテゴリーのマグニチュードをどのように定義できるのかという話をしています。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">Lawvereのenriched カテゴリー論</h3>



<p>このセクションでは、こうした展開を明確にビジョンとして持っていただけでなく、そうしたカテゴリー論の概念装置を数多く作り上げた数学者Lawvereの研究の一部を紹介します。</p>



<p>enrichedカテゴリー論とその応用について、最大の貢献者の一人は、Lawvereだと思います。前回のセミナーで紹介したシャニュエルは、Lawvereの共同研究者でした。現代のマグニチュード論は、Lawvereのビジョンにその多くを負っています。</p>



<p>ここでは、彼の「一般化された距離空間」の概念を紹介します。</p>



<h2 class="wp-block-heading is-style-vk-heading-default">Part 1 マグニチュード論の登場</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/wEtGBgEE0Z0?list=PLQIrJ0f9gMcMBg47ryEOaF7o6TDZgipNN" title="">ゼータ関数とメビウス関数</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/10k1F9hEzvq6gkSxrEOaCgIzTQdYJKomi/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/sgnsWsrBjM8?list=PLQIrJ0f9gMcMBg47ryEOaF7o6TDZgipNN" title="">カテゴリーのオイラー標数</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1tHjqV2z5-dTD-i3jrKCw4GdRhhzsZRJM/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default">行列のマグニチュード</h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/10heqpj6dSI7Z8K2TtN9L8L8-ft5ogYmj/preview" width="640" height="480"></iframe></p>



<h2 class="wp-block-heading is-style-vk-heading-default">Part 2 enriched カテゴリー論とマグニチュード</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/DXCXpDVnakElist=PLQIrJ0f9gMcMBg47ryEOaF7o6TDZgipNN" title="">enrich化されたカテゴリー</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1ztt5rFlKOCsl_4z4mlNO_vbnRlO2VJYj/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/5c8NCjB1fos?list=PLQIrJ0f9gMcMBg47ryEOaF7o6TDZgipNN" title="">enrich化されたカテゴリーのマグニチュード</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1mEVrWqa8PEmFOWof-nZf1rdfsNj4Np03/preview" width="640" height="480"></iframe></p>



<h2 class="wp-block-heading is-style-vk-heading-default">Part 3 Lawvereのenriched カテゴリー論</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/W_TFuSow8KE?list=PLQIrJ0f9gMcMBg47ryEOaF7o6TDZgipNN" title="">Lawvereの「一般化された距離空間」</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1-qA__UTa2QToUT7rXQeB4veEqfpxuuGV/preview" width="640" height="480"></iframe></p>



<h2 class="wp-block-heading is-style-vk-heading-default">LLMの新しい理論研究(1)　関連リンク</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><mark style="background-color:#ffffff" class="has-inline-color has-vivid-cyan-blue-color"><a href="https://www.marulabo.net/docs/llm0/" title="">LLMと意味の理論モデル概説</a></mark></h3>



<h4 class="wp-block-heading is-style-vk-heading-default"><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-cyan-blue-color"><a href="https://www.marulabo.net/docs/magnitude/" title="">マグニチュードとは何か</a></mark></h4>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm1bradley/" title="">マグニチュード論の展開</a></h4>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm1bradley2/" title="">Bradleyのマグニチュード論</a></h4>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm0/#Bradley%E3%81%AEcopresheaf%E6%84%8F%E5%91%B3%E8%AB%96" title="">Bradleyのco−presheaf意味論</a></h3>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm-math/">大規模言語モデルの数学的構造 I</a></h4>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm-math2/">大規模言語モデルの数学的構造 II</a></h4><p>The post <a href="https://www.marulabo.net/docs/llm1bradley/">マグニチュード論の展開 −− LLMの新しい理論研究(1)</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Deep Dive Audio 20250705</title>
		<link>https://www.marulabo.net/docs/dda20250705/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=dda20250705</link>
		
		<dc:creator><![CDATA[MaruyamaFujio]]></dc:creator>
		<pubDate>Sun, 28 Sep 2025 22:32:30 +0000</pubDate>
				<guid isPermaLink="false">https://www.marulabo.net/?post_type=docs&#038;p=7098</guid>

					<description><![CDATA[<p>セミナーの構成 セミナーのまとめページはこちらです。https://www.marulabo.net/docs/dreamerv3/ セミナーは次のような構成をしています。 Part 1 DeepMind Dreamer [&#8230;]</p>
<p>The post <a href="https://www.marulabo.net/docs/dda20250705/">Deep Dive Audio 20250705</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image size-full is-resized"><img loading="lazy" decoding="async" width="640" height="384" src="https://www.marulabo.net/wp-content/uploads/2025/09/217647148-cbc522e2-61ad-4553-8e14-1ecdc8d9438b.gif" alt="" class="wp-image-7099" style="width:754px;height:auto"/></figure>



<h2 class="wp-block-heading is-style-vk-heading-default">セミナーの構成</h2>



<p>セミナーのまとめページはこちらです。<br><a href="https://www.marulabo.net/docs/dreamerv3/">https://www.marulabo.net/docs/dreamerv3/</a></p>



<p>セミナーは次のような構成をしています。</p>



<p><strong><a href="https://www.marulabo.net/docs/dreamerv3/#Part_1_DeepMind_DreamerV3%E3%81%A8%E3%81%AF%E4%BD%95%E3%81%8B" title=""><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-cyan-blue-color">Part 1 DeepMind DreamerV3とは何か<br></mark></a></strong>　　「AI とマインクラフトの世界」はじめに<br>　　DreamerV3の何が画期的なのか<br><br><a href="https://www.marulabo.net/docs/dreamerv3/#Part_2_%E6%98%94%E3%81%AE%E8%A9%B1%E3%82%92%E3%81%97%E3%82%88%E3%81%86" title=""><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-cyan-blue-color"><strong>Part 2 昔の話をしよう −- AIと「世界モデル」</strong><br></mark></a>　　Winogradの「積み木の世界」1970年<br>　　Brooks “Intelligent without representation” 1987年<br><br><strong><a href="https://www.marulabo.net/docs/dreamerv3/#Part_3_DreamerV3%E3%81%A7%E3%81%AEAI%E6%8A%80%E8%A1%93%E3%81%AE%E9%A3%9B%E8%BA%8D" title=""><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-cyan-blue-color">Part 3 DreamerV3でのAI技術の飛躍<br></mark></a></strong>　　DreamerV3はEnder Dragonを倒せるか？<br>　　Diamondはどう獲得されたか？<br>　　DreamerV3でのAI技術の飛躍<br><br><strong><a href="https://www.marulabo.net/docs/dreamerv3/#Part_4_DeepMind%E3%81%AE%E7%A0%94%E7%A9%B6%E5%8B%95%E5%90%91%E3%81%A8DreamerV3" title=""><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-cyan-blue-color">Part 4 DeepMindの研究動向とDreamerV3<br></mark></a></strong>　　DeepMindの三つのプロジェクト<br>　　DeepMindのAI開発のビジョン<br>　　DeepMindのAI開発のビジョン<br><br><strong><a href="https://www.marulabo.net/docs/dreamerv3/#%E3%83%87%E3%82%A3%E3%83%89%E3%83%AD%E3%81%AE%E3%82%AA%E3%82%A6%E3%83%A0_%E2%88%92%E2%88%92_%E6%98%94%E3%81%AE%E8%A9%B1%E3%82%92%E3%81%97%E3%82%88%E3%81%86_3" title=""><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-cyan-blue-color">ディドロのオウム −− 昔の話をしよう (3)</mark></a></strong></p>



<h2 class="wp-block-heading is-style-vk-heading-default">音声概要</h2>



<ul>
<li>AI がゲーム「マインクラフト」でダイヤを発掘する ！</li>



<li>Winogradの「積み木の世界」1970年</li>



<li>Brooks “Intelligent without representation” 1987年</li>



<li>Diamondはどう獲得されたか？</li>



<li>DeepMindのAI開発のビジョン</li>
</ul>


<div id="audioigniter-7102" class="audioigniter-root " data-player-type="full" data-tracks-url="https://www.marulabo.net/?audioigniter_playlist_id=7102" data-display-track-no="true" data-reverse-track-order="false" data-display-tracklist-covers="true" data-display-active-cover="true" data-display-artist-names="true" data-display-buy-buttons="true" data-buy-buttons-target="true" data-cycle-tracks="false" data-display-credits="false" data-display-tracklist="true" data-allow-tracklist-toggle="true" data-allow-tracklist-loop="true" data-limit-tracklist-height="true" data-volume="100" data-tracklist-height="185" ></div><p>The post <a href="https://www.marulabo.net/docs/dda20250705/">Deep Dive Audio 20250705</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>マグニチュードとは何か</title>
		<link>https://www.marulabo.net/docs/magnitude/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=magnitude</link>
		
		<dc:creator><![CDATA[MaruyamaFujio]]></dc:creator>
		<pubDate>Tue, 19 Aug 2025 23:32:14 +0000</pubDate>
				<guid isPermaLink="false">https://www.marulabo.net/?post_type=docs&#038;p=7061</guid>

					<description><![CDATA[<p>公開したセミナー 講演資料 パートごとのドキュメントへのアクセスは、「公開詳細情報」をご利用ください。 講演ビデオ ↑ 見出しクリックで、セミナー全体のYouTube動画の再生リストにアクセスできます。 Deep Div [&#8230;]</p>
<p>The post <a href="https://www.marulabo.net/docs/magnitude/">マグニチュードとは何か</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="745" src="https://www.marulabo.net/wp-content/uploads/2025/08/mag-1024x745.jpg" alt="" class="wp-image-7066" srcset="https://www.marulabo.net/wp-content/uploads/2025/08/mag-1024x745.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2025/08/mag-300x218.jpg 300w, https://www.marulabo.net/wp-content/uploads/2025/08/mag-768x559.jpg 768w, https://www.marulabo.net/wp-content/uploads/2025/08/mag.jpg 1066w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">Screenshot</figcaption></figure>



<h2 class="wp-block-heading is-style-vk-heading-default">公開したセミナー</h2>



<h3 class="wp-block-heading is-style-vk-heading-default">講演資料</h3>



<p>パートごとのドキュメントへのアクセスは、「公開詳細情報」をご利用ください。</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1_vobvYUZGuo6G61GPawwIsZlZaObcKD8/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.youtube.com/playlist?list=PLQIrJ0f9gMcOCGsPNa7OAjEqRwEAV26zG" title="">講演ビデオ</a></h3>



<p>↑ 見出しクリックで、セミナー全体のYouTube動画の再生リストにアクセスできます。</p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/dda20250926/" title="">Deep Dive Audio 20250926</a></h3>



<p>↑ 見出しクリックで、AIによるセミナーのコンテンツの音声概要を聞くことができます。<br>セミナー全体の音声概要「マグニチュードとは何か」は、こちらからもアクセスできます。</p>



<h4 class="wp-block-heading is-style-vk-heading-default">「マグニチュードとは何か」   音声による概要</h4>



<figure class="wp-block-audio"><audio controls src="https://www.marulabo.net/wp-content/uploads/2025/12/マグニチュード論とはなにか.mp3"></audio></figure>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://maruyama097.blogspot.com/2025/12/blog-post.html" title="">公開詳細情報</a></h3>



<p>↑ 見出しクリックでセミナーの公開詳細情報にアクセスできます。</p>



<h2 class="wp-block-heading is-style-vk-heading-default">セミナーに向けたセッション資料</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/1EB2D5ECPjY?list=PLQIrJ0f9gMcPmPimhgAIUUh98fyLSM6iB" title="">9/27 マルレク「マグニチュードとは何か」へのお誘い</a></h3>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1_m5U8TIb0vzgM7QzII_1rJIa7XIgLoMm/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/BXewU88xI1w?list=PLQIrJ0f9gMcPmPimhgAIUUh98fyLSM6iB" title="">次回マルレクの予告編</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1YgDoQ12VD7zVD8vQzjwekHWqY5B978FM/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.youtube.com/playlist?list=PLQIrJ0f9gMcPmPimhgAIUUh98fyLSM6iB" title="">セミナーに向けたショートムービーの再生リスト</a></h3>



<h2 class="wp-block-heading is-style-vk-heading-default">Part 1: カントールの「無限の大きさ」</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/x0qEXVIAvzU?list=PLQIrJ0f9gMcPmPimhgAIUUh98fyLSM6iB" title="">「数える」と「個数」</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1YuwdSBrNHyCM4UG-naFz4Ji3EE345WKo/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/GLSdJClJoLE?list=PLQIrJ0f9gMcPmPimhgAIUUh98fyLSM6iB" title="">無限を数える – カントールの順序数</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1Yw5PyT08N-hZvmtEok5u64vR_JKFyl1K/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/2sobnkyibok?list=PLQIrJ0f9gMcPmPimhgAIUUh98fyLSM6iB" title="">無限の個数 – カントールの基数論</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1YwN4_tKjm775Q-JO7a4sa3icyjOcFM5L/preview" width="640" height="480"></iframe></p>



<h2 class="wp-block-heading is-style-vk-heading-default">Part 2: オイラーの「変わらぬ大きさ」</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/Ve_UBdrPxhY?list=PLQIrJ0f9gMcPmPimhgAIUUh98fyLSM6iB" title="">「形」を数える – オイラーの「標数」</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1Z6TaOoiFEv6j-hF0cRJ5VcxgHgv2ySyr/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/s8G_n-4ss9A?list=PLQIrJ0f9gMcPmPimhgAIUUh98fyLSM6iB" title="">オイラーの標数の「式の形」を考える</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1ZJJlX37AoH3Tt7zt3kEKxZ_6UtjBhGZY/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/iy86C7P9aj8?list=PLQIrJ0f9gMcPmPimhgAIUUh98fyLSM6iB" title="">シャニュエル−−「負の集合」と「ポテトの長さ」</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1ZWQoSyY9vprwdYciUZTQCdNhzQSN7wnW/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/avp_4gtvOSg?list=PLQIrJ0f9gMcPmPimhgAIUUh98fyLSM6iB" title="">「大きさ」と「オイラーの標数」を図解する</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1ZfXfBgZLFPiVI1Q06dXYdRQiwGlbz8Tv/preview" width="640" height="480"></iframe></p>



<h2 class="wp-block-heading is-style-vk-heading-default">Part 3: レンスターの「生物多様性の大きさ」</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/9hMc0MiVld8?list=PLQIrJ0f9gMcPmPimhgAIUUh98fyLSM6iB" title="">「生物多様性」の「大きさ」を考える</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1__YdJfXm7gIFfTzGKqQWlr0jlVqFdw7a/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/xm9QYSy4VQM?list=PLQIrJ0f9gMcPmPimhgAIUUh98fyLSM6iB" title="">レンスターの「多様性」の定義を読む</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1_bpPZLJ_9Vh-xib3wYEs9zmNxlPol77i/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/hjG8YeTMgyM?list=PLQIrJ0f9gMcPmPimhgAIUUh98fyLSM6iB" title="">類似度行列とマグニチュード論</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1_gpl8IJcMFttOJ_czc1N8PPNp-qokQ_w/preview" width="640" height="480"></iframe></p>



<h2 class="wp-block-heading is-style-vk-heading-default">Postscript</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/5k2t5_r7un8?list=PLQIrJ0f9gMcPmPimhgAIUUh98fyLSM6iB" title="">なぜ、オイラーなのか？</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1aPmD2UVii-vjaR_RZIBELyTADgNbHuur/preview" width="640" height="480"></iframe></p><p>The post <a href="https://www.marulabo.net/docs/magnitude/">マグニチュードとは何か</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Deep Dive Audio 20250816</title>
		<link>https://www.marulabo.net/docs/dda20250816/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=dda20250816</link>
		
		<dc:creator><![CDATA[MaruyamaFujio]]></dc:creator>
		<pubDate>Mon, 04 Aug 2025 21:11:50 +0000</pubDate>
				<guid isPermaLink="false">https://www.marulabo.net/?post_type=docs&#038;p=7031</guid>

					<description><![CDATA[<p>Deep Dive Audio マルレク「LLMと意味の理論モデル概説」の音声概要をまとめたページです。 LLMは意味をどう捉えるか？ この音声概要は、セミナー終了後に作成したものです。セミナー全体のまとめになっています [&#8230;]</p>
<p>The post <a href="https://www.marulabo.net/docs/dda20250816/">Deep Dive Audio 20250816</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="771" src="https://www.marulabo.net/wp-content/uploads/2025/12/LLMと意味の理論モデル-1024x771.jpg" alt="" class="wp-image-7276" srcset="https://www.marulabo.net/wp-content/uploads/2025/12/LLMと意味の理論モデル-1024x771.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2025/12/LLMと意味の理論モデル-300x226.jpg 300w, https://www.marulabo.net/wp-content/uploads/2025/12/LLMと意味の理論モデル-768x578.jpg 768w, https://www.marulabo.net/wp-content/uploads/2025/12/LLMと意味の理論モデル.jpg 1264w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">Screenshot</figcaption></figure>



<h2 class="wp-block-heading is-style-vk-heading-default">Deep Dive Audio </h2>



<p><span data-fontsize="18px" style="font-size: 18px;" class="vk_inline-font-size"><a href="https://www.marulabo.net/docs/llm0/" title="">マルレク「LLMと意味の理論モデル概説」の音声概要をまとめたページです。</a></span></p>


<div id="audioigniter-7024" class="audioigniter-root " data-player-type="full" data-tracks-url="https://www.marulabo.net/?audioigniter_playlist_id=7024" data-display-track-no="true" data-reverse-track-order="false" data-display-tracklist-covers="true" data-display-active-cover="true" data-display-artist-names="true" data-display-buy-buttons="true" data-buy-buttons-target="true" data-cycle-tracks="false" data-display-credits="false" data-display-tracklist="true" data-allow-tracklist-toggle="true" data-allow-tracklist-loop="true" data-limit-tracklist-height="true" data-volume="100" data-tracklist-height="215" ></div>



<h3 class="wp-block-heading is-style-vk-heading-default">LLMは意味をどう捉えるか？</h3>



<p>この音声概要は、セミナー終了後に作成したものです。セミナー全体のまとめになっています。<br>個別的・技術的細部に入る前に、こちらからお聞きになることをお勧めします。</p>



<p>こちらから、直接アクセスできます。</p>



<figure class="wp-block-audio"><audio controls src="https://www.marulabo.net/wp-content/uploads/2025/10/LLMは意味をどう捉えるか？：圏論、幾何学、量子論が解き明かす「意味の科学」の最前線.mp3"></audio></figure>



<h3 class="wp-block-heading is-style-vk-heading-default">LLMの謎にカテゴリー論で迫る</h3>



<p>この概要では、今度の連続セミナーで中心的に取り上げることになる、Bradleyらの問題意識とカテゴリー論を利用した取り組みを主に紹介しています。</p>



<p>彼女の近年の研究の成果である「マグニチュード」論がどのようなものか、どのような役割が期待されているのかについて、わかりやすい解説になっています。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">LLMのテキスト・データに隠された構造を探る</h3>



<p>この概要も、Bradleyの問題意識の要約になっています。重複はありますが、重要なことなので、色々な切り口で語られるのはいいかなと思います。</p>



<p>米田の補題の解釈が少し詳しく語られています。また、、LLMに与えられるテキスト・データ自身に構造が内在しているという視点は大事なポイントだと思います。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">自然言語理解と量子論</h3>



<p>この概要では、BradleyとCoeckeの二人のアプローチの違いを概説しています。Bradlyらは、実際のテキスト・データの中に統計的な構造が隠されていると考えるのに対して、Coeckeらは文法構造が先在すると考えます。</p>



<p>両者のアプローチは対照的ですが、両者の統合の可能性も示唆されています。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">進むLLMの内部構造の理解</h3>



<p>LLMの内部の動作を解析したVlassopoulosらの研究が、現在のLLMと意味の理論研究とどう交わる可能性を持つかを概説しています。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">QNLPの最新動向</h3>



<p>このトラックでは、Coeckeらのグループの論文 &#8220;Scalable and interpretable quantum natural language processing: an implementation on trapped ions&#8221; <a href="https://arxiv.org/pdf/2409.08777">https://arxiv.org/pdf/2409.08777</a> を紹介しています。<br><br>現在の量子コンピュータのスケーラビリティの弱点とTransformaer モデルの解釈可能性の弱点（いわゆる「ブラックボックス問題」）という両方の問題を解決しうるアイデアが提示されています。</p><p>The post <a href="https://www.marulabo.net/docs/dda20250816/">Deep Dive Audio 20250816</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
