<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>生成AI | MaruLabo</title>
	<atom:link href="https://www.marulabo.net/themecategory/%E7%94%9F%E6%88%90ai/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.marulabo.net</link>
	<description>技術と科学の未来講座</description>
	<lastBuildDate>Fri, 19 Dec 2025 06:30:19 +0000</lastBuildDate>
	<language>ja</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.5.7</generator>

<image>
	<url>https://www.marulabo.net/wp-content/uploads/2018/12/cropped-logo01-01-02-32x32.png</url>
	<title>生成AI | MaruLabo</title>
	<link>https://www.marulabo.net</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>LLMのマグニチュード論 1 −− LLMの確率計算とenrichedカテゴリー論</title>
		<link>https://www.marulabo.net/docs/llm%e3%81%ae%e3%83%9e%e3%82%b0%e3%83%8b%e3%83%81%e3%83%a5%e3%83%bc%e3%83%89%e8%ab%96-1-%e2%88%92%e2%88%92-llm%e3%81%ae%e7%a2%ba%e7%8e%87%e8%a8%88%e7%ae%97%e3%81%a8enriched%e3%82%ab%e3%83%86%e3%82%b4-2/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=llm%25e3%2581%25ae%25e3%2583%259e%25e3%2582%25b0%25e3%2583%258b%25e3%2583%2581%25e3%2583%25a5%25e3%2583%25bc%25e3%2583%2589%25e8%25ab%2596-1-%25e2%2588%2592%25e2%2588%2592-llm%25e3%2581%25ae%25e7%25a2%25ba%25e7%258e%2587%25e8%25a8%2588%25e7%25ae%2597%25e3%2581%25a8enriched%25e3%2582%25ab%25e3%2583%2586%25e3%2582%25b4-2</link>
		
		<dc:creator><![CDATA[MaruyamaFujio]]></dc:creator>
		<pubDate>Fri, 19 Dec 2025 06:30:18 +0000</pubDate>
				<guid isPermaLink="false">https://www.marulabo.net/?post_type=docs&#038;p=7308</guid>

					<description><![CDATA[<p>はじめに 今回のマルレクは、LLMの理論研究で、もっとも新しく最も先進的な業績である Tai−Danae Bradleyの論文 &#8220;The Magnitude of Categories of Texts En [&#8230;]</p>
<p>The post <a href="https://www.marulabo.net/docs/llm%e3%81%ae%e3%83%9e%e3%82%b0%e3%83%8b%e3%83%81%e3%83%a5%e3%83%bc%e3%83%89%e8%ab%96-1-%e2%88%92%e2%88%92-llm%e3%81%ae%e7%a2%ba%e7%8e%87%e8%a8%88%e7%ae%97%e3%81%a8enriched%e3%82%ab%e3%83%86%e3%82%b4-2/">LLMのマグニチュード論 1 −− LLMの確率計算とenrichedカテゴリー論</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image is-resized alignnone size-medium wp-image-7107"><img fetchpriority="high" decoding="async" width="300" height="223" src="https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53-300x223.jpg" alt="" class="wp-image-7107" style="width:962px;height:auto" srcset="https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53-300x223.jpg 300w, https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53-1024x762.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53-768x571.jpg 768w, https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53.jpg 1148w" sizes="(max-width: 300px) 100vw, 300px" /><figcaption class="wp-element-caption">Screenshot</figcaption></figure>



<h2 class="wp-block-heading is-style-vk-heading-default">はじめに</h2>



<p>今回のマルレクは、LLMの理論研究で、もっとも新しく最も先進的な業績である Tai−Danae Bradleyの論文 &#8220;The Magnitude of Categories of Texts Enriched by Language Models&#8221;<br><a href="https://draft.blogger.com/blog/post/edit/633957148720976943/7505595375502458078#">https://arxiv.org/pdf/2501.06662</a>&nbsp;の紹介をしようと思います。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">この論文が扱っている二つの課題</h3>



<p>この論文は、二つの問題を扱っています。</p>



<p>一つは、LLMの意味論に カテゴリー論的基礎を与えた 2022年のBradleyらの論文<br>&#8220;An enriched category theory of language: From syntax to semantics.&#8221;<br><a href="https://draft.blogger.com/blog/post/edit/633957148720976943/7505595375502458078#">https://arxiv.org/pdf/2106.07890</a></p>



<p>のアプローチを、たとえば、LLMが行っている「プロンプトの入力」「プロンプトへの回答の出力」というLLMの現実の振る舞いの解釈にまで拡大するという課題です。</p>



<p>もう一つの課題は、拡大されたLLMの理論とmagnitudeの理論を結びつけることです。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">LLMモデルの拡大</h3>



<p>第一の課題である 2022年論文の拡大については、この論文の第二セクション &#8220;2. Obtaining Enriched Categories from an LLM&#8221; で展開されています。</p>



<p>2022年の論文は、LLM意味論にco−presheaf意味論というフレームを導入し、さらにそのカテゴリーのオブジェクト間の射に、enrichedカテゴリーの手法で、LLMと同じように[0,1]の値を持つ確率値を付与するというものでした。それは、LLMの振る舞いと意味の数学的モデルとしては、画期的なものでした。ただ、テキストxが与えられた時のテキストy の条件付き確率 𝜋( y | x )を直接与えるものではありませんでした。</p>



<p>今回の論文では、以前の[0,1]の値を取る確率モデルを [0, ♾️] の値を取るLawvereの一般化された距離空間のモデルに変えています。ここでもenrichedカテゴリー論の手法が利用されます。</p>



<p>さらに、文頭を表すトークン&#8217;⊥&#8217; と文末を表すトークン&#8217;†&#8217;を導入して、&#8217;⊥&#8217; で始まり&#8217;†&#8217; でおわるプロンプトxに対して、テキスト生成の終了条件を明示的に示しつつ、co−presheafに対応する 𝜋( ー | x )の計算ができるようになりました。</p>



<p>論文のモデルは、現実のLLMの具体的な振る舞いを解釈することを目指したものです。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">LLMとmagnitude論</h3>



<p>拡大されたLLMの理論とmagnitudeの理論を結びつけるという二つ目の課題は、この論文の第三セクション &#8220;3. Magnitude&#8221; で展開されています。</p>



<p>論文では、要素が文字列 x, y, &#8230; であり、二点間の距離が d( x, y ) = − ln π( y | x)&nbsp; で与えられる一般化された距離空間 M のmagnitudeが研究されています。こでのMは、LLMの生成する距離空間に他なりません。</p>



<p>論文のタイトル &#8220;The Magnitude of Categories of Texts Enriched by Language Models&#8221; 「言語モデルによってenrich化されたテキストのカテゴリーのマグニチュード」は、このパートが、論文の主要な内容であることを示しています。実際、多くの結果が語られています。</p>



<p>論文は、M のmagnitude 関数 f( t ) は、テキスト x (プロンプト) に対する、次トークン確率分布 p( − | x ) の Tsallis t−エントロピーと、モデルの可能な出力のカーディナリティの和であることを証明しています。</p>



<p>また、f の t = 1 における導関数はシャノンエントロピーの和を再現すること、これによりmagnitudeを分割関数と見なすことが正当化されると述べています。</p>



<p>さらに論文は、M のmagnitude関数をmagnitude のホモロジーにおけるオイラー特性として表現し、第0次および第1次magnitude Homology群の明示的な記述を提供しています。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">セミナーの構成 </h3>



<p>前回のセミナーでMagnitude論の紹介を始めたのですが、まだ、入り口のところで終わっています。今回のセミナーのメインの論文の解説に入る前に、そこを補う必要があると思っています。今回のセミナーでは、次のような構成を考えています。</p>



<p>　　Part 1&nbsp; Magnitude論の展開<br>　　Part 2&nbsp; LLMモデルの拡大　　（論文の第二セクションに対応）<br>　　Part 3&nbsp; LLMとMagnitude論 （論文の第三セクションに対応）</p>



<p>実際のセッションは、それぞれのPartを行ったり来たりする形で進めたいと思っています。</p>



<h2 class="wp-block-heading is-style-vk-heading-default">セミナーに向けたセッション資料</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/7XtYnz6IpkM?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">BradleyのLLMのマグニチュード論への招待</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe src="https://drive.google.com/file/d/1Dh_lza2ejo4GwxIpJ8iRMk2dJpqgANCG/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/xfPTdRTWAC8?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">Bradleyの理論を学ぶ</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe src="https://drive.google.com/file/d/155zV2DoCbHw-VblbrQ7WP7yIoaXwh1yV/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/Sn4YVvc_F2w?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">トークンとテキスト</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/11oAZla0Z0krd4ajXrAK75A5Au84eD34_/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/1hIrxyYRP6A?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">LLMとテキスト上の誘導確率</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1niruk7_jmKYl3ZVV-j5uzxgebBI19-cT/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/7KJeDC482AI?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">LLMの確率計算の基本</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/182D1nhVmjk6stoKjQ2Q0VwmxB_PrgZn2/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/5DyL1k3rVzs?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">論文前半の基本定理の証明</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1PIFKecQkyEX36hnr050gzMZb_ee0VmJ_/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/x0p81M-EJhU?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">LLMへのenrichedカテゴリー論の応用</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1xbjfxIVk38JGH_Ik-lBdt9Rp2-F7kaO2/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/rwXB6TCJ2Vo?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">マルレク「LLMのマグニチュード論 1」へのお誘い</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1vKmIbxNCH2ZZU3SWIwqC_ipwoR_TW4GY/preview" width="640" height="480"></iframe></p>



<h2 class="wp-block-heading is-style-vk-heading-default">LLMの新しい理論研究(1)　関連リンク</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><mark style="background-color:#ffffff" class="has-inline-color has-vivid-cyan-blue-color"><a href="https://www.marulabo.net/docs/llm0/" title="">LLMと意味の理論モデル概説</a></mark></h3>



<h4 class="wp-block-heading is-style-vk-heading-default"><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-cyan-blue-color"><a href="https://www.marulabo.net/docs/magnitude/" title="">マグニチュードとは何か</a></mark></h4>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm1bradley/" title="">マグニチュード論の展開</a></h4>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="http://https-www-marulabo-net-docs-llm1bradley2" title="">LLMのマグニチュード論</a></h4>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm0/#Bradley%E3%81%AEcopresheaf%E6%84%8F%E5%91%B3%E8%AB%96" title="">Bradleyのco−presheaf意味論</a></h3>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm-math/">大規模言語モデルの数学的構造 I</a></h4>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm-math2/">大規模言語モデルの数学的構造 II</a></h4><p>The post <a href="https://www.marulabo.net/docs/llm%e3%81%ae%e3%83%9e%e3%82%b0%e3%83%8b%e3%83%81%e3%83%a5%e3%83%bc%e3%83%89%e8%ab%96-1-%e2%88%92%e2%88%92-llm%e3%81%ae%e7%a2%ba%e7%8e%87%e8%a8%88%e7%ae%97%e3%81%a8enriched%e3%82%ab%e3%83%86%e3%82%b4-2/">LLMのマグニチュード論 1 −− LLMの確率計算とenrichedカテゴリー論</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>LLMのマグニチュード論 1 −− LLMの確率計算とenrichedカテゴリー論</title>
		<link>https://www.marulabo.net/docs/llm%e3%81%ae%e3%83%9e%e3%82%b0%e3%83%8b%e3%83%81%e3%83%a5%e3%83%bc%e3%83%89%e8%ab%96-1-%e2%88%92%e2%88%92-llm%e3%81%ae%e7%a2%ba%e7%8e%87%e8%a8%88%e7%ae%97%e3%81%a8enriched%e3%82%ab%e3%83%86%e3%82%b4/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=llm%25e3%2581%25ae%25e3%2583%259e%25e3%2582%25b0%25e3%2583%258b%25e3%2583%2581%25e3%2583%25a5%25e3%2583%25bc%25e3%2583%2589%25e8%25ab%2596-1-%25e2%2588%2592%25e2%2588%2592-llm%25e3%2581%25ae%25e7%25a2%25ba%25e7%258e%2587%25e8%25a8%2588%25e7%25ae%2597%25e3%2581%25a8enriched%25e3%2582%25ab%25e3%2583%2586%25e3%2582%25b4</link>
		
		<dc:creator><![CDATA[MaruyamaFujio]]></dc:creator>
		<pubDate>Thu, 11 Dec 2025 09:42:55 +0000</pubDate>
				<guid isPermaLink="false">https://www.marulabo.net/?post_type=docs&#038;p=7281</guid>

					<description><![CDATA[<p>はじめに 今回のマルレクは、LLMの理論研究で、もっとも新しく最も先進的な業績である Tai−Danae Bradleyの論文 &#8220;The Magnitude of Categories of Texts En [&#8230;]</p>
<p>The post <a href="https://www.marulabo.net/docs/llm%e3%81%ae%e3%83%9e%e3%82%b0%e3%83%8b%e3%83%81%e3%83%a5%e3%83%bc%e3%83%89%e8%ab%96-1-%e2%88%92%e2%88%92-llm%e3%81%ae%e7%a2%ba%e7%8e%87%e8%a8%88%e7%ae%97%e3%81%a8enriched%e3%82%ab%e3%83%86%e3%82%b4/">LLMのマグニチュード論 1 −− LLMの確率計算とenrichedカテゴリー論</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image is-resized alignnone size-medium wp-image-7107"><img loading="lazy" decoding="async" width="300" height="223" src="https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53-300x223.jpg" alt="" class="wp-image-7107" style="width:962px;height:auto" srcset="https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53-300x223.jpg 300w, https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53-1024x762.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53-768x571.jpg 768w, https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53.jpg 1148w" sizes="(max-width: 300px) 100vw, 300px" /><figcaption class="wp-element-caption">Screenshot</figcaption></figure>



<h2 class="wp-block-heading is-style-vk-heading-default">はじめに</h2>



<p>今回のマルレクは、LLMの理論研究で、もっとも新しく最も先進的な業績である Tai−Danae Bradleyの論文 &#8220;The Magnitude of Categories of Texts Enriched by Language Models&#8221;<br><a href="https://draft.blogger.com/blog/post/edit/633957148720976943/7505595375502458078#">https://arxiv.org/pdf/2501.06662</a>&nbsp;の紹介をしようと思います。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">この論文が扱っている二つの課題</h3>



<p>この論文は、二つの問題を扱っています。</p>



<p>一つは、LLMの意味論に カテゴリー論的基礎を与えた 2022年のBradleyらの論文<br>&#8220;An enriched category theory of language: From syntax to semantics.&#8221;<br><a href="https://draft.blogger.com/blog/post/edit/633957148720976943/7505595375502458078#">https://arxiv.org/pdf/2106.07890</a></p>



<p>のアプローチを、たとえば、LLMが行っている「プロンプトの入力」「プロンプトへの回答の出力」というLLMの現実の振る舞いの解釈にまで拡大するという課題です。</p>



<p>もう一つの課題は、拡大されたLLMの理論とmagnitudeの理論を結びつけることです。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">LLMモデルの拡大</h3>



<p>第一の課題である 2022年論文の拡大については、この論文の第二セクション &#8220;2. Obtaining Enriched Categories from an LLM&#8221; で展開されています。</p>



<p>2022年の論文は、LLM意味論にco−presheaf意味論というフレームを導入し、さらにそのカテゴリーのオブジェクト間の射に、enrichedカテゴリーの手法で、LLMと同じように[0,1]の値を持つ確率値を付与するというものでした。それは、LLMの振る舞いと意味の数学的モデルとしては、画期的なものでした。ただ、テキストxが与えられた時のテキストy の条件付き確率 𝜋( y | x )を直接与えるものではありませんでした。</p>



<p>今回の論文では、以前の[0,1]の値を取る確率モデルを [0, ♾️] の値を取るLawvereの一般化された距離空間のモデルに変えています。ここでもenrichedカテゴリー論の手法が利用されます。</p>



<p>さらに、文頭を表すトークン&#8217;⊥&#8217; と文末を表すトークン&#8217;†&#8217;を導入して、&#8217;⊥&#8217; で始まり&#8217;†&#8217; でおわるプロンプトxに対して、テキスト生成の終了条件を明示的に示しつつ、co−presheafに対応する 𝜋( ー | x )の計算ができるようになりました。</p>



<p>論文のモデルは、現実のLLMの具体的な振る舞いを解釈することを目指したものです。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">LLMとmagnitude論</h3>



<p>拡大されたLLMの理論とmagnitudeの理論を結びつけるという二つ目の課題は、この論文の第三セクション &#8220;3. Magnitude&#8221; で展開されています。</p>



<p>論文では、要素が文字列 x, y, &#8230; であり、二点間の距離が d( x, y ) = − ln π( y | x)&nbsp; で与えられる一般化された距離空間 M のmagnitudeが研究されています。こでのMは、LLMの生成する距離空間に他なりません。</p>



<p>論文のタイトル &#8220;The Magnitude of Categories of Texts Enriched by Language Models&#8221; 「言語モデルによってenrich化されたテキストのカテゴリーのマグニチュード」は、このパートが、論文の主要な内容であることを示しています。実際、多くの結果が語られています。</p>



<p>論文は、M のmagnitude 関数 f( t ) は、テキスト x (プロンプト) に対する、次トークン確率分布 p( − | x ) の Tsallis t−エントロピーと、モデルの可能な出力のカーディナリティの和であることを証明しています。</p>



<p>また、f の t = 1 における導関数はシャノンエントロピーの和を再現すること、これによりmagnitudeを分割関数と見なすことが正当化されると述べています。</p>



<p>さらに論文は、M のmagnitude関数をmagnitude のホモロジーにおけるオイラー特性として表現し、第0次および第1次magnitude Homology群の明示的な記述を提供しています。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">セミナーの構成 </h3>



<p>前回のセミナーでMagnitude論の紹介を始めたのですが、まだ、入り口のところで終わっています。今回のセミナーのメインの論文の解説に入る前に、そこを補う必要があると思っています。今回のセミナーでは、次のような構成を考えています。</p>



<p>　　Part 1&nbsp; Magnitude論の展開<br>　　Part 2&nbsp; LLMモデルの拡大　　（論文の第二セクションに対応）<br>　　Part 3&nbsp; LLMとMagnitude論 （論文の第三セクションに対応）</p>



<p>実際のセッションは、それぞれのPartを行ったり来たりする形で進めたいと思っています。</p>



<h2 class="wp-block-heading is-style-vk-heading-default">セミナーに向けたセッション資料</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/7XtYnz6IpkM?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">BradleyのLLMのマグニチュード論への招待</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1Dh_lza2ejo4GwxIpJ8iRMk2dJpqgANCG/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/xfPTdRTWAC8?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">Bradleyの理論を学ぶ</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/155zV2DoCbHw-VblbrQ7WP7yIoaXwh1yV/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/Sn4YVvc_F2w?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">トークンとテキスト</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/11oAZla0Z0krd4ajXrAK75A5Au84eD34_/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/1hIrxyYRP6A?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">LLMとテキスト上の誘導確率</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1niruk7_jmKYl3ZVV-j5uzxgebBI19-cT/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/7KJeDC482AI?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">LLMの確率計算の基本</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/182D1nhVmjk6stoKjQ2Q0VwmxB_PrgZn2/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/5DyL1k3rVzs?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">論文前半の基本定理の証明</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1PIFKecQkyEX36hnr050gzMZb_ee0VmJ_/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/x0p81M-EJhU?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">LLMへのenrichedカテゴリー論の応用</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1xbjfxIVk38JGH_Ik-lBdt9Rp2-F7kaO2/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/rwXB6TCJ2Vo?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">マルレク「LLMのマグニチュード論 1」へのお誘い</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1vKmIbxNCH2ZZU3SWIwqC_ipwoR_TW4GY/preview" width="640" height="480"></iframe></p>



<h2 class="wp-block-heading is-style-vk-heading-default">LLMの新しい理論研究(1)　関連リンク</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><mark style="background-color:#ffffff" class="has-inline-color has-vivid-cyan-blue-color"><a href="https://www.marulabo.net/docs/llm0/" title="">LLMと意味の理論モデル概説</a></mark></h3>



<h4 class="wp-block-heading is-style-vk-heading-default"><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-cyan-blue-color"><a href="https://www.marulabo.net/docs/magnitude/" title="">マグニチュードとは何か</a></mark></h4>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm1bradley/" title="">マグニチュード論の展開</a></h4>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="http://https-www-marulabo-net-docs-llm1bradley2" title="">LLMのマグニチュード論</a></h4>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm0/#Bradley%E3%81%AEcopresheaf%E6%84%8F%E5%91%B3%E8%AB%96" title="">Bradleyのco−presheaf意味論</a></h3>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm-math/">大規模言語モデルの数学的構造 I</a></h4>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm-math2/">大規模言語モデルの数学的構造 II</a></h4><p>The post <a href="https://www.marulabo.net/docs/llm%e3%81%ae%e3%83%9e%e3%82%b0%e3%83%8b%e3%83%81%e3%83%a5%e3%83%bc%e3%83%89%e8%ab%96-1-%e2%88%92%e2%88%92-llm%e3%81%ae%e7%a2%ba%e7%8e%87%e8%a8%88%e7%ae%97%e3%81%a8enriched%e3%82%ab%e3%83%86%e3%82%b4/">LLMのマグニチュード論 1 −− LLMの確率計算とenrichedカテゴリー論</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>LLMのマグニチュード論 1 −− LLMの確率計算とenrichedカテゴリー論</title>
		<link>https://www.marulabo.net/docs/llm1bradley2/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=llm1bradley2</link>
		
		<dc:creator><![CDATA[MaruyamaFujio]]></dc:creator>
		<pubDate>Mon, 20 Oct 2025 15:26:43 +0000</pubDate>
				<guid isPermaLink="false">https://www.marulabo.net/?post_type=docs&#038;p=7124</guid>

					<description><![CDATA[<p>はじめに 今回のマルレクは、LLMの理論研究で、もっとも新しく最も先進的な業績である Tai−Danae Bradleyの論文 &#8220;The Magnitude of Categories of Texts En [&#8230;]</p>
<p>The post <a href="https://www.marulabo.net/docs/llm1bradley2/">LLMのマグニチュード論 1 −− LLMの確率計算とenrichedカテゴリー論</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image is-resized alignnone size-medium wp-image-7107"><img loading="lazy" decoding="async" width="300" height="223" src="https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53-300x223.jpg" alt="" class="wp-image-7107" style="width:962px;height:auto" srcset="https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53-300x223.jpg 300w, https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53-1024x762.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53-768x571.jpg 768w, https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53.jpg 1148w" sizes="(max-width: 300px) 100vw, 300px" /><figcaption class="wp-element-caption">Screenshot</figcaption></figure>



<h2 class="wp-block-heading is-style-vk-heading-default">はじめに</h2>



<p>今回のマルレクは、LLMの理論研究で、もっとも新しく最も先進的な業績である Tai−Danae Bradleyの論文 &#8220;The Magnitude of Categories of Texts Enriched by Language Models&#8221;<br><a href="https://draft.blogger.com/blog/post/edit/633957148720976943/7505595375502458078#">https://arxiv.org/pdf/2501.06662</a>&nbsp;の紹介をしようと思います。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">この論文が扱っている二つの課題</h3>



<p>この論文は、二つの問題を扱っています。</p>



<p>一つは、LLMの意味論に カテゴリー論的基礎を与えた 2022年のBradleyらの論文<br>&#8220;An enriched category theory of language: From syntax to semantics.&#8221;<br><a href="https://draft.blogger.com/blog/post/edit/633957148720976943/7505595375502458078#">https://arxiv.org/pdf/2106.07890</a></p>



<p>のアプローチを、たとえば、LLMが行っている「プロンプトの入力」「プロンプトへの回答の出力」というLLMの現実の振る舞いの解釈にまで拡大するという課題です。</p>



<p>もう一つの課題は、拡大されたLLMの理論とmagnitudeの理論を結びつけることです。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">LLMモデルの拡大</h3>



<p>第一の課題である 2022年論文の拡大については、この論文の第二セクション &#8220;2. Obtaining Enriched Categories from an LLM&#8221; で展開されています。</p>



<p>2022年の論文は、LLM意味論にco−presheaf意味論というフレームを導入し、さらにそのカテゴリーのオブジェクト間の射に、enrichedカテゴリーの手法で、LLMと同じように[0,1]の値を持つ確率値を付与するというものでした。それは、LLMの振る舞いと意味の数学的モデルとしては、画期的なものでした。ただ、テキストxが与えられた時のテキストy の条件付き確率 𝜋( y | x )を直接与えるものではありませんでした。</p>



<p>今回の論文では、以前の[0,1]の値を取る確率モデルを [0, ♾️] の値を取るLawvereの一般化された距離空間のモデルに変えています。ここでもenrichedカテゴリー論の手法が利用されます。</p>



<p>さらに、文頭を表すトークン&#8217;⊥&#8217; と文末を表すトークン&#8217;†&#8217;を導入して、&#8217;⊥&#8217; で始まり&#8217;†&#8217; でおわるプロンプトxに対して、テキスト生成の終了条件を明示的に示しつつ、co−presheafに対応する 𝜋( ー | x )の計算ができるようになりました。</p>



<p>論文のモデルは、現実のLLMの具体的な振る舞いを解釈することを目指したものです。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">LLMとmagnitude論</h3>



<p>拡大されたLLMの理論とmagnitudeの理論を結びつけるという二つ目の課題は、この論文の第三セクション &#8220;3. Magnitude&#8221; で展開されています。</p>



<p>論文では、要素が文字列 x, y, &#8230; であり、二点間の距離が d( x, y ) = − ln π( y | x)&nbsp; で与えられる一般化された距離空間 M のmagnitudeが研究されています。こでのMは、LLMの生成する距離空間に他なりません。</p>



<p>論文のタイトル &#8220;The Magnitude of Categories of Texts Enriched by Language Models&#8221; 「言語モデルによってenrich化されたテキストのカテゴリーのマグニチュード」は、このパートが、論文の主要な内容であることを示しています。実際、多くの結果が語られています。</p>



<p>論文は、M のmagnitude 関数 f( t ) は、テキスト x (プロンプト) に対する、次トークン確率分布 p( − | x ) の Tsallis t−エントロピーと、モデルの可能な出力のカーディナリティの和であることを証明しています。</p>



<p>また、f の t = 1 における導関数はシャノンエントロピーの和を再現すること、これによりmagnitudeを分割関数と見なすことが正当化されると述べています。</p>



<p>さらに論文は、M のmagnitude関数をmagnitude のホモロジーにおけるオイラー特性として表現し、第0次および第1次magnitude Homology群の明示的な記述を提供しています。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">セミナーの構成 </h3>



<p>前回のセミナーでMagnitude論の紹介を始めたのですが、まだ、入り口のところで終わっています。今回のセミナーのメインの論文の解説に入る前に、そこを補う必要があると思っています。今回のセミナーでは、次のような構成を考えています。</p>



<p>　　Part 1&nbsp; Magnitude論の展開<br>　　Part 2&nbsp; LLMモデルの拡大　　（論文の第二セクションに対応）<br>　　Part 3&nbsp; LLMとMagnitude論 （論文の第三セクションに対応）</p>



<p>実際のセッションは、それぞれのPartを行ったり来たりする形で進めたいと思っています。</p>



<h2 class="wp-block-heading is-style-vk-heading-default">セミナーに向けたセッション資料</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/7XtYnz6IpkM?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">BradleyのLLMのマグニチュード論への招待</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1Dh_lza2ejo4GwxIpJ8iRMk2dJpqgANCG/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/xfPTdRTWAC8?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">Bradleyの理論を学ぶ</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/155zV2DoCbHw-VblbrQ7WP7yIoaXwh1yV/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/Sn4YVvc_F2w?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">トークンとテキスト</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/11oAZla0Z0krd4ajXrAK75A5Au84eD34_/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/1hIrxyYRP6A?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">LLMとテキスト上の誘導確率</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1niruk7_jmKYl3ZVV-j5uzxgebBI19-cT/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/7KJeDC482AI?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">LLMの確率計算の基本</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/182D1nhVmjk6stoKjQ2Q0VwmxB_PrgZn2/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/5DyL1k3rVzs?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">論文前半の基本定理の証明</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1PIFKecQkyEX36hnr050gzMZb_ee0VmJ_/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/x0p81M-EJhU?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">LLMへのenrichedカテゴリー論の応用</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1xbjfxIVk38JGH_Ik-lBdt9Rp2-F7kaO2/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/rwXB6TCJ2Vo?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">マルレク「LLMのマグニチュード論 1」へのお誘い</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1vKmIbxNCH2ZZU3SWIwqC_ipwoR_TW4GY/preview" width="640" height="480"></iframe></p>



<h2 class="wp-block-heading is-style-vk-heading-default">LLMの新しい理論研究(1)　関連リンク</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><mark style="background-color:#ffffff" class="has-inline-color has-vivid-cyan-blue-color"><a href="https://www.marulabo.net/docs/llm0/" title="">LLMと意味の理論モデル概説</a></mark></h3>



<h4 class="wp-block-heading is-style-vk-heading-default"><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-cyan-blue-color"><a href="https://www.marulabo.net/docs/magnitude/" title="">マグニチュードとは何か</a></mark></h4>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm1bradley/" title="">マグニチュード論の展開</a></h4>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="http://https-www-marulabo-net-docs-llm1bradley2" title="">LLMのマグニチュード論</a></h4>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm0/#Bradley%E3%81%AEcopresheaf%E6%84%8F%E5%91%B3%E8%AB%96" title="">Bradleyのco−presheaf意味論</a></h3>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm-math/">大規模言語モデルの数学的構造 I</a></h4>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm-math2/">大規模言語モデルの数学的構造 II</a></h4><p>The post <a href="https://www.marulabo.net/docs/llm1bradley2/">LLMのマグニチュード論 1 −− LLMの確率計算とenrichedカテゴリー論</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>マグニチュード論の展開 −− LLMの新しい理論研究(1)</title>
		<link>https://www.marulabo.net/docs/llm1bradley/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=llm1bradley</link>
		
		<dc:creator><![CDATA[MaruyamaFujio]]></dc:creator>
		<pubDate>Thu, 02 Oct 2025 18:29:12 +0000</pubDate>
				<guid isPermaLink="false">https://www.marulabo.net/?post_type=docs&#038;p=7106</guid>

					<description><![CDATA[<p>お詫び：タイトルを「マグニチュード論の展開」に変更しました。 セミナーのタイトルを、「Bradleyのマグニチュード論」から「マグニチュード論の展開」 に変更しました。すみません。 当初、今月は、Tai−Danae B [&#8230;]</p>
<p>The post <a href="https://www.marulabo.net/docs/llm1bradley/">マグニチュード論の展開 −− LLMの新しい理論研究(1)</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image is-resized alignnone size-medium wp-image-7126"><img loading="lazy" decoding="async" width="300" height="223" src="https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-20-18.55.03-300x223.jpg" alt="" class="wp-image-7126" style="width:734px;height:auto" srcset="https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-20-18.55.03-300x223.jpg 300w, https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-20-18.55.03-1024x762.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-20-18.55.03-768x572.jpg 768w, https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-20-18.55.03.jpg 1346w" sizes="(max-width: 300px) 100vw, 300px" /><figcaption class="wp-element-caption">Screenshot</figcaption></figure>



<h3 class="wp-block-heading is-style-vk-heading-default">お詫び：タイトルを「マグニチュード論の展開」に変更しました。</h3>



<p>セミナーのタイトルを、「Bradleyのマグニチュード論」から「マグニチュード論の展開」 に変更しました。すみません。</p>



<p>当初、今月は、Tai−Danae Bradleyの論文&#8221;The Magnitude of Categories of Texts Enriched by Language Models&#8221; <a href="https://arxiv.org/pdf/2501.06662">https://arxiv.org/pdf/2501.06662</a>　を素材としてで、次のような構成を考えていました。</p>



<p><span data-fontsize="18px" style="font-size: 18px;" class="vk_inline-font-size">「Bradleyのマグニチュード論」<br>      <mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-red-color">Part 1&nbsp; マグニチュード論の展開</mark><br>　　Part 2&nbsp; LLMモデルの拡大　 　  （論文の第二セクション）<br>　　Part 3&nbsp; LLMとマグニチュード論 （論文の第三セクション）</span></p>



<p>今回のセミナーは、予告した内容の Part 1 を、一つのセミナーに独立させたものになります。<br><br>次回のセミナーは、今回入り口の前で止まってしまった「Bradleyのマグニチュード論」をキチンと紹介したいと思っています。<a href="http://https-www-marulabo-net-docs-llm1bradley2/" title="">新しいURLで「Bradleyのマグニチュード論」のまとめページを作りました。</a>（Part 1 だけで未完に終わったページをうつしただけです。）</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="マルレク「マグニチュード論の展開」へのお誘い ver.2" width="1140" height="855" src="https://www.youtube.com/embed/z9yDD5jLmL0?list=PLQIrJ0f9gMcMBg47ryEOaF7o6TDZgipNN" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<h2 class="wp-block-heading is-style-vk-heading-default">セミナー「マグニチュード論の展開」の構成</h2>



<p>今回のセミナーは、次のような構成をしています。</p>



<p><span data-fontsize="18px" style="font-size: 18px;" class="vk_inline-font-size">「マグニチュード論の展開」<br><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-black-color">　　Part 1&nbsp; マグニチュード論の登場<br></mark>　　Part 2&nbsp; enriched カテゴリー論とマグニチュード<br>　　Part 3&nbsp; Lawvereのenriched カテゴリー論</span></p>



<p>以下、それぞれの内容を簡単に見ていきましょう。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">マグニチュード論の登場</h3>



<p>前回のセミナーは、現代のマグニチュード論の前身ともいうべき数学的対象の「大きさ」についての理論、カントールの「無限の大きさ」や、オイラーの「変わらぬ大きさ – 不変量」の理論を見てきました。また、20世紀のシャニュエルの「オイラー特性数」の研究や、レンスターの「生物多様性」の理論も「大きさ」の理論として取り上げてきました。</p>



<p>ただ、それらの多様な理論は、まだ「マグニチュード」という概念に辿り着いていたわけではありません。このセミナーでは、先のセミナーを受けて、21世紀の「マグニチュード」論の登場とその発展を見ていきたいと思います。</p>



<h4 class="wp-block-heading is-style-vk-heading-default">ゼータ関数とメビウス関数</h4>



<p>ただ、マグニチュード論の理論的起源は、それにとどまりません。マグニチュード論のテキストの中でしばしば「ゼータ関数」や「メビウス反転」という言葉が登場します。それは、古典的・数論的な「リーマンのζ関数」と「メビウスのμ関数」に起源を持っています。</p>



<p>さらに遡って、両者の関係はオイラーの「ゼータ関数の無限積表示」を用いると明らかになるという話をします。またしてもオイラーが出てきます。（ただ、今回紹介する計算は初等的なものです。）</p>



<p>マグニチュード論の、深い数学的背景を知るために、こうした繋がりについて述べてみたいと思います。</p>



<h4 class="wp-block-heading is-style-vk-heading-default">カテゴリーのオイラー特性数 −− 2006年</h4>



<p>このセクションでは、現代のマグニチュード論の最初の論文と見なされている Leinsterの2006年の論文「カテゴリーのオイラー特性数」　“<strong>The Euler characteristic of a category</strong>” を紹介します。ただ、この論文ではマグニチュードという言葉は使われてはおらず、それは「カテゴリーのオイラー特性数」として扱われています。</p>



<p>前回のセミナーで見てきたシャニュエルのオイラー特性数の研究が、現代のマグニチュード論につながっていることがわかると思います。</p>



<h4 class="wp-block-heading is-style-vk-heading-default">距離空間のマグニチュード −− 2011年</h4>



<p>このセクションでは、 先に見た2006年の論文とは異なり、「マグニチュード」を論文タイトルに掲げた、Leinsterの2011年の論文を紹介します。今回のセミナーは、この論文の第一章の構成に従っています。<br><strong>&#8220;The magnitude of metric spaces&#8221;<br></strong>https://arxiv.org/abs/1012.5857　　</p>



<p>この論文で最初に導入されているのが「行列のマグニチュード」です。ここで導入される行列の「重み付け」とその双対の「co重み付け」の概念は、マグニチュード論にとって基本的なものです。<br>それは前回のセミナーのLeinsterの「生物多様性」の定義でも出てきていたものです。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">enriched カテゴリー論とマグニチュード</h3>



<p>このセクションでは、Leinsterのマグニチュード論の展開にとっても、また、今回のセミナーの本来のターゲットであったBradleyのマグニチュード論にとっても、両者にとって重要な飛躍である「enrichedカテゴリーのマグニチュード」の紹介です。</p>



<p>先に見たLeinsterの2011年の論文を彼自身がblogにした <strong>“The Magnitude of an Enriched Category”</strong>に依拠しています。。<br><a href="https://golem.ph.utexas.edu/category/2011/06/the_magnitude_of_an_enriched_c.html">https://golem.ph.utexas.edu/category/2011/06/the_magnitude_of_an_enriched_c.html</a></p>



<p>重要なことは、マグニチュードの理解には、こうしたカテゴリー論的なアプローチが不可欠だということです。</p>



<p>カテゴリー論の利用では、LLMの意味理解の構造の解明にカテゴリー論のco−presheafの概念を導入したBradleyの研究は画期的なものだったと思います。その点では、Leinsterのマグニチュード論とBradleyの新しいLLM論は、理論的土台の多くを共有していると、僕は考えています。別のセミナーで紹介する予定のCoeckeらのQNLP（量子コンピュータを使った言語理解の取り組み）も同じ土台に立っています。カテゴリー論という共通の武器を得て、さまざまな分野で同時多発的に進行する研究の展開は、21世紀の科学・技術の発展の大きな特徴です。</p>



<p>このセクションの前半は、「enrichedカテゴリー論」の基本的な紹介に当てられています。ここでの「ダイアルのたとえ」は、とてもわかりやすいものだと思います。後半は、enrich化されたカテゴリーのマグニチュードをどのように定義できるのかという話をしています。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">Lawvereのenriched カテゴリー論</h3>



<p>このセクションでは、こうした展開を明確にビジョンとして持っていただけでなく、そうしたカテゴリー論の概念装置を数多く作り上げた数学者Lawvereの研究の一部を紹介します。</p>



<p>enrichedカテゴリー論とその応用について、最大の貢献者の一人は、Lawvereだと思います。前回のセミナーで紹介したシャニュエルは、Lawvereの共同研究者でした。現代のマグニチュード論は、Lawvereのビジョンにその多くを負っています。</p>



<p>ここでは、彼の「一般化された距離空間」の概念を紹介します。</p>



<h2 class="wp-block-heading is-style-vk-heading-default">Part 1 マグニチュード論の登場</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/wEtGBgEE0Z0?list=PLQIrJ0f9gMcMBg47ryEOaF7o6TDZgipNN" title="">ゼータ関数とメビウス関数</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/10k1F9hEzvq6gkSxrEOaCgIzTQdYJKomi/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/sgnsWsrBjM8?list=PLQIrJ0f9gMcMBg47ryEOaF7o6TDZgipNN" title="">カテゴリーのオイラー標数</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1tHjqV2z5-dTD-i3jrKCw4GdRhhzsZRJM/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default">行列のマグニチュード</h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/10heqpj6dSI7Z8K2TtN9L8L8-ft5ogYmj/preview" width="640" height="480"></iframe></p>



<h2 class="wp-block-heading is-style-vk-heading-default">Part 2 enriched カテゴリー論とマグニチュード</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/DXCXpDVnakElist=PLQIrJ0f9gMcMBg47ryEOaF7o6TDZgipNN" title="">enrich化されたカテゴリー</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1ztt5rFlKOCsl_4z4mlNO_vbnRlO2VJYj/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/5c8NCjB1fos?list=PLQIrJ0f9gMcMBg47ryEOaF7o6TDZgipNN" title="">enrich化されたカテゴリーのマグニチュード</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1mEVrWqa8PEmFOWof-nZf1rdfsNj4Np03/preview" width="640" height="480"></iframe></p>



<h2 class="wp-block-heading is-style-vk-heading-default">Part 3 Lawvereのenriched カテゴリー論</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/W_TFuSow8KE?list=PLQIrJ0f9gMcMBg47ryEOaF7o6TDZgipNN" title="">Lawvereの「一般化された距離空間」</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1-qA__UTa2QToUT7rXQeB4veEqfpxuuGV/preview" width="640" height="480"></iframe></p>



<h2 class="wp-block-heading is-style-vk-heading-default">LLMの新しい理論研究(1)　関連リンク</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><mark style="background-color:#ffffff" class="has-inline-color has-vivid-cyan-blue-color"><a href="https://www.marulabo.net/docs/llm0/" title="">LLMと意味の理論モデル概説</a></mark></h3>



<h4 class="wp-block-heading is-style-vk-heading-default"><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-cyan-blue-color"><a href="https://www.marulabo.net/docs/magnitude/" title="">マグニチュードとは何か</a></mark></h4>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm1bradley/" title="">マグニチュード論の展開</a></h4>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm1bradley2/" title="">Bradleyのマグニチュード論</a></h4>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm0/#Bradley%E3%81%AEcopresheaf%E6%84%8F%E5%91%B3%E8%AB%96" title="">Bradleyのco−presheaf意味論</a></h3>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm-math/">大規模言語モデルの数学的構造 I</a></h4>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm-math2/">大規模言語モデルの数学的構造 II</a></h4><p>The post <a href="https://www.marulabo.net/docs/llm1bradley/">マグニチュード論の展開 −− LLMの新しい理論研究(1)</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
