<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>人工知能 | MaruLabo</title>
	<atom:link href="https://www.marulabo.net/themecategory/%E4%BA%BA%E5%B7%A5%E7%9F%A5%E8%83%BD/feed/" rel="self" type="application/rss+xml" />
	<link>https://www.marulabo.net</link>
	<description>技術と科学の未来講座</description>
	<lastBuildDate>Tue, 28 Apr 2026 19:19:42 +0000</lastBuildDate>
	<language>ja</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.5.8</generator>

<image>
	<url>https://www.marulabo.net/wp-content/uploads/2018/12/cropped-logo01-01-02-32x32.png</url>
	<title>人工知能 | MaruLabo</title>
	<link>https://www.marulabo.net</link>
	<width>32</width>
	<height>32</height>
</image> 
	<item>
		<title>「知識のハブ」の変化を考える</title>
		<link>https://www.marulabo.net/docs/knowledgehub/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=knowledgehub</link>
		
		<dc:creator><![CDATA[MaruyamaFujio]]></dc:creator>
		<pubDate>Sat, 21 Feb 2026 01:21:53 +0000</pubDate>
				<guid isPermaLink="false">https://www.marulabo.net/?post_type=docs&#038;p=7426</guid>

					<description><![CDATA[<p>はじめに 情報ネットワークの新しい構造 ↑ 見出しクリックでpdfへ　　blogへはこちら → click me なぜ、「知識のハブの変化」を考えるのか？ ↑ 見出しクリックでpdfへ　　blogへはこちら → clic [&#8230;]</p>
<p>The post <a href="https://www.marulabo.net/docs/knowledgehub/">「知識のハブ」の変化を考える</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image size-large"><img fetchpriority="high" decoding="async" width="1024" height="752" src="https://www.marulabo.net/wp-content/uploads/2026/02/KnowledgeHub2-1024x752.jpg" alt="" class="wp-image-7485" srcset="https://www.marulabo.net/wp-content/uploads/2026/02/KnowledgeHub2-1024x752.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2026/02/KnowledgeHub2-300x220.jpg 300w, https://www.marulabo.net/wp-content/uploads/2026/02/KnowledgeHub2-768x564.jpg 768w, https://www.marulabo.net/wp-content/uploads/2026/02/KnowledgeHub2.jpg 1318w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">Screenshot</figcaption></figure>



<h2 class="wp-block-heading is-style-vk-heading-default">はじめに</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://drive.google.com/file/d/1ZrbsHcjjaBA5GbTd7u-3mGgCgQhQoifq/view" title="">情報ネットワークの新しい構造</a></h3>



<p>↑ 見出しクリックでpdfへ　　blogへはこちら → <mark style="background-color:#ff6900" class="has-inline-color"><a href="https://maruyama097.blogspot.com/2026/04/blog-post.html" title="">cli</a></mark><mark style="background-color:#ff6900" class="has-inline-color has-black-color"><a href="https://maruyama097.blogspot.com/2026/04/blog-post.html" title="">ck me</a></mark></p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="はじめに -- 情報ネットワークの新しい構造" width="1140" height="855" src="https://www.youtube.com/embed/wIXawntiI-Y?list=PLQIrJ0f9gMcNclFZWE8Dmk3q1PBDnTxrU" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://drive.google.com/file/d/10NR-PwKKBJpOp3Tq4xCb37tqIgUOEfrD/view?usp=sharing" title="">なぜ、「知識のハブの変化」を考えるのか？</a></h3>



<p>↑ 見出しクリックでpdfへ　　blogへはこちら → <mark style="background-color:#ff6900" class="has-inline-color"><a href="https://maruyama097.blogspot.com/2026/04/blog-post_19.html" title="">cli</a></mark><mark style="background-color:#ff6900" class="has-inline-color has-black-color"><a href="https://maruyama097.blogspot.com/2026/04/blog-post_19.html" title="">ck me</a></mark></p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe title="なぜ、「知識のハブの変化」を考えるのか？" width="1140" height="855" src="https://www.youtube.com/embed/MLaydg3EXqM?list=PLQIrJ0f9gMcNclFZWE8Dmk3q1PBDnTxrU" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://drive.google.com/file/d/1J-XKiXAdwdEyd6SnsYKvo1Hn8EDmcR1u/view?usp=sharing" title="">「知識」のどのような領域に注目するのか</a></h3>



<p>↑ 見出しクリックでpdfへ　　blogへはこちら → <mark style="background-color:#ff6900" class="has-inline-color"><a href="https://maruyama097.blogspot.com/2026/04/blog-post_21.html" title="">cli</a></mark><mark style="background-color:#ff6900" class="has-inline-color has-black-color"><a href="https://maruyama097.blogspot.com/2026/04/blog-post_21.html" title="">ck me</a></mark></p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="「知識」のどのような領域に注目するのか" width="1140" height="855" src="https://www.youtube.com/embed/By4KyIU9ZVM?list=PLQIrJ0f9gMcNclFZWE8Dmk3q1PBDnTxrU" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<h2 class="wp-block-heading is-style-vk-heading-default"><a href="https://drive.google.com/file/d/1yC7NdtluhA5IS7J0kq1Xy0qD4iiJGh4Z/view?usp=sharing" title="">グローバルな検索の世界の変化</a></h2>



<h4 class="wp-block-heading is-style-vk-heading-default">AIと検索</h4>



<p>↑ 見出しクリックでpdfへ　　blogへはこちら → <mark style="background-color:#ff6900" class="has-inline-color"><a href="https://maruyama097.blogspot.com/2026/04/ai.html" title="">cli</a></mark><mark style="background-color:#ff6900" class="has-inline-color has-black-color"><a href="https://maruyama097.blogspot.com/2026/04/ai.html" title="">ck me</a></mark></p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="グローバルな検索の世界の変化-- AIと検索" width="1140" height="855" src="https://www.youtube.com/embed/6CllzFTI6FI?list=PLQIrJ0f9gMcNclFZWE8Dmk3q1PBDnTxrU" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="Google Co-Founder Larry Page Predicts the Future of Search With AI (2000)" width="1140" height="855" src="https://www.youtube.com/embed/1OT_Uj2z3Z0?feature=oembed" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<h4 class="wp-block-heading is-style-vk-heading-default">21世紀のIT技術の二度目の大変化</h4>



<p>それは、LLMの能力がRAGによって大きく拡大したという、狭いAI技術の変化の話ではないのです。</p>



<p>振り返ってみれば、GAFAM等のBig Techの成立に結果した21世紀初頭のITの世界の大きな変化は、Googleのグローバルな検索技術の登場によって先導されました。</p>



<p>その成功は、PageRank・MapReduceというアルゴリズムの実行を可能とするWebスケールの大規模分散システムと、「広告モデル」という新しいビジネス・モデルによって支えられたものでした。</p>



<p>四半世紀の時を経て、21世紀のIT技術・ITビジネスは二度目の大きな変化を迎えようとしています。</p>


<div class="wp-block-image">
<figure class="aligncenter size-large is-resized"><img loading="lazy" decoding="async" width="751" height="1024" src="https://www.marulabo.net/wp-content/uploads/2026/02/文字から意味へ2-751x1024.jpg" alt="" class="wp-image-7398" style="width:947px;height:auto" srcset="https://www.marulabo.net/wp-content/uploads/2026/02/文字から意味へ2-751x1024.jpg 751w, https://www.marulabo.net/wp-content/uploads/2026/02/文字から意味へ2-220x300.jpg 220w, https://www.marulabo.net/wp-content/uploads/2026/02/文字から意味へ2-768x1048.jpg 768w, https://www.marulabo.net/wp-content/uploads/2026/02/文字から意味へ2.jpg 944w" sizes="(max-width: 751px) 100vw, 751px" /><figcaption class="wp-element-caption">Screenshot</figcaption></figure></div>


<h2 class="wp-block-heading is-style-vk-heading-default">どのような変化を展望するのか</h2>



<p><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-cyan-blue-color">もっとも、予想される変化を現在のIT技術・ITビジネスの延長で考える必要はないと思います。</mark></p>



<p>「機械の言語能力の獲得」は、機械にとっても人間にとっても歴史的な大事件です。より具体的に、「機械と人間が意味を共有するembeddingの世界」の進展は、機械にとっても人間にとっても重要な意味を持ちます。</p>



<p>それは、人類の情報共有と情報蓄積のスタイルが、大きく変わるだろうという展望を我々が持ちうることだと思います。</p><p>The post <a href="https://www.marulabo.net/docs/knowledgehub/">「知識のハブ」の変化を考える</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>“Next token prediction” 描像を超えて</title>
		<link>https://www.marulabo.net/docs/overntp/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=overntp</link>
		
		<dc:creator><![CDATA[MaruyamaFujio]]></dc:creator>
		<pubDate>Sat, 21 Feb 2026 00:05:11 +0000</pubDate>
				<guid isPermaLink="false">https://www.marulabo.net/?post_type=docs&#038;p=7422</guid>

					<description><![CDATA[<p>“Next token prediction” 描像を超える理論の探究 今回のセミナーの問題意識の一つは、LLMを「次のトークンを確率的に予測する」機械として捉える見方は、LLMの現実の振る舞いの説明としては、十分ではな [&#8230;]</p>
<p>The post <a href="https://www.marulabo.net/docs/overntp/">“Next token prediction” 描像を超えて</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="760" src="https://www.marulabo.net/wp-content/uploads/2026/02/Season−4-1024x760.jpg" alt="" class="wp-image-7418" srcset="https://www.marulabo.net/wp-content/uploads/2026/02/Season−4-1024x760.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−4-300x223.jpg 300w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−4-768x570.jpg 768w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−4.jpg 1340w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">Screenshot</figcaption></figure>



<h2 class="wp-block-heading is-style-vk-heading-default">“Next token prediction” 描像を超える理論の探究</h2>



<p>今回のセミナーの問題意識の一つは、LLMを「次のトークンを確率的に予測する」機械として捉える見方は、LLMの現実の振る舞いの説明としては、十分ではないのではというものです。</p>



<p>“LLM = Next token prediction Machine”という描像は、先のセミナーでも触れたように LLMの成功の技術的バックボーンの役割を果たしました。そのイメージは、一方で、「生成AI = 確率論的オーム」という誤解を生み出し、他方ではAI研究者を含む多くの人に、「LLM = ブラックボックス」であることを印象付けました。ただ、後者の認識は「誤解」ではありません。</p>



<p>LLMのある意味不思議な振る舞い、「LLMは、Next token predictionをするシステムだ」という還元論的特徴づけと、現実のLLMが示す柔軟で高度な意味理解能力の乖離がその典型的な例だと思いますが、そのメカニズムを、embedding論に遡って解明しようとする研究が活発に展開されていることです。</p>



<p>“Next token prediction” 描像を超えるLLM理論の探究は、現在のLLM研究のもっとも興味深い領域だと思います。<br>基本的には、カテゴリー論を使ってこの問題にアプローチする流儀と、AI研究者の「ブラック・ボックス問題」に切り込もうとする流儀の、二つのアプローチがあります。興味深いのは、両者の研究がクロスする状況が生まれていることです。</p>



<h3 class="wp-block-heading is-style-vk-heading-default" id="ai%e7%a0%94%e7%a9%b6%e8%80%85%e3%81%ae%e3%82%a2%e3%83%97%e3%83%ad%e3%83%bc%e3%83%81">AI研究者のアプローチ<a href="https://www.marulabo.net/docs/embedding2/#ai%e7%a0%94%e7%a9%b6%e8%80%85%e3%81%ae%e3%82%a2%e3%83%97%e3%83%ad%e3%83%bc%e3%83%81"></a></h3>



<h4 class="wp-block-heading is-style-vk-heading-default" id="sae-sparse-autoencoders">SAE Sparse Autoencoders<a href="https://www.marulabo.net/docs/embedding2/#sae-sparse-autoencoders"></a></h4>



<p>AnthropicのChristopher Olahらの「スパーズ・オートエンコーダー」 （Sparse Autoencoders） SAE理論が代表的な議論だと思います。</p>



<p>これらの議論は、ブラックボックスとしてのLLMの振る舞いを、説明可能なものとして解明しようとするものです。同時に、こうした研究は、LLMの安全性を人間がキチンとコントロールする可能性を開くものでもあります。</p>



<h5 class="wp-block-heading is-style-vk-heading-default" id="%e9%9f%b3%e5%a3%b0%e6%a6%82%e8%aa%ac%e3%80%80sae">音声概説　SAE<a href="https://www.marulabo.net/docs/embedding2/#%e9%9f%b3%e5%a3%b0%e6%a6%82%e8%aa%ac%e3%80%80sae"></a></h5>



<figure class="wp-block-audio"><audio controls src="https://www.marulabo.net/wp-content/uploads/2026/02/SAE1.mp3"></audio></figure>



<p>個人的には、こうした研究は、VlassopoulosらのLLMの内部動作の解析と通じ、それをステップに BradleyのLLMのMagnitude論に通ずると考えています。</p>



<h4 class="wp-block-heading is-style-vk-heading-default" id="mi-mechanistic-interpretability">MI Mechanistic Interpretability<a href="https://www.marulabo.net/docs/embedding2/#mi-mechanistic-interpretability"></a></h4>



<p>この分野では、Olahらによる議論に触発された「機械論的解釈可能性」(Mechanistic Interpretability) MI理論も 興味深いものです。</p>



<h5 class="wp-block-heading is-style-vk-heading-default" id="%e9%9f%b3%e5%a3%b0%e6%a6%82%e8%aa%ac-mi">音声概説 MI<a href="https://www.marulabo.net/docs/embedding2/#%e9%9f%b3%e5%a3%b0%e6%a6%82%e8%aa%ac-mi"></a></h5>



<figure class="wp-block-audio"><audio controls src="https://www.marulabo.net/wp-content/uploads/2026/02/MI1.mp3"></audio></figure>



<h3 class="wp-block-heading is-style-vk-heading-default" id="%e3%82%ab%e3%83%86%e3%82%b4%e3%83%aa%e3%83%bc%e8%ab%96%e7%9a%84%e3%82%a2%e3%83%97%e3%83%ad%e3%83%bc%e3%83%81">カテゴリー論的アプローチ<a href="https://www.marulabo.net/docs/embedding2/#%e3%82%ab%e3%83%86%e3%82%b4%e3%83%aa%e3%83%bc%e8%ab%96%e7%9a%84%e3%82%a2%e3%83%97%e3%83%ad%e3%83%bc%e3%83%81"></a></h3>



<p>カテゴリー論的アプローチの代表者は、Tai−Danae Bradleyです。<br>彼女の 「co−presheaf 意味論」は、画期的なものです。</p>



<p>画像クリックで、それぞれのセミナーのまとめページにアクセスできます。</p>



<div class="wp-block-columns is-layout-flex wp-container-core-columns-is-layout-1 wp-block-columns-is-layout-flex">
<div class="wp-block-column is-layout-flow wp-block-column-is-layout-flow">
<figure class="wp-block-image size-large"><a href="https://www.marulabo.net/docs/llm-math/"><img loading="lazy" decoding="async" width="1024" height="767" src="https://www.marulabo.net/wp-content/uploads/2023/12/スクリーンショット-2023-12-24-7.20.19-1024x767.png" alt="" class="wp-image-6108" srcset="https://www.marulabo.net/wp-content/uploads/2023/12/スクリーンショット-2023-12-24-7.20.19-1024x767.png 1024w, https://www.marulabo.net/wp-content/uploads/2023/12/スクリーンショット-2023-12-24-7.20.19-300x225.png 300w, https://www.marulabo.net/wp-content/uploads/2023/12/スクリーンショット-2023-12-24-7.20.19-768x575.png 768w, https://www.marulabo.net/wp-content/uploads/2023/12/スクリーンショット-2023-12-24-7.20.19.png 1300w" sizes="(max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>



<div class="wp-block-column is-layout-flow wp-block-column-is-layout-flow">
<figure class="wp-block-image size-large"><a href="https://www.marulabo.net/docs/llm-math2/"><img loading="lazy" decoding="async" width="1024" height="755" src="https://www.marulabo.net/wp-content/uploads/2024/01/スクリーンショット-2024-01-06-19.07.49-1024x755.png" alt="" class="wp-image-6120" srcset="https://www.marulabo.net/wp-content/uploads/2024/01/スクリーンショット-2024-01-06-19.07.49-1024x755.png 1024w, https://www.marulabo.net/wp-content/uploads/2024/01/スクリーンショット-2024-01-06-19.07.49-300x221.png 300w, https://www.marulabo.net/wp-content/uploads/2024/01/スクリーンショット-2024-01-06-19.07.49-768x567.png 768w, https://www.marulabo.net/wp-content/uploads/2024/01/スクリーンショット-2024-01-06-19.07.49.png 1304w" sizes="(max-width: 1024px) 100vw, 1024px" /></a></figure>
</div>
</div>



<div class="wp-block-columns is-layout-flex wp-container-core-columns-is-layout-2 wp-block-columns-is-layout-flex">
<div class="wp-block-column is-layout-flow wp-block-column-is-layout-flow">
<figure class="wp-block-image size-large"><a href="https://www.marulabo.net/docs/llm0/"><img loading="lazy" decoding="async" width="1024" height="771" src="https://www.marulabo.net/wp-content/uploads/2025/12/LLMと意味の理論モデル-1024x771.jpg" alt="" class="wp-image-7276" srcset="https://www.marulabo.net/wp-content/uploads/2025/12/LLMと意味の理論モデル-1024x771.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2025/12/LLMと意味の理論モデル-300x226.jpg 300w, https://www.marulabo.net/wp-content/uploads/2025/12/LLMと意味の理論モデル-768x578.jpg 768w, https://www.marulabo.net/wp-content/uploads/2025/12/LLMと意味の理論モデル.jpg 1264w" sizes="(max-width: 1024px) 100vw, 1024px" /></a><figcaption class="wp-element-caption">Screenshot</figcaption></figure>
</div>



<div class="wp-block-column is-layout-flow wp-block-column-is-layout-flow">
<figure class="wp-block-image size-large"><a href="https://www.marulabo.net/docs/llm%e3%81%ae%e3%83%9e%e3%82%b0%e3%83%8b%e3%83%81%e3%83%a5%e3%83%bc%e3%83%89%e8%ab%96-1-%e2%88%92%e2%88%92-llm%e3%81%ae%e7%a2%ba%e7%8e%87%e8%a8%88%e7%ae%97%e3%81%a8enriched%e3%82%ab%e3%83%86%e3%82%b4-2/"><img loading="lazy" decoding="async" width="1024" height="790" src="https://www.marulabo.net/wp-content/uploads/2026/02/スクリーンショット-2026-02-15-12.27.36-1024x790.jpg" alt="" class="wp-image-7412" srcset="https://www.marulabo.net/wp-content/uploads/2026/02/スクリーンショット-2026-02-15-12.27.36-1024x790.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2026/02/スクリーンショット-2026-02-15-12.27.36-300x231.jpg 300w, https://www.marulabo.net/wp-content/uploads/2026/02/スクリーンショット-2026-02-15-12.27.36-768x593.jpg 768w, https://www.marulabo.net/wp-content/uploads/2026/02/スクリーンショット-2026-02-15-12.27.36.jpg 1182w" sizes="(max-width: 1024px) 100vw, 1024px" /></a><figcaption class="wp-element-caption">Screenshot</figcaption></figure>
</div>
</div>



<h4 class="wp-block-heading is-style-vk-heading-default" id="bradley">Bradley<a href="https://www.marulabo.net/docs/embedding2/#bradley"></a></h4>



<p>彼女の最近の研究は、次の二つの点で大きな前進を遂げています。<br>・LLMの内部の確率計算の精緻な分析。プロンプトxが与えられた時、LLMが出力yを返す確率π( y | x )の計算式を与えました。<br>・その上で、「確率」を「距離」に変換し、「意味の幾何学」への道を開きました。</p>



<h5 class="wp-block-heading is-style-vk-heading-default" id="%e9%9f%b3%e5%a3%b0%e6%a6%82%e8%aa%ac-bradley1">音声概説 Bradley1<a href="https://www.marulabo.net/docs/embedding2/#%e9%9f%b3%e5%a3%b0%e6%a6%82%e8%aa%ac-bradley1"></a></h5>



<figure class="wp-block-audio"><audio controls src="https://www.marulabo.net/wp-content/uploads/2026/02/Bradley1.mp3"></audio></figure>



<h5 class="wp-block-heading is-style-vk-heading-default" id="%e9%9f%b3%e5%a3%b0%e6%a6%82%e8%aa%ac-bradley2">音声概説 Bradley2<a href="https://www.marulabo.net/docs/embedding2/#%e9%9f%b3%e5%a3%b0%e6%a6%82%e8%aa%ac-bradley2"></a></h5>



<figure class="wp-block-audio"><audio controls src="https://www.marulabo.net/wp-content/uploads/2026/02/Bradley2.mp3"></audio></figure>



<h4 class="wp-block-heading is-style-vk-heading-default" id="vlassopoulos">Vlassopoulos<a href="https://www.marulabo.net/docs/embedding2/#vlassopoulos"></a></h4>



<p>Vlassopoulosは、基本的にBradley と同じアプローチをとっています。<br>興味深いのは、彼の議論は、SAE理論の「Superinpose」の議論と親和性が高いと、僕は感じています。</p>



<h5 class="wp-block-heading is-style-vk-heading-default" id="%e9%9f%b3%e5%a3%b0%e6%a6%82%e8%aa%ac%e3%80%80vlassopoulos">音声概説　Vlassopoulos</h5>



<figure class="wp-block-audio"><audio controls src="https://www.marulabo.net/wp-content/uploads/2026/02/Vlassopoulos1.mp3"></audio></figure><p>The post <a href="https://www.marulabo.net/docs/overntp/">“Next token prediction” 描像を超えて</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>embeddingプログラミングの基礎</title>
		<link>https://www.marulabo.net/docs/embedding2/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=embedding2</link>
		
		<dc:creator><![CDATA[MaruyamaFujio]]></dc:creator>
		<pubDate>Sun, 08 Feb 2026 11:59:22 +0000</pubDate>
				<guid isPermaLink="false">https://www.marulabo.net/?post_type=docs&#038;p=7388</guid>

					<description><![CDATA[<p>Part 1 機械と人間が意味を共有するembeddingの世界 このセミナーは、前回のマルレク「機械の言語能力の獲得を考える」の続編になっています。当初は、「機械と人間が意味を共有するembeddingの世界を考える」 [&#8230;]</p>
<p>The post <a href="https://www.marulabo.net/docs/embedding2/">embeddingプログラミングの基礎</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="757" src="https://www.marulabo.net/wp-content/uploads/2026/02/Season−2x-1024x757.jpg" alt="" class="wp-image-7430" srcset="https://www.marulabo.net/wp-content/uploads/2026/02/Season−2x-1024x757.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−2x-300x222.jpg 300w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−2x-768x567.jpg 768w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−2x.jpg 1126w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">Screenshot</figcaption></figure>



<h2 class="wp-block-heading is-style-vk-heading-default">Part 1 機械と人間が意味を共有するembeddingの世界</h2>



<p>このセミナーは、前回のマルレク「機械の言語能力の獲得を考える」の続編になっています。当初は、「機械と人間が意味を共有するembeddingの世界を考える」というタイトルで予告されたものです。タイトル変更に伴う、今後のセミナー開催の予定については、このページの最後をご覧ください。</p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/competence/" title="">前回のセミナー「機械の言語能力の獲得を考える」</a>を振り返る</h3>



<p>↑ 見出しクリックで前回セミナーの「まとめページ」へ<br>前回のセミナーのblog リストは、<a href="https://maruyama097.blogspot.com/2025/12/embedding-blog.html" title="">こちら</a> をクリック。</p>



<p>前回のセミナーは、現代のAI技術の到達点を「機械が言語能力を獲得した」と捉え、その中核を「意味を理解する」能力の獲得と見なして議論を展開していました。</p>



<p>その中心問題は、機械はどのようにして「意味を理解する」ようになったのかという問いであり、これに対して「意味の分散表現論」の発展が一つの答えを与えると述べています。</p>



<p><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-cyan-blue-color"><strong>この四半世紀のAI技術の理論史は、「意味とは何か」を探求する「意味の分散表現論」すなわちembedding論の発展史であると考えることができます。</strong></mark></p>



<p>語の意味の分散表現が文の意味の分散表現へと進み、それをベースとした「翻訳モデル」がAttention メカニズムの導入により発展します。　変化はさらに続きます。Transformerを頂点とした「翻訳モデル」がencoder-only / decoder-only アーキテクチャーに分解・解体する中で、後者のアーキテクチャーの「勝利」として、「大規模言語モデル」が成立します。</p>



<p><strong><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-red-color">「機械の言語能力の獲得」という機械の能力の画期的な拡大を可能としたのは、技術的には、強力な「大規模言語モデル」の成立によるものです。</mark></strong></p>



<h4 class="wp-block-heading is-style-vk-heading-default">マルレク<a href="https://www.marulabo.net/docs/competence/" title="">「機械の言語能力の獲得を考える」</a>のAIによる要約</h4>



<p>意味の分散表現論、翻訳モデルから大規模言語モデルの成立の歴史を振り返ったこのセミナーは、embeddingに注目するこの連続セミナーの基本的な問題意識を示しています。</p>



<p class="is-style-vk-heading-default"><span data-fontsize="18px" style="font-size: 18px;" class="vk_inline-font-size"><strong>前回のセミナーのAIによる音声概要</strong></span></p>



<p>このセミナーのAIによる音声概要は、次からアクセスできます。200ページの長い資料がとてもよくまとまっています。ぜひ、お聞きください。</p>



<figure class="wp-block-audio"><audio controls src="https://www.marulabo.net/wp-content/uploads/2026/02/AIandEmbeddings.mp3"></audio></figure>



<p></p>



<p class="is-style-vk-heading-default"><strong>前回のセミナーのメインのpdf資料のAIによるまとめ</strong></p>



<p>また、<a href="https://drive.google.com/file/d/10PMapPcsoPvi3oYLbl9PlcvfLNJyGBsw/view?usp=sharing" title="">このセミナーのメインのpdf資料</a>のAIによるまとめは、次のリンクからアクセスできます。<br><a href="https://maruyama097.blogspot.com/2026/02/blog-post_22.html">https://maruyama097.blogspot.com/2026/02/blog-post_22.html</a></p>



<p>セミナー資料は、次のリンクで公開済みです。<a href="https://maruyama097.blogspot.com/2026/02/blog-post.html" title="">「マルレク「機械の言語能力の獲得を考える」の講演ビデオと講演資料公開しました」</a></p>



<h3 class="wp-block-heading is-style-vk-heading-default">機械と人間が意味を共有するembeddingの世界を考える</h3>



<p>先のセミナーの振り返りでもみたように、機械が言語能力を獲得できたのは、人間のことばの意味をLLMがembeddingを通じて、理解できるようになったからだと考えています。</p>



<p>ただ、LLMが Next token predictionマシンであるという一般的な認識と、それがコンテキストを含む言葉の意味を理解する能力として現れるという認識には、ギャップがあるように思います。</p>



<p>また、embeddingは、それ自身で既に「世界」についての情報を豊富に含んでいるように思えます。そうした特徴は外付けのRAGとは独立なものです。それは、embedding の生成メカニズムそのものに根ざしているはずです。</p>



<p>ただ、こうした問題の多くに、今回のセミナーでは、答えることができませんでした。予告したコンテンツを一回のセミナーに収めることが難しくなっていて、セミナーを分割することになりました。</p>



<p class="is-style-vk-heading-default"><span data-fontsize="21px" style="font-size: 21px;" class="vk_inline-font-size"><strong>embedding プログラミングを学ぶことの意味</strong></span></p>



<p>今回のセミナーでは、直接embeddingを操作するembeddingプログラミングを紹介します。<br>AIが、ほとんどどんなプログラムも作ってくれる時代に、プリミティブなembeddingプログラミングを学ぶことの意味を確認しておきましょう。</p>



<p class="is-style-vk-heading-default"><span data-fontsize="18px" style="font-size: 18px;" class="vk_inline-font-size"><strong>機械と意味を通じ合うための「共通言語」としての理解</strong></span></p>



<p><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-cyan-blue-color"><strong>僕は、Embeddingの発見を「この4半世紀のAI研究の白眉」と高く評価し、それを「人間と機械の共通言語」と呼んでいます。また、人間にとってEmbeddingは、音声や文字に次ぐ「ことばの第三の形態」であるとも位置づけています。 </strong></mark></p>



<p>単なるプログラミングテクニックとしてだけでなく、「機械がどのように言葉の意味を数値（ベクトル）として捉え、意味の近さを計算しているのか（コサイン類似度など）」を知ることは、機械の言語理解の本質に触れることであり、AIを活用する上での強力な土台となります。</p>



<p class="is-style-vk-heading-default"><span data-fontsize="18px" style="font-size: 18px;" class="vk_inline-font-size"><strong>信頼性の高いAIシステムの根幹技術であるため</strong></span></p>



<p>LLMの弱点であるハルシネーションを抑制し、情報の透明性と正確性を担保する手法として「RAG（検索拡張生成）」が重要視されています。 RAGのパイプラインでは、テキストをEmbeddingに変換してベクトルデータベースに登録し、ユーザーの入力とのコサイン類似度を用いて関連情報を検索（Vector Search）するというプロセスが必須のステップとして組み込まれています。 </p>



<p>AIがコード自体を書いてくれるとしても、この「データをどのようにチャンクに分割し、ベクトル化して検索させるか」というシステム全体の設計やチューニングは人間が行う必要があり、その裏側にある技術を理解しているかどうかがシステムの品質を左右します。</p>



<p class="is-style-vk-heading-default"><span data-fontsize="18px" style="font-size: 18px;" class="vk_inline-font-size"><strong>より高度なシステムへの進化に対応するため</strong></span></p>



<p>AI技術は、単純なベクトル検索を行うものから、クエリの書き換えや再順位付けを行う「Advanced RAG」、さらにはAIが自律的に検索対象や再検索を判断する「Agentic RAG」へと急速に進化しています。また、今後は「embeddingの共有・蓄積・検索」が情報の世界に大きなインパクトを与えると予想されています。</p>



<p>AIにプログラミングを任せる時代だからこそ、ブラックボックスになりがちな「ベクトル空間における意味の検索」の仕組みを人間が直接理解しておくことで、AIに対してより高度な指示を出し、生成されたシステムの評価や改善を正確に行うことができるようになると考えられます。</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="マルレク「embeddingプログラミングの基礎」へのお誘い" width="1140" height="855" src="https://www.youtube.com/embed/UthMNlQtI-w?list=PLQIrJ0f9gMcMtd68N6t0r-R-V_keMWFhH" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<h2 class="wp-block-heading is-style-vk-heading-default">Part 2 embedding プログラミング入門</h2>



<p class="is-style-vk-heading-default"><span data-fontsize="18px" style="font-size: 18px;" class="vk_inline-font-size"><strong>Language Model と Embedding Model</strong></span></p>



<p>多くのAI ベンダーは、Language Model (LLM) と並んで Embedding Modelを提供しています。</p>



<p>OpenAIの text-embedding-3-large, Googleのgemini-embedding-001をはじめとして、Cohere, Voyage AI, Mistral AI, Jina AI&nbsp; 等、多くのAIベンダーから多くのembeddingモデルが公開されています。オープンソースのHugging FaceのBGE(Beijing Academy of AI)もよく利用されているようです。</p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://drive.google.com/file/d/1S3mnJNDgMvcU1ZDrzfCKsJKisT-ejhqj/view?usp=sharing" title="">embedding体験入門</a></h3>



<p>↑ 見出しクリックでpdfへ</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="embedding体験入門" width="1140" height="855" src="https://www.youtube.com/embed/pZWu7bCaQrc?list=PLQIrJ0f9gMcMtd68N6t0r-R-V_keMWFhH" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<h3 class="wp-block-heading is-style-vk-heading-default">Amazon レビュー情報からの意味的検索</h3>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://drive.google.com/file/d/1a7L9lvWR8PisjpHqaS3qDUakKZA5avn6/view?usp=sharing" title="">データを準備する</a></h4>



<p>↑ 見出しクリックでpdfへ</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="Amazon レビュー情報からの意味的検索 1" width="1140" height="855" src="https://www.youtube.com/embed/Sm7Cy7vBKY0?list=PLQIrJ0f9gMcMtd68N6t0r-R-V_keMWFhH" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://drive.google.com/file/d/1I4rzpR5aj3h0taf48KGyRCjCEIpWWAU5/view?usp=sharing" title=""> embeddingを利用したテキストの意味的検索</a></h4>



<p>↑ 見出しクリックでpdfへ</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="embeddingを利用したテキストの検索" width="1140" height="855" src="https://www.youtube.com/embed/bqkqn28DUYs?list=PLQIrJ0f9gMcMtd68N6t0r-R-V_keMWFhH" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<h2 class="wp-block-heading is-style-vk-heading-default">Part 3 embeddingと検索技術の新しい展開</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://drive.google.com/file/d/1_BfAhMTajClsgL8b1Ac0vgBpFmedc7Aw/view?usp=sharing" title="">文字列検索と画像検索 </a></h3>



<p>↑ 見出しクリックでpdfへ</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="文字列検索と画像検索−− Vector Searchとembedding" width="1140" height="855" src="https://www.youtube.com/embed/cMlAlVRv44w?list=PLQIrJ0f9gMcMtd68N6t0r-R-V_keMWFhH" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://drive.google.com/file/d/1o5Admupdnf25Tmbwlk9Q8Usd51j4RTJF/view?usp=sharing" title="">Vector Search </a>の紹介</h3>



<p>↑ 見出しクリックでpdfへ</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="Vector Search−-embeddingを検索する" width="1140" height="855" src="https://www.youtube.com/embed/Ks1NkPEAjHU?list=PLQIrJ0f9gMcMtd68N6t0r-R-V_keMWFhH" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://drive.google.com/file/d/1sUwqowHcOu5vo_DtWeUhGUy3wyEdaVZR/view?usp=sharing" title="">マトリョーシカ −− embedding技術の革新</a></h3>



<p>↑ 見出しクリックでpdfへ</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="embedding技術の発展 −− マトリョーシカ" width="1140" height="855" src="https://www.youtube.com/embed/Z9WJeB0r2rY?list=PLQIrJ0f9gMcMtd68N6t0r-R-V_keMWFhH" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://drive.google.com/file/d/1WrCJuiqW7tRMP7_IFTtgMsyibJZQR-S0/view?usp=sharing" title="">Adaptive Classification</a></h4>



<p><a href="https://drive.google.com/file/d/1WrCJuiqW7tRMP7_IFTtgMsyibJZQR-S0/view?usp=sharing">↑ 見出しクリックでpdfへ</a></p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="Adaptive Classification" width="1140" height="855" src="https://www.youtube.com/embed/Da7SJA-gtug?list=PLQIrJ0f9gMcMtd68N6t0r-R-V_keMWFhH" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://drive.google.com/file/d/1Nb8Yb3OoUnO5GSclGoRIlSOUtQ8ZdtsU/view?usp=sharing" title="">Adaptive Retrieval</a></h4>



<p>↑ 見出しクリックでpdfへ</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="Adaptive Retrieval" width="1140" height="855" src="https://www.youtube.com/embed/9W5SIR2gL6Q?list=PLQIrJ0f9gMcMtd68N6t0r-R-V_keMWFhH" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<h2 class="wp-block-heading is-style-vk-heading-default">今後のセミナーについて</h2>



<p>前回のセミナーと今回のセミナーと合わせて、次のようなセミナーを開催することになります。準備中のセミナーを分割したので、それぞれのまとめページを別個に作成しました。下のセミナー・タイトルのクリックで、それぞれのセミナーのまとめページにジャンプできます。</p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/infomationshare/" title="">「embeddingの共有・蓄積・検索の未来」</a></h3>



<p>embedding技術が可能とする情報の共有と情報の蓄積と検索の未来について考えます。</p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/overntp/" title="">“Next token prediction” 描像を超えて</a></h3>



<p>“Next token prediction&#8221;のみかけ上の単純さの背後には、embeddingに表現される複雑な「意味の世界」が隠れています。</p>



<p>下の画像クリックで、それぞれのセミナーのまとめページにジャンプできます。</p>



<div class="wp-block-columns is-layout-flex wp-container-core-columns-is-layout-3 wp-block-columns-is-layout-flex">
<div class="wp-block-column is-layout-flow wp-block-column-is-layout-flow">
<figure class="wp-block-image size-large"><a href="https://www.marulabo.net/docs/competence/"><img loading="lazy" decoding="async" width="1024" height="745" src="https://www.marulabo.net/wp-content/uploads/2026/01/セミナータイトル2026−01−31-1024x745.jpg" alt="" class="wp-image-7339" srcset="https://www.marulabo.net/wp-content/uploads/2026/01/セミナータイトル2026−01−31-1024x745.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2026/01/セミナータイトル2026−01−31-300x218.jpg 300w, https://www.marulabo.net/wp-content/uploads/2026/01/セミナータイトル2026−01−31-768x559.jpg 768w, https://www.marulabo.net/wp-content/uploads/2026/01/セミナータイトル2026−01−31.jpg 1152w" sizes="(max-width: 1024px) 100vw, 1024px" /></a><figcaption class="wp-element-caption"><a href="https://www.marulabo.net/docs/competence/">https://www.marulabo.net/docs/competence/</a></figcaption></figure>
</div>



<div class="wp-block-column is-layout-flow wp-block-column-is-layout-flow">
<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="757" src="https://www.marulabo.net/wp-content/uploads/2026/02/Season−2x-1024x757.jpg" alt="" class="wp-image-7430" srcset="https://www.marulabo.net/wp-content/uploads/2026/02/Season−2x-1024x757.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−2x-300x222.jpg 300w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−2x-768x567.jpg 768w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−2x.jpg 1126w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption"><a href="https://draft.blogger.com/blog/post/edit/633957148720976943/6093079773345027412#">https://www.marulabo.net/docs/embedding2/</a><br></figcaption></figure>
</div>
</div>



<div class="wp-block-columns is-layout-flex wp-container-core-columns-is-layout-4 wp-block-columns-is-layout-flex">
<div class="wp-block-column is-layout-flow wp-block-column-is-layout-flow">
<figure class="wp-block-image size-large"><a href="https://www.marulabo.net/docs/infomationshare/"><img loading="lazy" decoding="async" width="1024" height="755" src="https://www.marulabo.net/wp-content/uploads/2026/02/Season−3-1-1024x755.jpg" alt="" class="wp-image-7429" srcset="https://www.marulabo.net/wp-content/uploads/2026/02/Season−3-1-1024x755.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−3-1-300x221.jpg 300w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−3-1-768x566.jpg 768w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−3-1.jpg 1372w" sizes="(max-width: 1024px) 100vw, 1024px" /></a><figcaption class="wp-element-caption"><a href="https://www.marulabo.net/docs/infomationshare/">https://www.marulabo.net/docs/infomationshare/</a></figcaption></figure>
</div>



<div class="wp-block-column is-layout-flow wp-block-column-is-layout-flow">
<figure class="wp-block-image size-large"><a href="https://www.marulabo.net/docs/overntp/"><img loading="lazy" decoding="async" width="1024" height="760" src="https://www.marulabo.net/wp-content/uploads/2026/02/Season−4-1024x760.jpg" alt="" class="wp-image-7418" srcset="https://www.marulabo.net/wp-content/uploads/2026/02/Season−4-1024x760.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−4-300x223.jpg 300w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−4-768x570.jpg 768w, https://www.marulabo.net/wp-content/uploads/2026/02/Season−4.jpg 1340w" sizes="(max-width: 1024px) 100vw, 1024px" /></a><figcaption class="wp-element-caption"><a href="https://www.marulabo.net/docs/overntp/">https://www.marulabo.net/docs/overntp/</a></figcaption></figure>
</div>
</div><p>The post <a href="https://www.marulabo.net/docs/embedding2/">embeddingプログラミングの基礎</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Deep Dive Audio 20260131</title>
		<link>https://www.marulabo.net/docs/deep-dive-audio-20260131/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=deep-dive-audio-20260131</link>
		
		<dc:creator><![CDATA[MaruyamaFujio]]></dc:creator>
		<pubDate>Tue, 20 Jan 2026 08:44:00 +0000</pubDate>
				<guid isPermaLink="false">https://www.marulabo.net/?post_type=docs&#038;p=7351</guid>

					<description><![CDATA[<p>Transformerの登場 翻訳モデルから大規模言語モデルへ EncoderとDecoderの分離からDecoder OnlyのLLMへ</p>
<p>The post <a href="https://www.marulabo.net/docs/deep-dive-audio-20260131/">Deep Dive Audio 20260131</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="745" src="https://www.marulabo.net/wp-content/uploads/2026/01/セミナータイトル2026−01−31-1024x745.jpg" alt="" class="wp-image-7339" srcset="https://www.marulabo.net/wp-content/uploads/2026/01/セミナータイトル2026−01−31-1024x745.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2026/01/セミナータイトル2026−01−31-300x218.jpg 300w, https://www.marulabo.net/wp-content/uploads/2026/01/セミナータイトル2026−01−31-768x559.jpg 768w, https://www.marulabo.net/wp-content/uploads/2026/01/セミナータイトル2026−01−31.jpg 1152w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">Screenshot</figcaption></figure>



<h2 class="wp-block-heading is-style-vk-heading-default">Transformerの登場</h2>



<ul>
<li><span data-fontSize="18px" style="font-size: 18px;" class="vk_inline-font-size"><strong>RNNからTransformerへ</strong><br></span><a href="https://drive.google.com/file/d/1U6mDCZDaI1mPF95a3w54jjGHp06y-mIj/view?usp=sharing">https://drive.google.com/file/d/1U6mDCZDaI1mPF95a3w54jjGHp06y-mIj/view?usp=sharing</a><br><a href="https://www.marulabo.net/wp-content/uploads/2026/01/RNNからTransformer.mp3">https://www.marulabo.net/wp-content/uploads/2026/01/RNNからTransformer.mp3</a></li>



<li><strong><span data-fontSize="18px" style="font-size: 18px;" class="vk_inline-font-size">Transformerのアーキテクチャー<br></span></strong><a href="https://drive.google.com/file/d/1Ko2XoHHpMIad4diYBZeybK7faCLTft8K/view?usp=sharing">https://drive.google.com/file/d/1Ko2XoHHpMIad4diYBZeybK7faCLTft8K/view?usp=sharing</a><br><a href="https://www.marulabo.net/wp-content/uploads/2026/01/Transformerのアーキテクチャー.mp3">https://www.marulabo.net/wp-content/uploads/2026/01/Transformerのアーキテクチャー.mp3</a></li>
</ul>



<pre class="wp-block-code"><code>&#91;ai_playlist id="7352"]</code></pre>



<h2 class="wp-block-heading is-style-vk-heading-default">翻訳モデルから大規模言語モデルへ</h2>



<h3 class="wp-block-heading is-style-vk-heading-default">EncoderとDecoderの分離からDecoder OnlyのLLMへ</h3>



<ul>
<li><strong><span data-fontSize="18px" style="font-size: 18px;" class="vk_inline-font-size">LLMはなぜ翻訳モデルから生まれたのか<br></span></strong><a href="https://drive.google.com/file/d/16LvxRmXHoHjbfXNEPC6WIhX1t0zkqRNi/view?usp=sharing">https://drive.google.com/file/d/16LvxRmXHoHjbfXNEPC6WIhX1t0zkqRNi/view?usp=sharing</a><br><a href="https://www.marulabo.net/wp-content/uploads/2026/01/LLMはなぜ翻訳モデルから生まれたのか.mp3">https://www.marulabo.net/wp-content/uploads/2026/01/LLMはなぜ翻訳モデルから生まれたのか.mp3</a></li>



<li><strong><span data-fontSize="18px" style="font-size: 18px;" class="vk_inline-font-size">なぜLLMはエンコーダを捨てたのか<br></span></strong><a href="https://drive.google.com/file/d/1teYuSe95NFp5Kq18yMu1JXz40nQmidIA/view?usp=sharing">https://drive.google.com/file/d/1teYuSe95NFp5Kq18yMu1JXz40nQmidIA/view?usp=sharing</a><br><a href="https://www.marulabo.net/wp-content/uploads/2026/01/なぜLLMはエンコーダを捨てたのか.mp3">https://www.marulabo.net/wp-content/uploads/2026/01/なぜLLMはエンコーダを捨てたのか.mp3</a></li>



<li><strong><span data-fontSize="18px" style="font-size: 18px;" class="vk_inline-font-size">AIはなぜ「理解」より「生成」を選んだか<br></span></strong><a href="https://drive.google.com/file/d/1eVLt4pJ6lSw1r3Ke0WQ3tVPzlt-go2jx/view?usp=sharing">https://drive.google.com/file/d/1eVLt4pJ6lSw1r3Ke0WQ3tVPzlt-go2jx/view?usp=sharing</a><br><a href="https://www.marulabo.net/wp-content/uploads/2026/01/AIはなぜ「理解」より「生成」を選んだか.mp3">https://www.marulabo.net/wp-content/uploads/2026/01/AIはなぜ「理解」より「生成」を選んだか.mp3</a></li>



<li><strong><span data-fontSize="18px" style="font-size: 18px;" class="vk_inline-font-size">なぜdecoder−onlyがAIの覇権を握ったのか<br></span></strong><a href="https://drive.google.com/file/d/1MfbGcIgRNR4rGZFgLYxYggzJbZxF9VHI/view?usp=sharing">https://drive.google.com/file/d/1MfbGcIgRNR4rGZFgLYxYggzJbZxF9VHI/view?usp=sharing</a><br><a href="https://www.marulabo.net/wp-content/uploads/2026/01/なぜdecoder−onlyがAIの覇権を握ったのか.mp3">https://www.marulabo.net/wp-content/uploads/2026/01/なぜdecoder−onlyがAIの覇権を握ったのか.mp3</a></li>
</ul>



<pre class="wp-block-code"><code>&#91;ai_playlist id="7358"]</code></pre><p>The post <a href="https://www.marulabo.net/docs/deep-dive-audio-20260131/">Deep Dive Audio 20260131</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>機械の言語能力の獲得を考える</title>
		<link>https://www.marulabo.net/docs/competence/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=competence</link>
		
		<dc:creator><![CDATA[MaruyamaFujio]]></dc:creator>
		<pubDate>Fri, 16 Jan 2026 22:04:50 +0000</pubDate>
				<guid isPermaLink="false">https://www.marulabo.net/?post_type=docs&#038;p=7338</guid>

					<description><![CDATA[<p>当初、「機械の言語能力の獲得から考える embeddingの共有・蓄積・検索の未来」というテーマでセミナーを開催することを考えていたのですが、長くなりそうなので、セミナーを次の二つに分けることにしました。 このWebペー [&#8230;]</p>
<p>The post <a href="https://www.marulabo.net/docs/competence/">機械の言語能力の獲得を考える</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="745" src="https://www.marulabo.net/wp-content/uploads/2026/01/セミナータイトル2026−01−31-1024x745.jpg" alt="" class="wp-image-7339" srcset="https://www.marulabo.net/wp-content/uploads/2026/01/セミナータイトル2026−01−31-1024x745.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2026/01/セミナータイトル2026−01−31-300x218.jpg 300w, https://www.marulabo.net/wp-content/uploads/2026/01/セミナータイトル2026−01−31-768x559.jpg 768w, https://www.marulabo.net/wp-content/uploads/2026/01/セミナータイトル2026−01−31.jpg 1152w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">Screenshot</figcaption></figure>



<p>当初、「機械の言語能力の獲得から考える embeddingの共有・蓄積・検索の未来」というテーマでセミナーを開催することを考えていたのですが、長くなりそうなので、セミナーを次の二つに分けることにしました。</p>



<ul>
<li>「機械の言語能力の獲得を考える」</li>



<li>「<a href="https://www.marulabo.net/docs/embedding2/" title="">機械と人間が意味を共有する embeddingの世界を考える</a>」</li>
</ul>



<p>このWebページやYouTubeと並行して、次のblogリストからも関連コンテンツにアクセスできます。<a href="https://maruyama097.blogspot.com/2025/12/embedding-blog.html">https://maruyama097.blogspot.com/2025/12/embedding-blog.html</a></p>



<h2 class="wp-block-heading is-style-vk-heading-default">セミナー概要</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://drive.google.com/file/d/1InLxC0SVzZ6oPtHHwBY8aUa7eiqUY8my/view?usp=sharing" title="">今回のセミナーのアプローチ</a></h3>



<p>↑ 見出しクリックでpdfへ</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="1/31マルレク「機械の言語能力の獲得を考える」へのお誘い" width="1140" height="855" src="https://www.youtube.com/embed/9wWxODp8guo?list=PLQIrJ0f9gMcOZAuK3OhXu9mcZrX32ZS1j" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>今回のセミナー「機械の言語能力の獲得を考える」は、現代のAI技術の到達点を「機械が言語能力を獲得した」と捉える議論を展開したものです。</p>



<p>機械が新しく獲得した言語能力の中核は、「意味を理解する」能力だと僕は考えています。<br>今回のセミナーでは、機械の言語能力の獲得の中核を、機械の意味を理解する能力の獲得とする議論を行います。</p>



<p>中心問題は、機械は、どのようにして「意味を理解する」ようになったのか？ という問題です。<br>この問題については、21世紀初めからの「意味の分散表現論」の発展が一つの答えを与えてくれると思っています。</p>



<p>セミナーでは、意味のベクトル表現の発見に始まり、翻訳モデルから大規模言語モデルへの発展へと結実する理論の歴史を振り返ろうと思います。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">こうしたアプローチの意味と課題</h3>



<p>「言語能力の獲得」→「意味の理解能力の獲得」→「意味の分散表現論の発展」というスキームや、AI技術の発展を分散表現論の歴史で説明するアプローチには、多くのものを捨象しているという問題もあります。</p>



<h4 class="wp-block-heading is-style-vk-heading-default">AGI論の功罪</h4>



<p>アルトマンは、2035年までに、あらゆる個人が「2025年時点の全人類に匹敵する知的能力」を手に入れることができると予測しています。<br><a href="https://www.marketingaiinstitute.com/blog/the-ai-show-episode-135">https://www.marketingaiinstitute.com/blog/the-ai-show-episode-135</a></p>



<p>一方、イリヤ・サツケヴァーは、アルトマンとは対照的に、AIがもたらす「実在的なリスク(Existential Risk)」に対して恐怖の念を抱いています。彼は、AIが単なるプログラムではなく、いつか人間を凌駕し、制御不能になる可能性を技術的必然として捉えています。<br><a href="https://www.ibm.com/think/topics/superalignment">https://www.ibm.com/think/topics/superalignment</a></p>



<p>昔、ある人がAIに次のような皮肉な定義を与えたことがあります。「AIとは、まだできていないこと全てである」&#8221;Al is whatever hasn&#8217;t been done vet.&#8221;　( &#8220;Gödel, Escher, Bach&#8221; D. R. Hofstadter ) AGI (artificial general intelligence)の議論は、それに似ています。</p>



<p>楽観的なAGI論も悲観的なAGI論もあるのですが、AGI論は、AI技術の到達点の評価ではなくまだできていないこと、まだ起きていないことを含んだ未来の予想です。その予想には、傾聴すべき議論も含まれていることもあるのですが、ある場合には、AIにさらなる投資を呼び込むための誇大宣伝に使われています。</p>



<h4 class="wp-block-heading is-style-vk-heading-default">言語能力と「知性」</h4>



<p>僕は、人間の知性（あるいは、知能）と人間の言語能力を区別しています。人間の知能は複雑な構造を持ち、その最も基本的な構成要素、最も重要な基礎が言語能力なのだと。</p>



<p>親と子も恋人同士の二人も老人ホームの老人もことばを使います。SNSで罵倒し合うのにも、戦争を呼びかけるのにも戦争に反対するのにもことばが必要です。捏造された論文もノーベル賞の対象となる論文も、ことばで書かれています。これらすべては、人間がひとしく言語能力を持ってコミュニケーションできるから可能になっていることです。</p>



<p>言語能力をもつ人間がそうであるように、機械が人間並の言語能力を獲得したとしても、それだけで優れた「知性」を発揮するかはわかりません。機械の言語能力の獲得は、機械が正しいことを言うことを意味するものではありません。ただ、言語能力なしには、優れた知性に成長することはできないと考えています。</p>



<p>その意味では、機械の言語能力の獲得をAI技術の重要な到達点と考えることは、大きな意味を持っていると考えています。</p>



<h4 class="wp-block-heading is-style-vk-heading-default">理論の歴史が示すもの −− embedding概念の発見とその意味</h4>



<p>人工知能の技術にも、短いながら歴史があります。その技術の歴史を貫いて、理論の歴史があります。今回のセミナーでは、AI技術の理論の歴史を振り返ってみたいと思います。</p>



<p>重要なことは、この4半世紀のAI技術の理論史は、「意味とは何か」を中心的なテーマとして、それを探究する理論の旅に他ならなかったということです。それが、今回のセミナーで展開する「意味の分散表現論」の発展史です。　</p>



<p>機械が意味を理解させるためには、人間が意味とは何かを知らなくてはなりません。また、それを実装として機械に伝えなくてはなりません。いろんな試行錯誤があったのですが、意味を多次元のベクトル、embedding として表現するという方法に辿り着き、その応用に磨きをかけていきますます。</p>



<p>意味を表現するembeddingという概念の発見は、この4半世紀のAI研究の白眉だと思います。我々は、embedding という人間と機械の共通言語を獲得し、それを通じて機械と意味を通じ合うことができるようになったのです。</p>



<p>人間にとって、embedding は、話す聞くことばとしての音声と、書く読むことばとしての文字に次ぐ、ことばの第三の形態だと僕は考えています。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">次回のセミナーで扱うこと</h3>



<p>残念ながら、今回のセミナーでは、このembeddingの獲得が、情報の世界でどのようなインパクトを持つかは十分に語ることができません。</p>



<p>それについては、冒頭に述べたように、次回のセミナーは「embeddingの共有・蓄積・検索の未来」として展開したいと思っています。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">関連コンテンツへのアクセス</h3>



<ul>
<li><a href="https://machine-competence.peatix.com/view" title="">「機械の言語能力の獲得を考える」セミナーの申し込みページ</a></li>



<li>「<a href="https://www.marulabo.net/docs/competence/" title="">機械の言語能力の獲得を考える」セミナーのまとめページ</a></li>



<li><a href="https://www.youtube.com/playlist?list=PLQIrJ0f9gMcOZAuK3OhXu9mcZrX32ZS1j" title="">「機械の言語能力の獲得を考える」ショートムービー再生リスト</a></li>



<li><a href="https://maruyama097.blogspot.com/2025/12/embedding-blog.html" title="">「機械の言語能力の獲得を考える」 blogリスト</a></li>
</ul>



<h2 class="wp-block-heading is-style-vk-heading-default">Part 1 意味の分散表現の系譜</h2>



<h3 class="wp-block-heading is-style-vk-heading-default">Bengio 「次元の呪い」</h3>



<h3 class="wp-block-heading is-style-vk-heading-default">Hinton  Autoencoder / 意味的ハッシング</h3>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://maruyama097.blogspot.com/2025/12/blog-post_27.html" title="">意味の分散表現論の登場</a></h3>



<p>↑↓ 見出し/画像クリックでblogへ</p>



<figure class="wp-block-image size-full"><a href="https://maruyama097.blogspot.com/2025/12/blog-post_27.html"><img loading="lazy" decoding="async" width="550" height="417" src="https://www.marulabo.net/wp-content/uploads/2026/01/Word2Vec.jpg" alt="" class="wp-image-7375" srcset="https://www.marulabo.net/wp-content/uploads/2026/01/Word2Vec.jpg 550w, https://www.marulabo.net/wp-content/uploads/2026/01/Word2Vec-300x227.jpg 300w" sizes="(max-width: 550px) 100vw, 550px" /></a></figure>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://maruyama097.blogspot.com/2025/12/blog-post_30.html" title="">文の意味のベクトル表現の発見</a></h3>



<p>↑↓ 見出し/画像クリックでblogへ</p>



<figure class="wp-block-image size-full"><a href="https://maruyama097.blogspot.com/2025/12/blog-post_30.html"><img loading="lazy" decoding="async" width="579" height="435" src="https://www.marulabo.net/wp-content/uploads/2026/01/文の意味ベクトル.jpg" alt="" class="wp-image-7376" srcset="https://www.marulabo.net/wp-content/uploads/2026/01/文の意味ベクトル.jpg 579w, https://www.marulabo.net/wp-content/uploads/2026/01/文の意味ベクトル-300x225.jpg 300w" sizes="(max-width: 579px) 100vw, 579px" /></a></figure>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://maruyama097.blogspot.com/2026/01/transformer.html" title="">Transformerの登場</a></h3>



<p>↑↓ 見出し/画像クリックでblogへ</p>



<figure class="wp-block-image size-large"><a href="https://maruyama097.blogspot.com/2026/01/transformer.html"><img loading="lazy" decoding="async" width="1024" height="775" src="https://www.marulabo.net/wp-content/uploads/2026/01/Ttansformer-1024x775.jpg" alt="" class="wp-image-7377" srcset="https://www.marulabo.net/wp-content/uploads/2026/01/Ttansformer-1024x775.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2026/01/Ttansformer-300x227.jpg 300w, https://www.marulabo.net/wp-content/uploads/2026/01/Ttansformer-768x581.jpg 768w, https://www.marulabo.net/wp-content/uploads/2026/01/Ttansformer.jpg 1158w" sizes="(max-width: 1024px) 100vw, 1024px" /></a><figcaption class="wp-element-caption">Screenshot</figcaption></figure>



<h2 class="wp-block-heading is-style-vk-heading-default">Part 2 翻訳モデルから大規模言語モデル LLM への進化</h2>



<p>Transformerの登場と成功は、AI技術と意味の分散表現論の大きな飛躍でした。このPart 2では、AI技術と意味の分散表現論のさらに大きな飛躍、翻訳モデルから大規模言語モデルへの移行という現代のAI技術に直接つながる重要な進化を取り上げます。</p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://drive.google.com/file/d/1RlIKTlsI5dysRI1Xd5ZPLwx4A0ZPf8E-/view?usp=sharing" title="">翻訳モデルから大規模言語モデルへの進化 LLM 概要</a>　（<a href="https://www.marulabo.net/docs/deep-dive-audio-20260131/#%e7%bf%bb%e8%a8%b3%e3%83%a2%e3%83%87%e3%83%ab%e3%81%8b%e3%82%89%e5%a4%a7%e8%a6%8f%e6%a8%a1%e8%a8%80%e8%aa%9e%e3%83%a2%e3%83%87%e3%83%ab%e3%81%b8" title="">音声概要</a>）</h3>



<p>↑ 見出しクリックでpdfへ</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="大規模言語モデルへのアーキテクチャーの変化 概要" width="1140" height="855" src="https://www.youtube.com/embed/H8CX0vsbUKY?list=PLQIrJ0f9gMcOZAuK3OhXu9mcZrX32ZS1j" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<h3 class="wp-block-heading is-style-vk-heading-default">TransformerからBERTとGPTへ</h3>



<p class="is-style-vk-heading-default">翻訳モデルから大規模言語モデルへの進化の過程において、Transformerの影響は決定的なものでした。大規模言語モデルへの進化において大きな役割を果たした、Post Transformer の代表的な二つのアーキテクチャー BERTとGPTの末尾の &#8216;T&#8217; がTransfomerの &#8216;T&#8217; であることは、その影響の大きさを表しています。</p>



<p>　　<strong>BERT</strong> :  Bidirectional Encoder Representations from <strong>Transformers</strong><br>　　<strong>GPT</strong>   :  Generative pre-trained <strong>transformer</strong></p>



<h3 class="wp-block-heading is-style-vk-heading-default">TransfomerのEncoderとDecoderの分離とその継承</h3>



<p>ただ、Transformerの達成した成果をどのように継承するのかという点で、BERTとGPTのとったアプローチは真逆と言っていい対照的なものでした。両者は、Transformerの二つの基本的な構成要素 EncoderとDecoderを分離し、その一方だけを継承したのです。</p>



<p>　　<strong>BERT</strong> : TransformerからEncoderのみを継承。<strong>Encoder−only アーキテクチャ</strong>ー<br>　　<strong>GPT</strong>   : TransformerからDecoderのみを継承。<strong>Decoder−only アーキテクチャー</strong></p>



<h3 class="wp-block-heading is-style-vk-heading-default">Encoder−only, Decoder−onlyのアーキテクチャーの特徴</h3>



<p>Transformerは、翻訳システムとして実装されていたのですが、BERTもGPTも、もはやかつてのようなSequence to Sequenceの翻訳システムではありませんでした。AIから見れば「翻訳」というのは、AIが自然言語に対して行いうる可能な仕事の一つに過ぎません。翻訳モデルの解体とより一般的なAIのモデルの模索がはじまったのです。</p>



<p>それでは、Encoder−only, Decoder−onlyのアーキテクチャーは、どのような特徴を持っていたのでしょう？</p>



<p>　　<strong>BERT</strong> : Encoder−only アーキテクチャー : <strong>言語の意味の深い理解能力</strong><br>　　<strong>GPT</strong>   : Decoder−only アーキテクチャー : <strong>言語の自由な生成能力</strong></p>



<h3 class="wp-block-heading is-style-vk-heading-default">Decoder−onlyアーキテクチャーの勝利としての大規模言語モデル LLM の成立</h3>



<p>重要なことは、Transformerから分岐した二つのAIアーキテクチャーのうち、Decoder−onlyアーキテクチャーの勝利として、大規模言語モデルが成立したということです。</p>



<p>なぜ、Decoder−onlyアーキテクチャーが勝利したかについては、この概要ではなく、別のセッションで解説したいと思います。そこでの議論は、現在の大規模言語モデルの特徴をよりよく理解するために重要な情報が含まれています。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">補足情報 (音声概要)</h3>



<p>概要とはいえ、少し情報が少ないので、次の二つの音声概要にアクセスしていただけますか？</p>



<ul>
<li><a href="https://www.marulabo.net/wp-content/uploads/2026/01/Transformer%E3%81%AE%E3%82%A2%E3%83%BC%E3%82%AD%E3%83%86%E3%82%AF%E3%83%81%E3%83%A3%E3%83%BC.mp3" title=""><span data-fontsize="18px" style="font-size: 18px;" class="vk_inline-font-size"><strong>「Transformerのアーキテクチャー」</strong></span></a></li>
</ul>



<figure class="wp-block-audio"><audio controls src="https://www.marulabo.net/wp-content/uploads/2026/01/Transformerのアーキテクチャー.mp3"></audio></figure>



<ul>
<li><a href="https://www.marulabo.net/wp-content/uploads/2026/01/LLM%E3%81%AF%E3%81%AA%E3%81%9C%E7%BF%BB%E8%A8%B3%E3%83%A2%E3%83%87%E3%83%AB%E3%81%8B%E3%82%89%E7%94%9F%E3%81%BE%E3%82%8C%E3%81%9F%E3%81%AE%E3%81%8B.mp3" title=""><strong><span data-fontsize="18px" style="font-size: 18px;" class="vk_inline-font-size">「LLMはなぜ翻訳モデルから生まれたの」</span></strong></a></li>
</ul>



<figure class="wp-block-audio"><audio controls src="https://www.marulabo.net/wp-content/uploads/2026/01/LLMはなぜ翻訳モデルから生まれたのか.mp3"></audio></figure>



<p>このほかに、まだ、整理されていないのですが（ごめんなさい）、いろんな切り口で音声概要を作ってみました。、興味がありましたら、こちらもご利用ください。</p>



<ul>
<li><a href="https://www.marulabo.net/docs/deep-dive-audio-20260131/#encoder%e3%81%a8decoder%e3%81%ae%e5%88%86%e9%9b%a2%e3%81%8b%e3%82%89decoder-only%e3%81%aellm%e3%81%b8" title="">「EncoderとDecoderの分離からDecoder OnlyのLLMへ」</a></li>
</ul>



<pre class="wp-block-code"><code>&#91;ai_playlist id="7358"]</code></pre>



<p>　　　</p>



<h2 class="wp-block-heading is-style-vk-heading-default">Part 3  LLM アーキテクチャーの成功を支えたもの</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://drive.google.com/file/d/1wl6PdRTczJZay7zPXjmhHX54PSqY4IhE/view?usp=sharing" title=""> Next token Prediction</a></h3>



<p>↑ 見出しクリックでpdfへ</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="LLM アーキテクチャーの成功を支えたもの−− Next token Prediction" width="1140" height="855" src="https://www.youtube.com/embed/1p6c0p4bml0?list=PLQIrJ0f9gMcOZAuK3OhXu9mcZrX32ZS1j" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://drive.google.com/file/d/1uuBlgq05Un68TOekbyIDi4Rn2CkYlBIS/view?usp=sharing" title="">Self-Supervised Learning</a></h3>



<p>↑ 見出しクリックでpdfへ</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="LLM アーキテクチャーの成功を支えたもの 2 −− Self-Supervised Learning" width="1140" height="855" src="https://www.youtube.com/embed/5wwvme3xSH0?list=PLQIrJ0f9gMcOZAuK3OhXu9mcZrX32ZS1j" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<p>　　　</p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://drive.google.com/file/d/1LZTfBWjzqLzeW9xg9rhDPNPW3FyHpERy/view?usp=sharing" title="">In-Context learningとRetrieval-Augmented Generation</a></h3>



<p>↑ 見出しクリックでpdfへ</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="LLM アーキテクチャーの成功を支えたもの 3 -- ICLとRAG" width="1140" height="855" src="https://www.youtube.com/embed/uox6lCJPCP8?list=PLQIrJ0f9gMcOZAuK3OhXu9mcZrX32ZS1j" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure><p>The post <a href="https://www.marulabo.net/docs/competence/">機械の言語能力の獲得を考える</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Deep Dive Audio 20260106</title>
		<link>https://www.marulabo.net/docs/deep-dive-audio-20160106/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=deep-dive-audio-20160106</link>
		
		<dc:creator><![CDATA[MaruyamaFujio]]></dc:creator>
		<pubDate>Tue, 06 Jan 2026 04:18:19 +0000</pubDate>
				<guid isPermaLink="false">https://www.marulabo.net/?post_type=docs&#038;p=7335</guid>

					<description><![CDATA[]]></description>
										<content:encoded><![CDATA[<pre class="wp-block-code"><code>&#91;ai_playlist id="7330"]</code></pre><p>The post <a href="https://www.marulabo.net/docs/deep-dive-audio-20160106/">Deep Dive Audio 20260106</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>LLMのマグニチュード論 1 −− LLMの確率計算とenrichedカテゴリー論</title>
		<link>https://www.marulabo.net/docs/llm1bradley2/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=llm1bradley2</link>
		
		<dc:creator><![CDATA[MaruyamaFujio]]></dc:creator>
		<pubDate>Mon, 20 Oct 2025 15:26:43 +0000</pubDate>
				<guid isPermaLink="false">https://www.marulabo.net/?post_type=docs&#038;p=7124</guid>

					<description><![CDATA[<p>はじめに 今回のマルレクは、LLMの理論研究で、もっとも新しく最も先進的な業績である Tai−Danae Bradleyの論文 &#8220;The Magnitude of Categories of Texts En [&#8230;]</p>
<p>The post <a href="https://www.marulabo.net/docs/llm1bradley2/">LLMのマグニチュード論 1 −− LLMの確率計算とenrichedカテゴリー論</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image is-resized alignnone size-medium wp-image-7107"><img loading="lazy" decoding="async" width="300" height="223" src="https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53-300x223.jpg" alt="" class="wp-image-7107" style="width:962px;height:auto" srcset="https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53-300x223.jpg 300w, https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53-1024x762.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53-768x571.jpg 768w, https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-01-20.29.53.jpg 1148w" sizes="(max-width: 300px) 100vw, 300px" /><figcaption class="wp-element-caption">Screenshot</figcaption></figure>



<h2 class="wp-block-heading is-style-vk-heading-default">はじめに</h2>



<p>今回のマルレクは、LLMの理論研究で、もっとも新しく最も先進的な業績である Tai−Danae Bradleyの論文 &#8220;The Magnitude of Categories of Texts Enriched by Language Models&#8221;<br><a href="https://draft.blogger.com/blog/post/edit/633957148720976943/7505595375502458078#">https://arxiv.org/pdf/2501.06662</a>&nbsp;の紹介をしようと思います。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">この論文が扱っている二つの課題</h3>



<p>この論文は、二つの問題を扱っています。</p>



<p>一つは、LLMの意味論に カテゴリー論的基礎を与えた 2022年のBradleyらの論文<br>&#8220;An enriched category theory of language: From syntax to semantics.&#8221;<br><a href="https://draft.blogger.com/blog/post/edit/633957148720976943/7505595375502458078#">https://arxiv.org/pdf/2106.07890</a></p>



<p>のアプローチを、たとえば、LLMが行っている「プロンプトの入力」「プロンプトへの回答の出力」というLLMの現実の振る舞いの解釈にまで拡大するという課題です。</p>



<p>もう一つの課題は、拡大されたLLMの理論とmagnitudeの理論を結びつけることです。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">LLMモデルの拡大</h3>



<p>第一の課題である 2022年論文の拡大については、この論文の第二セクション &#8220;2. Obtaining Enriched Categories from an LLM&#8221; で展開されています。</p>



<p>2022年の論文は、LLM意味論にco−presheaf意味論というフレームを導入し、さらにそのカテゴリーのオブジェクト間の射に、enrichedカテゴリーの手法で、LLMと同じように[0,1]の値を持つ確率値を付与するというものでした。それは、LLMの振る舞いと意味の数学的モデルとしては、画期的なものでした。ただ、テキストxが与えられた時のテキストy の条件付き確率 𝜋( y | x )を直接与えるものではありませんでした。</p>



<p>今回の論文では、以前の[0,1]の値を取る確率モデルを [0, ♾️] の値を取るLawvereの一般化された距離空間のモデルに変えています。ここでもenrichedカテゴリー論の手法が利用されます。</p>



<p>さらに、文頭を表すトークン&#8217;⊥&#8217; と文末を表すトークン&#8217;†&#8217;を導入して、&#8217;⊥&#8217; で始まり&#8217;†&#8217; でおわるプロンプトxに対して、テキスト生成の終了条件を明示的に示しつつ、co−presheafに対応する 𝜋( ー | x )の計算ができるようになりました。</p>



<p>論文のモデルは、現実のLLMの具体的な振る舞いを解釈することを目指したものです。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">LLMとmagnitude論</h3>



<p>拡大されたLLMの理論とmagnitudeの理論を結びつけるという二つ目の課題は、この論文の第三セクション &#8220;3. Magnitude&#8221; で展開されています。</p>



<p>論文では、要素が文字列 x, y, &#8230; であり、二点間の距離が d( x, y ) = − ln π( y | x)&nbsp; で与えられる一般化された距離空間 M のmagnitudeが研究されています。こでのMは、LLMの生成する距離空間に他なりません。</p>



<p>論文のタイトル &#8220;The Magnitude of Categories of Texts Enriched by Language Models&#8221; 「言語モデルによってenrich化されたテキストのカテゴリーのマグニチュード」は、このパートが、論文の主要な内容であることを示しています。実際、多くの結果が語られています。</p>



<p>論文は、M のmagnitude 関数 f( t ) は、テキスト x (プロンプト) に対する、次トークン確率分布 p( − | x ) の Tsallis t−エントロピーと、モデルの可能な出力のカーディナリティの和であることを証明しています。</p>



<p>また、f の t = 1 における導関数はシャノンエントロピーの和を再現すること、これによりmagnitudeを分割関数と見なすことが正当化されると述べています。</p>



<p>さらに論文は、M のmagnitude関数をmagnitude のホモロジーにおけるオイラー特性として表現し、第0次および第1次magnitude Homology群の明示的な記述を提供しています。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">セミナーの構成 </h3>



<p>前回のセミナーでMagnitude論の紹介を始めたのですが、まだ、入り口のところで終わっています。今回のセミナーのメインの論文の解説に入る前に、そこを補う必要があると思っています。今回のセミナーでは、次のような構成を考えています。</p>



<p>　　Part 1&nbsp; Magnitude論の展開<br>　　Part 2&nbsp; LLMモデルの拡大　　（論文の第二セクションに対応）<br>　　Part 3&nbsp; LLMとMagnitude論 （論文の第三セクションに対応）</p>



<p>実際のセッションは、それぞれのPartを行ったり来たりする形で進めたいと思っています。</p>



<h2 class="wp-block-heading is-style-vk-heading-default">セミナーに向けたセッション資料</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/7XtYnz6IpkM?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">BradleyのLLMのマグニチュード論への招待</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1Dh_lza2ejo4GwxIpJ8iRMk2dJpqgANCG/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/xfPTdRTWAC8?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">Bradleyの理論を学ぶ</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/155zV2DoCbHw-VblbrQ7WP7yIoaXwh1yV/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/Sn4YVvc_F2w?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">トークンとテキスト</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/11oAZla0Z0krd4ajXrAK75A5Au84eD34_/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/1hIrxyYRP6A?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">LLMとテキスト上の誘導確率</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1niruk7_jmKYl3ZVV-j5uzxgebBI19-cT/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/7KJeDC482AI?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">LLMの確率計算の基本</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/182D1nhVmjk6stoKjQ2Q0VwmxB_PrgZn2/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/5DyL1k3rVzs?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">論文前半の基本定理の証明</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1PIFKecQkyEX36hnr050gzMZb_ee0VmJ_/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/x0p81M-EJhU?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">LLMへのenrichedカテゴリー論の応用</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1xbjfxIVk38JGH_Ik-lBdt9Rp2-F7kaO2/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/rwXB6TCJ2Vo?list=PLQIrJ0f9gMcMjv25F7mabNGdzKUVt-2CZ" title="">マルレク「LLMのマグニチュード論 1」へのお誘い</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1vKmIbxNCH2ZZU3SWIwqC_ipwoR_TW4GY/preview" width="640" height="480"></iframe></p>



<h2 class="wp-block-heading is-style-vk-heading-default">LLMの新しい理論研究(1)　関連リンク</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><mark style="background-color:#ffffff" class="has-inline-color has-vivid-cyan-blue-color"><a href="https://www.marulabo.net/docs/llm0/" title="">LLMと意味の理論モデル概説</a></mark></h3>



<h4 class="wp-block-heading is-style-vk-heading-default"><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-cyan-blue-color"><a href="https://www.marulabo.net/docs/magnitude/" title="">マグニチュードとは何か</a></mark></h4>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm1bradley/" title="">マグニチュード論の展開</a></h4>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="http://https-www-marulabo-net-docs-llm1bradley2" title="">LLMのマグニチュード論</a></h4>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm0/#Bradley%E3%81%AEcopresheaf%E6%84%8F%E5%91%B3%E8%AB%96" title="">Bradleyのco−presheaf意味論</a></h3>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm-math/">大規模言語モデルの数学的構造 I</a></h4>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm-math2/">大規模言語モデルの数学的構造 II</a></h4><p>The post <a href="https://www.marulabo.net/docs/llm1bradley2/">LLMのマグニチュード論 1 −− LLMの確率計算とenrichedカテゴリー論</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>マグニチュード論の展開 −− LLMの新しい理論研究(1)</title>
		<link>https://www.marulabo.net/docs/llm1bradley/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=llm1bradley</link>
		
		<dc:creator><![CDATA[MaruyamaFujio]]></dc:creator>
		<pubDate>Thu, 02 Oct 2025 18:29:12 +0000</pubDate>
				<guid isPermaLink="false">https://www.marulabo.net/?post_type=docs&#038;p=7106</guid>

					<description><![CDATA[<p>お詫び：タイトルを「マグニチュード論の展開」に変更しました。 セミナーのタイトルを、「Bradleyのマグニチュード論」から「マグニチュード論の展開」 に変更しました。すみません。 当初、今月は、Tai−Danae B [&#8230;]</p>
<p>The post <a href="https://www.marulabo.net/docs/llm1bradley/">マグニチュード論の展開 −− LLMの新しい理論研究(1)</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image is-resized alignnone size-medium wp-image-7126"><img loading="lazy" decoding="async" width="300" height="223" src="https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-20-18.55.03-300x223.jpg" alt="" class="wp-image-7126" style="width:734px;height:auto" srcset="https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-20-18.55.03-300x223.jpg 300w, https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-20-18.55.03-1024x762.jpg 1024w, https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-20-18.55.03-768x572.jpg 768w, https://www.marulabo.net/wp-content/uploads/2025/10/スクリーンショット-2025-10-20-18.55.03.jpg 1346w" sizes="(max-width: 300px) 100vw, 300px" /><figcaption class="wp-element-caption">Screenshot</figcaption></figure>



<h3 class="wp-block-heading is-style-vk-heading-default">お詫び：タイトルを「マグニチュード論の展開」に変更しました。</h3>



<p>セミナーのタイトルを、「Bradleyのマグニチュード論」から「マグニチュード論の展開」 に変更しました。すみません。</p>



<p>当初、今月は、Tai−Danae Bradleyの論文&#8221;The Magnitude of Categories of Texts Enriched by Language Models&#8221; <a href="https://arxiv.org/pdf/2501.06662">https://arxiv.org/pdf/2501.06662</a>　を素材としてで、次のような構成を考えていました。</p>



<p><span data-fontsize="18px" style="font-size: 18px;" class="vk_inline-font-size">「Bradleyのマグニチュード論」<br>      <mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-red-color">Part 1&nbsp; マグニチュード論の展開</mark><br>　　Part 2&nbsp; LLMモデルの拡大　 　  （論文の第二セクション）<br>　　Part 3&nbsp; LLMとマグニチュード論 （論文の第三セクション）</span></p>



<p>今回のセミナーは、予告した内容の Part 1 を、一つのセミナーに独立させたものになります。<br><br>次回のセミナーは、今回入り口の前で止まってしまった「Bradleyのマグニチュード論」をキチンと紹介したいと思っています。<a href="http://https-www-marulabo-net-docs-llm1bradley2/" title="">新しいURLで「Bradleyのマグニチュード論」のまとめページを作りました。</a>（Part 1 だけで未完に終わったページをうつしただけです。）</p>



<figure class="wp-block-embed is-type-video is-provider-youtube wp-block-embed-youtube wp-embed-aspect-4-3 wp-has-aspect-ratio"><div class="wp-block-embed__wrapper">
<iframe loading="lazy" title="マルレク「マグニチュード論の展開」へのお誘い ver.2" width="1140" height="855" src="https://www.youtube.com/embed/z9yDD5jLmL0?list=PLQIrJ0f9gMcMBg47ryEOaF7o6TDZgipNN" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" referrerpolicy="strict-origin-when-cross-origin" allowfullscreen></iframe>
</div></figure>



<h2 class="wp-block-heading is-style-vk-heading-default">セミナー「マグニチュード論の展開」の構成</h2>



<p>今回のセミナーは、次のような構成をしています。</p>



<p><span data-fontsize="18px" style="font-size: 18px;" class="vk_inline-font-size">「マグニチュード論の展開」<br><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-black-color">　　Part 1&nbsp; マグニチュード論の登場<br></mark>　　Part 2&nbsp; enriched カテゴリー論とマグニチュード<br>　　Part 3&nbsp; Lawvereのenriched カテゴリー論</span></p>



<p>以下、それぞれの内容を簡単に見ていきましょう。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">マグニチュード論の登場</h3>



<p>前回のセミナーは、現代のマグニチュード論の前身ともいうべき数学的対象の「大きさ」についての理論、カントールの「無限の大きさ」や、オイラーの「変わらぬ大きさ – 不変量」の理論を見てきました。また、20世紀のシャニュエルの「オイラー特性数」の研究や、レンスターの「生物多様性」の理論も「大きさ」の理論として取り上げてきました。</p>



<p>ただ、それらの多様な理論は、まだ「マグニチュード」という概念に辿り着いていたわけではありません。このセミナーでは、先のセミナーを受けて、21世紀の「マグニチュード」論の登場とその発展を見ていきたいと思います。</p>



<h4 class="wp-block-heading is-style-vk-heading-default">ゼータ関数とメビウス関数</h4>



<p>ただ、マグニチュード論の理論的起源は、それにとどまりません。マグニチュード論のテキストの中でしばしば「ゼータ関数」や「メビウス反転」という言葉が登場します。それは、古典的・数論的な「リーマンのζ関数」と「メビウスのμ関数」に起源を持っています。</p>



<p>さらに遡って、両者の関係はオイラーの「ゼータ関数の無限積表示」を用いると明らかになるという話をします。またしてもオイラーが出てきます。（ただ、今回紹介する計算は初等的なものです。）</p>



<p>マグニチュード論の、深い数学的背景を知るために、こうした繋がりについて述べてみたいと思います。</p>



<h4 class="wp-block-heading is-style-vk-heading-default">カテゴリーのオイラー特性数 −− 2006年</h4>



<p>このセクションでは、現代のマグニチュード論の最初の論文と見なされている Leinsterの2006年の論文「カテゴリーのオイラー特性数」　“<strong>The Euler characteristic of a category</strong>” を紹介します。ただ、この論文ではマグニチュードという言葉は使われてはおらず、それは「カテゴリーのオイラー特性数」として扱われています。</p>



<p>前回のセミナーで見てきたシャニュエルのオイラー特性数の研究が、現代のマグニチュード論につながっていることがわかると思います。</p>



<h4 class="wp-block-heading is-style-vk-heading-default">距離空間のマグニチュード −− 2011年</h4>



<p>このセクションでは、 先に見た2006年の論文とは異なり、「マグニチュード」を論文タイトルに掲げた、Leinsterの2011年の論文を紹介します。今回のセミナーは、この論文の第一章の構成に従っています。<br><strong>&#8220;The magnitude of metric spaces&#8221;<br></strong>https://arxiv.org/abs/1012.5857　　</p>



<p>この論文で最初に導入されているのが「行列のマグニチュード」です。ここで導入される行列の「重み付け」とその双対の「co重み付け」の概念は、マグニチュード論にとって基本的なものです。<br>それは前回のセミナーのLeinsterの「生物多様性」の定義でも出てきていたものです。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">enriched カテゴリー論とマグニチュード</h3>



<p>このセクションでは、Leinsterのマグニチュード論の展開にとっても、また、今回のセミナーの本来のターゲットであったBradleyのマグニチュード論にとっても、両者にとって重要な飛躍である「enrichedカテゴリーのマグニチュード」の紹介です。</p>



<p>先に見たLeinsterの2011年の論文を彼自身がblogにした <strong>“The Magnitude of an Enriched Category”</strong>に依拠しています。。<br><a href="https://golem.ph.utexas.edu/category/2011/06/the_magnitude_of_an_enriched_c.html">https://golem.ph.utexas.edu/category/2011/06/the_magnitude_of_an_enriched_c.html</a></p>



<p>重要なことは、マグニチュードの理解には、こうしたカテゴリー論的なアプローチが不可欠だということです。</p>



<p>カテゴリー論の利用では、LLMの意味理解の構造の解明にカテゴリー論のco−presheafの概念を導入したBradleyの研究は画期的なものだったと思います。その点では、Leinsterのマグニチュード論とBradleyの新しいLLM論は、理論的土台の多くを共有していると、僕は考えています。別のセミナーで紹介する予定のCoeckeらのQNLP（量子コンピュータを使った言語理解の取り組み）も同じ土台に立っています。カテゴリー論という共通の武器を得て、さまざまな分野で同時多発的に進行する研究の展開は、21世紀の科学・技術の発展の大きな特徴です。</p>



<p>このセクションの前半は、「enrichedカテゴリー論」の基本的な紹介に当てられています。ここでの「ダイアルのたとえ」は、とてもわかりやすいものだと思います。後半は、enrich化されたカテゴリーのマグニチュードをどのように定義できるのかという話をしています。</p>



<h3 class="wp-block-heading is-style-vk-heading-default">Lawvereのenriched カテゴリー論</h3>



<p>このセクションでは、こうした展開を明確にビジョンとして持っていただけでなく、そうしたカテゴリー論の概念装置を数多く作り上げた数学者Lawvereの研究の一部を紹介します。</p>



<p>enrichedカテゴリー論とその応用について、最大の貢献者の一人は、Lawvereだと思います。前回のセミナーで紹介したシャニュエルは、Lawvereの共同研究者でした。現代のマグニチュード論は、Lawvereのビジョンにその多くを負っています。</p>



<p>ここでは、彼の「一般化された距離空間」の概念を紹介します。</p>



<h2 class="wp-block-heading is-style-vk-heading-default">Part 1 マグニチュード論の登場</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/wEtGBgEE0Z0?list=PLQIrJ0f9gMcMBg47ryEOaF7o6TDZgipNN" title="">ゼータ関数とメビウス関数</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/10k1F9hEzvq6gkSxrEOaCgIzTQdYJKomi/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/sgnsWsrBjM8?list=PLQIrJ0f9gMcMBg47ryEOaF7o6TDZgipNN" title="">カテゴリーのオイラー標数</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1tHjqV2z5-dTD-i3jrKCw4GdRhhzsZRJM/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default">行列のマグニチュード</h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/10heqpj6dSI7Z8K2TtN9L8L8-ft5ogYmj/preview" width="640" height="480"></iframe></p>



<h2 class="wp-block-heading is-style-vk-heading-default">Part 2 enriched カテゴリー論とマグニチュード</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/DXCXpDVnakElist=PLQIrJ0f9gMcMBg47ryEOaF7o6TDZgipNN" title="">enrich化されたカテゴリー</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1ztt5rFlKOCsl_4z4mlNO_vbnRlO2VJYj/preview" width="640" height="480"></iframe></p>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/5c8NCjB1fos?list=PLQIrJ0f9gMcMBg47ryEOaF7o6TDZgipNN" title="">enrich化されたカテゴリーのマグニチュード</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1mEVrWqa8PEmFOWof-nZf1rdfsNj4Np03/preview" width="640" height="480"></iframe></p>



<h2 class="wp-block-heading is-style-vk-heading-default">Part 3 Lawvereのenriched カテゴリー論</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://youtu.be/W_TFuSow8KE?list=PLQIrJ0f9gMcMBg47ryEOaF7o6TDZgipNN" title="">Lawvereの「一般化された距離空間」</a></h3>



<p>↑ 見出しクリックでYouTubeへ； ↓ pdfはスクロールで全文読めます</p>



<p><iframe loading="lazy" src="https://drive.google.com/file/d/1-qA__UTa2QToUT7rXQeB4veEqfpxuuGV/preview" width="640" height="480"></iframe></p>



<h2 class="wp-block-heading is-style-vk-heading-default">LLMの新しい理論研究(1)　関連リンク</h2>



<h3 class="wp-block-heading is-style-vk-heading-default"><mark style="background-color:#ffffff" class="has-inline-color has-vivid-cyan-blue-color"><a href="https://www.marulabo.net/docs/llm0/" title="">LLMと意味の理論モデル概説</a></mark></h3>



<h4 class="wp-block-heading is-style-vk-heading-default"><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-cyan-blue-color"><a href="https://www.marulabo.net/docs/magnitude/" title="">マグニチュードとは何か</a></mark></h4>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm1bradley/" title="">マグニチュード論の展開</a></h4>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm1bradley2/" title="">Bradleyのマグニチュード論</a></h4>



<h3 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm0/#Bradley%E3%81%AEcopresheaf%E6%84%8F%E5%91%B3%E8%AB%96" title="">Bradleyのco−presheaf意味論</a></h3>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm-math/">大規模言語モデルの数学的構造 I</a></h4>



<h4 class="wp-block-heading is-style-vk-heading-default"><a href="https://www.marulabo.net/docs/llm-math2/">大規模言語モデルの数学的構造 II</a></h4><p>The post <a href="https://www.marulabo.net/docs/llm1bradley/">マグニチュード論の展開 −− LLMの新しい理論研究(1)</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Deep Dive Audio 20250705</title>
		<link>https://www.marulabo.net/docs/dda20250705/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=dda20250705</link>
		
		<dc:creator><![CDATA[MaruyamaFujio]]></dc:creator>
		<pubDate>Sun, 28 Sep 2025 22:32:30 +0000</pubDate>
				<guid isPermaLink="false">https://www.marulabo.net/?post_type=docs&#038;p=7098</guid>

					<description><![CDATA[<p>セミナーの構成 セミナーのまとめページはこちらです。https://www.marulabo.net/docs/dreamerv3/ セミナーは次のような構成をしています。 Part 1 DeepMind Dreamer [&#8230;]</p>
<p>The post <a href="https://www.marulabo.net/docs/dda20250705/">Deep Dive Audio 20250705</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image size-full is-resized"><img loading="lazy" decoding="async" width="640" height="384" src="https://www.marulabo.net/wp-content/uploads/2025/09/217647148-cbc522e2-61ad-4553-8e14-1ecdc8d9438b.gif" alt="" class="wp-image-7099" style="width:754px;height:auto"/></figure>



<h2 class="wp-block-heading is-style-vk-heading-default">セミナーの構成</h2>



<p>セミナーのまとめページはこちらです。<br><a href="https://www.marulabo.net/docs/dreamerv3/">https://www.marulabo.net/docs/dreamerv3/</a></p>



<p>セミナーは次のような構成をしています。</p>



<p><strong><a href="https://www.marulabo.net/docs/dreamerv3/#Part_1_DeepMind_DreamerV3%E3%81%A8%E3%81%AF%E4%BD%95%E3%81%8B" title=""><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-cyan-blue-color">Part 1 DeepMind DreamerV3とは何か<br></mark></a></strong>　　「AI とマインクラフトの世界」はじめに<br>　　DreamerV3の何が画期的なのか<br><br><a href="https://www.marulabo.net/docs/dreamerv3/#Part_2_%E6%98%94%E3%81%AE%E8%A9%B1%E3%82%92%E3%81%97%E3%82%88%E3%81%86" title=""><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-cyan-blue-color"><strong>Part 2 昔の話をしよう −- AIと「世界モデル」</strong><br></mark></a>　　Winogradの「積み木の世界」1970年<br>　　Brooks “Intelligent without representation” 1987年<br><br><strong><a href="https://www.marulabo.net/docs/dreamerv3/#Part_3_DreamerV3%E3%81%A7%E3%81%AEAI%E6%8A%80%E8%A1%93%E3%81%AE%E9%A3%9B%E8%BA%8D" title=""><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-cyan-blue-color">Part 3 DreamerV3でのAI技術の飛躍<br></mark></a></strong>　　DreamerV3はEnder Dragonを倒せるか？<br>　　Diamondはどう獲得されたか？<br>　　DreamerV3でのAI技術の飛躍<br><br><strong><a href="https://www.marulabo.net/docs/dreamerv3/#Part_4_DeepMind%E3%81%AE%E7%A0%94%E7%A9%B6%E5%8B%95%E5%90%91%E3%81%A8DreamerV3" title=""><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-cyan-blue-color">Part 4 DeepMindの研究動向とDreamerV3<br></mark></a></strong>　　DeepMindの三つのプロジェクト<br>　　DeepMindのAI開発のビジョン<br>　　DeepMindのAI開発のビジョン<br><br><strong><a href="https://www.marulabo.net/docs/dreamerv3/#%E3%83%87%E3%82%A3%E3%83%89%E3%83%AD%E3%81%AE%E3%82%AA%E3%82%A6%E3%83%A0_%E2%88%92%E2%88%92_%E6%98%94%E3%81%AE%E8%A9%B1%E3%82%92%E3%81%97%E3%82%88%E3%81%86_3" title=""><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-cyan-blue-color">ディドロのオウム −− 昔の話をしよう (3)</mark></a></strong></p>



<h2 class="wp-block-heading is-style-vk-heading-default">音声概要</h2>



<ul>
<li>AI がゲーム「マインクラフト」でダイヤを発掘する ！</li>



<li>Winogradの「積み木の世界」1970年</li>



<li>Brooks “Intelligent without representation” 1987年</li>



<li>Diamondはどう獲得されたか？</li>



<li>DeepMindのAI開発のビジョン</li>
</ul>


<div id="audioigniter-7102" class="audioigniter-root " data-player-type="full" data-tracks-url="https://www.marulabo.net/?audioigniter_playlist_id=7102" data-display-track-no="true" data-reverse-track-order="false" data-display-tracklist-covers="true" data-display-active-cover="true" data-display-artist-names="true" data-display-buy-buttons="true" data-buy-buttons-target="true" data-cycle-tracks="false" data-display-credits="false" data-display-tracklist="true" data-allow-tracklist-toggle="true" data-allow-tracklist-loop="true" data-limit-tracklist-height="true" data-volume="100" data-tracklist-height="185" ></div><p>The post <a href="https://www.marulabo.net/docs/dda20250705/">Deep Dive Audio 20250705</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Deep Dive Audio 20250531</title>
		<link>https://www.marulabo.net/docs/dda-20250531/?utm_source=rss&#038;utm_medium=rss&#038;utm_campaign=dda-20250531</link>
		
		<dc:creator><![CDATA[MaruyamaFujio]]></dc:creator>
		<pubDate>Fri, 22 Aug 2025 04:05:12 +0000</pubDate>
				<guid isPermaLink="false">https://www.marulabo.net/?post_type=docs&#038;p=7073</guid>

					<description><![CDATA[<p>セミナーの構成 セミナーのまとめページは、こちらです。https://www.marulabo.net/docs/sdlc/ セミナーは、次のようなコンテンツで構成されています。 ● Part 1 ソフトウェア開発でのA [&#8230;]</p>
<p>The post <a href="https://www.marulabo.net/docs/dda-20250531/">Deep Dive Audio 20250531</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></description>
										<content:encoded><![CDATA[<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="756" src="https://www.marulabo.net/wp-content/uploads/2025/05/スクリーンショット-2025-05-29-10.06.40-1024x756.png" alt="" class="wp-image-6827" srcset="https://www.marulabo.net/wp-content/uploads/2025/05/スクリーンショット-2025-05-29-10.06.40-1024x756.png 1024w, https://www.marulabo.net/wp-content/uploads/2025/05/スクリーンショット-2025-05-29-10.06.40-300x222.png 300w, https://www.marulabo.net/wp-content/uploads/2025/05/スクリーンショット-2025-05-29-10.06.40-768x567.png 768w, https://www.marulabo.net/wp-content/uploads/2025/05/スクリーンショット-2025-05-29-10.06.40.png 1124w" sizes="(max-width: 1024px) 100vw, 1024px" /></figure>



<h2 class="wp-block-heading is-style-vk-heading-default">セミナーの構成</h2>



<p>セミナーのまとめページは、こちらです。<br><a href="https://www.marulabo.net/docs/sdlc/">https://www.marulabo.net/docs/sdlc/</a></p>



<p>セミナーは、次のようなコンテンツで構成されています。</p>



<p><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-cyan-blue-color">● Part 1 ソフトウェア開発でのAI利用の動向</mark></p>



<p>　・AI利用の急速な拡大<br>　　　ザッカーバーグの予測<br>　　　AIベンダーの動向<br>　・広がる危機感<br>　　　攻撃者としてのAI / 防御者としてのAI<br>　　　RSAC 2025 レポート AIとNHIによる脅威の拡大</p>



<p><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-cyan-blue-color">● Part 2　ソフトウェア開発とAI Agent</mark></p>



<p>　　・ソフトウェア開発へのAI Agent導入の動向<br>　　・Multi AI Agent プログラミング<br>　　・A2A: Travel Agent サンプル<br>　　・ADK: コード開発パイプライン・サンプル</p>



<p><mark style="background-color:rgba(0, 0, 0, 0)" class="has-inline-color has-vivid-cyan-blue-color">● Part 3　　ソフトウェア開発の課題と未来</mark></p>



<p>　　・人間はAIに何を伝えるのか？<br>　　・LLMと形式手法の統合<br>　　・人間と機械の関係を考える</p>



<h2 class="wp-block-heading is-style-vk-heading-default">音声概説</h2>


<div id="audioigniter-6836" class="audioigniter-root " data-player-type="full" data-tracks-url="https://www.marulabo.net/?audioigniter_playlist_id=6836" data-display-track-no="true" data-reverse-track-order="false" data-display-tracklist-covers="true" data-display-active-cover="true" data-display-artist-names="true" data-display-buy-buttons="true" data-buy-buttons-target="true" data-cycle-tracks="false" data-display-credits="false" data-display-tracklist="true" data-allow-tracklist-toggle="true" data-allow-tracklist-loop="true" data-limit-tracklist-height="true" data-volume="100" data-tracklist-height="480" ></div><p>The post <a href="https://www.marulabo.net/docs/dda-20250531/">Deep Dive Audio 20250531</a> first appeared on <a href="https://www.marulabo.net">MaruLabo</a>.</p>]]></content:encoded>
					
		
		
			</item>
	</channel>
</rss>
