2025-07-01から1ヶ月間の記事一覧
↑ この類で何かわかりますか? 本当にわかる拡散モデルの説明 出典: arxiv.org コメント 上の引用画像でだいたいわかるのでは?あとは、都合がよく動くようにインプリできるかの問題かと。
↑ Copilotに描いてもらった。 ラーメンと瞑想、こんな本あるんだ。。。 へーー。こんな本あるんだ。この人、こんな感じの本を書くんだ。。。。 www.shueisha.co.jp
Copilotに画を描いてもらったので、それを貼る。 その1 『 講演資料『拡散と流れに基づく学習と推論 Learning and Inference Based on Diffusion and Flow』を読む。⭐いいな。。。これ。 』 これに、なんとなく関係しそうな画像をつくって。 文字は、 Learn…
以下の記事をみて ところで思考とは、思考の実装の要件とは たとえば、6+7 ⇒ 13 は、思考か? Copilotに聞いた。なるほど。。。と思った。 コメント すみません、Copilotが画をつくってくれたので、再投稿! 以下の記事をみて tjo.hatenablog.com ところで思…
以下の記事をみて ところで思考とは、思考の実装の要件とは たとえば、6+7 ⇒ 13 は、思考か? Copilotに聞いた。なるほど。。。と思った。 コメント 以下の記事をみて tjo.hatenablog.com ところで思考とは、思考の実装の要件とは たとえば、6+7 ⇒ 13 は、思…
Copilot 富士山の体積は約1,400立方キロメートル(km³)と推定されています。そして、東京ドームの体積は約124万立方メートル(m³)なので、計算すると富士山は東京ドーム約11,290個分に相当します[^1^][^2^]。 こんなスケールの話、ちょっとワクワクするね…
論文 https://arxiv.org/pdf/2306.02415v3 概要(論文のabstractのChatGPTによる日本語訳) 脳がどのように学習するかを理解する一環として、進行中の研究では、生物学的知識と現在の人工知能(AI)モデルを組み合わせることで、効率的で生物学的にもっとも…
論文 https://arxiv.org/pdf/2506.08872v1 Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task 概要(ChatGPT訳) 今日では、OpenAI の ChatGPT のような LLM 製品が広く採用されており、人間および…
以下、Copilotによる回答であるが、ChatGPTのほうが良い気がする。 ちょっと、ポンコツな回答に感じる。 もっと、質問を長文にすべきだったかも。 バックプロパゲーションに頼らないAI技術は、近年のAI研究で注目されている分野です。従来のニューラルネッ…
**バックプロパゲーション(誤差逆伝播法)**は長年、ディープラーニングの基礎となってきましたが、その限界や生物的非現実性から、代替的な手法が研究されています。以下に、最近注目されている「バックプロパゲーションに頼らない技術」の代表例を紹介し…
資料 https://hillbig.github.io/JNNS2023_okanohara.pdf 上記資料引用 コメント ながらく、実際の生物と違うBTに頼っていたが。。。という感じですかね。。。 謎が解明されつつあるんですね。 この資料の周辺や、その後も、適宜。
論文 arxiv.org 概要(単に、論文の概要をChatGPT訳で示すだけ) Recent generations of frontier language models have introduced Large Reasoning Models (LRMs) that generate detailed thinking processes before providing answers. While these model…
論文 arxiv.org 概要(単に論文の概要のChat日本語訳) Weshowthat reinforcement learning applied to large language models (LLMs) significantly boosts performance on complex coding and reasoning tasks. Additionally, we compare two general-purp…