AIうぉ--!(ai-wo-katsuyo-shitai !)

AIを上手く使ってみせたい!!自分なりに。

2025-07-01から1ヶ月間の記事一覧

⭐本当にわかる拡散モデルの説明

↑ この類で何かわかりますか? 本当にわかる拡散モデルの説明 出典: arxiv.org コメント 上の引用画像でだいたいわかるのでは?あとは、都合がよく動くようにインプリできるかの問題かと。

ラーメンと瞑想、こんな本あるんだ。。。 ところでAIはマダマダだな。。。

↑ Copilotに描いてもらった。 ラーメンと瞑想、こんな本あるんだ。。。 へーー。こんな本あるんだ。この人、こんな感じの本を書くんだ。。。。 www.shueisha.co.jp

2025年時点(2025/07/26)。 AIの限界。

Copilotに画を描いてもらったので、それを貼る。 その1 『 講演資料『拡散と流れに基づく学習と推論 Learning and Inference Based on Diffusion and Flow』を読む。⭐いいな。。。これ。 』 これに、なんとなく関係しそうな画像をつくって。 文字は、 Learn…

「推論する生成AI」は実際には思考しているわけではなく、丸暗記した結果を、、、 ⭐ところで思考とは、思考の実装の要件とは(作成中)

以下の記事をみて ところで思考とは、思考の実装の要件とは たとえば、6+7 ⇒ 13 は、思考か? Copilotに聞いた。なるほど。。。と思った。 コメント すみません、Copilotが画をつくってくれたので、再投稿! 以下の記事をみて tjo.hatenablog.com ところで思…

「推論する生成AI」は実際には思考しているわけではなく、丸暗記した結果を、、、 ⭐ところで思考とは、思考の実装の要件とは(作成中)

以下の記事をみて ところで思考とは、思考の実装の要件とは たとえば、6+7 ⇒ 13 は、思考か? Copilotに聞いた。なるほど。。。と思った。 コメント 以下の記事をみて tjo.hatenablog.com ところで思考とは、思考の実装の要件とは たとえば、6+7 ⇒ 13 は、思…

富士山の体積は、東京ドーム何個ぶんでしょうか?(⭐AI思考対決。Copilot vs ChatGPT)

Copilot 富士山の体積は約1,400立方キロメートル(km³)と推定されています。そして、東京ドームの体積は約124万立方メートル(m³)なので、計算すると富士山は東京ドーム約11,290個分に相当します[^1^][^2^]。 こんなスケールの話、ちょっとワクワクするね…

論文『Biologically-Motivated Learning Model for Instructed Visual Processing』(生物学的動機づけによる学習モデルで指示された視覚処理)を読む

論文 https://arxiv.org/pdf/2306.02415v3 概要(論文のabstractのChatGPTによる日本語訳) 脳がどのように学習するかを理解する一環として、進行中の研究では、生物学的知識と現在の人工知能(AI)モデルを組み合わせることで、効率的で生物学的にもっとも…

「AIで書くほど脳がサボる?」──LLM使用が学習能力を低下させる可能性を脳波で証明⭐

論文 https://arxiv.org/pdf/2506.08872v1 Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task 概要(ChatGPT訳) 今日では、OpenAI の ChatGPT のような LLM 製品が広く採用されており、人間および…

AIの基本にバックプロパゲーションがありますが、最近、それに頼らない技術が出つつあるとも言われています。その技術をできるだけ詳しく教えて下さい。

以下、Copilotによる回答であるが、ChatGPTのほうが良い気がする。 ちょっと、ポンコツな回答に感じる。 もっと、質問を長文にすべきだったかも。 バックプロパゲーションに頼らないAI技術は、近年のAI研究で注目されている分野です。従来のニューラルネッ…

AIの基本にバックプロパゲーションがありますが、最近、それに頼らない技術が出つつあるとも言われています。その技術を教えて下さい。

**バックプロパゲーション(誤差逆伝播法)**は長年、ディープラーニングの基礎となってきましたが、その限界や生物的非現実性から、代替的な手法が研究されています。以下に、最近注目されている「バックプロパゲーションに頼らない技術」の代表例を紹介し…

講演資料『拡散と流れに基づく学習と推論 Learning and Inference Based on Diffusion and Flow』を読む。⭐いいな。。。これ。

資料 https://hillbig.github.io/JNNS2023_okanohara.pdf 上記資料引用 コメント ながらく、実際の生物と違うBTに頼っていたが。。。という感じですかね。。。 謎が解明されつつあるんですね。 この資料の周辺や、その後も、適宜。

論文『The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity』を読む(さて、この論文に対して、今後。。。)

論文 arxiv.org 概要(単に、論文の概要をChatGPT訳で示すだけ) Recent generations of frontier language models have introduced Large Reasoning Models (LRMs) that generate detailed thinking processes before providing answers. While these model…

論文『Competitive Programming with Large Reasoning Models』を読む。

論文 arxiv.org 概要(単に論文の概要のChat日本語訳) Weshowthat reinforcement learning applied to large language models (LLMs) significantly boosts performance on complex coding and reasoning tasks. Additionally, we compare two general-purp…