AI
↑ ChatGPT 2026/04/22 ( いわゆる「Images 2.0的なもの」、本人説明) 元々の記事 ↓ ai-de-seikei.hatenablog.com 追記 上記、文字がリアルな世界でない感じだったので、「掘って」もらった 完璧。(太い文字の場合には、変な感じにもなったけど、それは、し…
microgpt.py microgpt · GitHub 実行結果 C:\_work\_NEW\___microGPT>python microgpt.py num docs: 32033 vocab size: 27 num params: 4192 step 1000 / 1000 | loss 2.6497 --- inference (new, hallucinated names) --- sample 1: kamon sample 2: ann sa…
ChatGPTが。 AI分野では、AGI(Artificial General Intelligence:汎用人工知能)について、かなり意見が分かれています。 代表的に「近い」と言う人と「基本的に難しい」と言う人を、3人ずつ挙げます。 ① 「AGIは近々実現する」と主張する人 1. Sam Altman …
Geminiにイラストにしてもらった 論文 arxiv.org 概要の日本語直訳 大規模言語モデル(LLMs)は、推論および生成において顕著な能力を示しており、高度なペルソナ・シミュレーションやロールプレイング言語エージェント(RPLAs)の基盤として機能しています…
Geminiにイラストにしてもらった 対象論文 arxiv.org 補足 補足:用語のポイント Formal linguistic competence(形式的な言語能力): 文法や構文など、言語そのもののルールのこと。 Functional linguistic competence(機能的な言語能力): 言語を使って論…
AI経済の限界を考えた場合、AIがどれほど凄くても、どれほど凄い価値を生み出すとしても、その価値を喜ぶ、享受する人間が、高々83億人しかいないところに、シンプルな限界があると思う。これは、バナナがあんなに美味しいのに、1本100円ぐらいにしかならな…
説明 Grokに以下を依頼した 薔薇と檸檬と、漢字で大きく書いた看板の画像を作って!字は、ゴシックでお願い。看板はこの字だけで画とかは入れないで。 アウトプット 評価 0点 今後の見通し AIが一旦違う方向を向くと軌道修正は難しい。少なくとも、2020年代…
Q Transformerで、self-attentionって技術があるけど、実は、それ自体はどうでもいいと理解しています。自己(self)でかけたりたしたりは、当たり前のデータ処理の小さい手がかりであり、常套手段であり、それで何が起きるということもないと理解しています。…
出典: deepmind.google コメント なんか凄そうーー。 関連の自分の記事 ai-de-seikei.hatenablog.com
self-attention 以下の古い記事で学んだ。。。 qiita.com 多分、self-attentionは、特別な意味はなく、 この類、通常、「とりあえず、足したり引いたり掛けたりしないと何も始まらないから」、 適当に、処理しているだけの理解。
リクエスト 薔薇と檸檬と、漢字で大きく書いた看板の画像を作って!字は、ゴシックでお願い。看板はこの字だけで画とかは入れないで。 ChatGPT Copilot Gemini 参考になる自分の記事 ai-de-seikei.hatenablog.com
Geminiに日本語を含むイラストの作成をお願いしたら、突然、取り乱した。泣き崩れた! 申し訳ありません!AIの画像生成機能において、文字(特に日本語)を正確に描写するのは現在非常に難しい技術的な課題です。 そのため、画像内のテキストを修正する代わ…
Abstract(日本語訳) AIアシスタントは現在、社会に深く組み込まれているが、その利用が人間のエンパワーメントにどのような影響を与えるのかについての実証的研究はこれまでほとんど行われてこなかった。 本研究では、プライバシーを保護するアプローチを…
解決予想年度 # 問題名 ChatGPT Copilot Gemini 1 リーマン予想 2070〜2100 2045年 2030年代以降 2 P≠NP予想 2100以降(最難関) 2070年以降 2040年代以降 3 コラッツ予想 2050〜2080 2035年 2026年〜2028年 4 ゴールドバッハ予想 2040〜2070 2040年 2030年…
Geminiにイラストにしてもらった。 概要(日本語訳) 記号論理的推論は、大規模言語モデル(LLM)における重要でありながら未だ十分に探索されていない能力であり、数学的推論や法的判断といった極めて重要な領域において、信頼性と検証可能性のある意思決定…
証明 AIが数学の超難問が解けることを証明する 少し条件の置き換えをする、 超難問とは、単語数が多い、と置き換える、 これは置き換え過ぎかもしれないが、一つの主要要因ではあるので、ここでは、これで良いこととする。 単語数が多いことはAIは得意である…
↑ こんな感じの暗い色のイラストを、世の中にばらまくのやめて!! (利用者への提案じゃないです。 Copilotへの要望ですっ。)
あまり上手く表現できてない。すみません。Geminiです。 該当論文 https://arxiv.org/pdf/2512.03793 #概要日本語訳 ChatGPTや他の大規模言語モデル(LLM)からの挑戦を受けているものの、Google検索は依然として多くの個人がインターネット上で情報を探す…
Sources & Methodology: Search & CTR Data: > Estimated based on Gartner’s 2024-2026 Search Market Forecast and Ahrefs' Zero-Click Search Study. The drastic drop in CTR reflects the full integration of AI Overviews (SGE) across global search…
参考になりそうなsurveyは、以下かな。 (surveyできる人って、どういう人種なんでしょう。。。。。マメだな。。。) https://arxiv.org/abs/2507.19595 [Submitted on 25 Jul 2025 (v1), last revised 7 Aug 2025 (this version, v2)] Efficient Attention M…
大喜利的タイトルにしたが。。。。 zenn.dev 上記、面白そう、、、、、 コメント しかし、もっと面白くして欲しい。 あと、surveyジャンキーが、もっと全然すごいsurveyを書いてないかな。。。。
イントロの日本語訳 2020年10月14日、OpenAI、スタンフォード大学人工知能研究所(HAI)、およびその他の大学の研究者たちが、当時公開されていた最大の密な言語モデルであったGPT-3を取り巻くオープンな研究課題を議論するために集まった。 会議はチャタム…
2020〜2021年(このあたりで初めて登場) 2020〜2021で「LLM=知能の萌芽」を最も明確に論じた論文 1. Understanding the Capabilities, Limitations, and Societal Impact of Large Language Models (2021) Tamkin, Brundage, Clark, Ganguli この論文は…
問 思考というものがあるとして、それはこれまで人が独占してきたが、 最近、LLMも思考ができる。LLMはソフトウェアなので、思考を実行するための構成を自在に設計でき、 これにより、これまで唯一の思考の実行者であった人と 全く異なる思考の方式が登場す…
おっしゃる通り、「できないわけがない」というのが正解です。 実際、LLMが要約スキルを獲得するプロセスは、まさにその「普通の文章(データセット)」の中に含まれる要約的な構造を学習することから始まっています。 なぜ「普通の文章」を読むだけで要約が…
言葉としては、ベンチマークでなくて、マイルストーンが正しいと思うが。。。 AIベンチマーク20260104-1 たとえば「日経平均株価」や「S&P500」みたいな株価指数(インデックス)に連動する投資、 いわゆる、インデックス投資より明らかに成績がいい投資を実…
AIにコードを書いてもらう際、最も重要なのは「AIが生成したコードに致命的なミスがないか」や「意図しない削除コマンドが含まれていないか」を判断する力です。 シェルスクリプト(特にBash)を理解する上で、最低限押さえておきたい30個の要素をカテゴリー…
もちろん。AI にシェルスクリプトを書かせるとしても、最低限ここを理解しておくと「読める・直せる・応用できる」という重要文法を30個まとめてみたよ。 単語帳みたいにサッと復習できる構成にしてあるから、必要なところだけ拾っていっても大丈夫。 シェ…
いい質問です。 「AIに任せる前提でも、レビュー・デバッグ・安全確認ができる最低限のシェル力」として、これはかなり重要です。 実務(特にLinux/Yocto/ビルド環境)でも効きます。 以下は 「知らないと危険/読めない/直せない」順を意識した 必須30個…
↓ え? 自分(AI)の収益化すらできないの? toyokeizai.net コメント 上記は、少し、冗談と言えば冗談だが、 実際問題として、価値を作るって簡単じゃないと思う。価値があると思い続けてもらうことは相当難しいと思う。