AIうぉ--!(ai-wo-katsuyo-shitai !)

AIを上手く使ってみせたい!!自分なりに。

【0円教科書対決】「ベイズ統計」について。

はじめに

【0円教科書対決】は、タダで閲覧できるサイトの良し悪しを競う意味です。
この記事は、ベイズ統計」に関してです。

結論

(まだ、候補集めのフェーズです。)

候補

候補1

URL

ai-trend.jp

良いところ

  • ページ量が多い。(短い記事が沢山ある。)
  • 例とかが、具体的である。

候補

候補1

URL

ja.wikipedia.org

良いところ

  • Wikiなので、1番にはならないと思うが。。。。具体的が複数あって、かなり、良い。
  • Wikiなので、信用できる。

コメント

まだ、検討はじめです。

補足

ベイズに関しては、以下も参考になる。

www.youtube.com

記事『NECと理研、「弱ラベル学習」を発展させた技術を開発 AI画像認識で新たな対象物の追加する学習作業を大幅に簡素化』を、中味を読む前に想像する。

記事『NEC理研、「弱ラベル学習」を発展させた技術を開発 AI画像認識で新たな対象物の追加する学習作業を大幅に簡素化』を、中味を読む前に想像する。

インプット

robotstart.info

想像する前提

以下の特徴があるという前提で考える。

  • 『AI画像認識で新たな対象物の追加する学習作業を大幅に簡素化』

前提でよくわからないのが、

  • すでに、認識できる対象物が沢山あるのかどうかが、ちょっと、よくわからない。
  • すでに認識できる対象物の認識率は、下がったらダメなんですよね。。。
  • 「あたらな対象物」が認識できることと、それ以外の認識との、総合的な価値の置き方がわからない。

想像の結果

全然、わからない。

  • 「新たな対象物」「新たな対象物でない」の2択の識別器を強化する???

コメント

まず、「弱ラベル」というのは、昔からあるのだろうから、それがどういうものかぐらいは理解しておきたかった。

記事『東芝、1枚の画像を登録するだけで新しい物体を世界最高精度で検出する画像認識AI「Few-shot物体検出AI」を開発』を、中味を読む前に想像する。

記事『東芝、1枚の画像を登録するだけで新しい物体を世界最高精度で検出する画像認識AI「Few-shot物体検出AI」を開発』を、中味を読む前に想像する。

cloud.watch.impress.co.jp

インプット

1

上記のタイトル。

2

自己教師あり
というキーワード

3

1枚の画像の例

想像した内容

自己教師ありがよくわかってないので、疑問点のみ。

DeepMind「Gato」を詳細を知る前に想像してみる。

DeepMind「Gato」を詳細を知る前に想像してみる。

インプット

japan.zdnet.com

引用> プレプリントの論文を発表するサーバー「Arxiv」に投稿された「A Generalist Agent」と題する論文で、著者のScott Reed氏らは、「Gatoは、1セットの重みで、対話を行ったり、画像にキャプションを付けたり、本物のロボットアームでブロックを積み上げたり、Atariのテレビゲームを人間よりも上手にプレイしたり、シミュレーションされた3D環境でナビゲーションを行ったり、命令に従ったりすることができる」と述べている。

 DeepMindの共同設立者であるDemis Hassabis氏は、ツイートで「私たちが作った中で最も汎用的なエージェントだ!素晴らしい成果だ!」とチームの成果を絶賛した。

想像した結果

コメント

上記のとおり、面白そうな内容は想像できていません。
よって、記事とか読むのが楽しみ!!!

【かなり初級編ですが。。。】誤差逆伝播法、このサイトの説明がわかりやすい。

【かなり初級編ですが。。。】誤差逆伝播法、このサイトの説明がわかりやすい。

9cubed.info

ここでの動画も凄くわかりやすい。

↓ このような、非常にシンプルなものから説明が始まる。。。

ゼロから作るDeep Learning ――Pythonで学ぶディープラーニングの理論と実装 でも、ちょっと、うまく頭に入らなかった人にお薦め。

コメント

いままで、うまく、頭に入ってなかった。別に難しいとは思っていないが、しっくりはきていなかった。ちょっと、改善された。

時系列は深層学習じゃなくて、昔からあるのが良いって?(比較の仕方が。。。そんな比較だと当たり前の結論でしょう。。。)Do We Really Need Deep Learning Models for Time Series Forecasting?

時系列は深層学習じゃなくて、昔からあるのが良いって?(比較の仕方が。。。そんな比較だと当たり前の結論でしょう。。。)Do We Really Need Deep Learning Models for Time Series Forecasting?

以下の記事をみかけたので、論文をチラ見した。

ai-scholar.tech

結論: いやーーーー、当たり前でしょうーーーー

論文の概要(Deepl訳)

引用

時系列予測は、電力消費量、交通量、大気質などの予測に限らず、幅広い応用が可能であるため、機械学習における重要なタスクである。従来の予測モデルは、ローリングアベレージ、ベクトル自己回帰、自己回帰統合移動平均に依存している。一方、深層学習や行列分解モデルは、より競争力のあるパフォーマンスで同じ問題に取り組むために最近提案されています。しかし、このようなモデルの大きな欠点は、従来の手法と比較して過度に複雑になる傾向があることである。本論文では、よく知られた機械学習のベースラインであるGradient Boosting Regression Tree(GBRT)モデルに関して、著名な深層学習モデルの結果を報告する。ディープニューラルネットワーク(DNN)モデルと同様に、我々は、時系列予測タスクをウィンドウベースの回帰問題に変換する。さらに、GBRTモデルの入出力構造を特徴づけ、各トレーニングウィンドウにおいて、目標値と外部特徴を連結し、平坦化して多出力GBRTモデルの1つの入力インスタンスを形成するようにした。我々は、昨年度のトップレベルのカンファレンスで発表された8つの最先端のディープラーニングモデルについて、9つのデータセットで比較研究を行いました。その結果、窓ベースの入力変換により、単純なGBRTモデルの性能が、本論文で評価した全ての最先端DNNモデルを上回るレベルまで向上することが実証された。

コメント

すみません、内容が全然追えてませんが、切り口は想像がつきます。
何を言ってるのっ(笑)。
アドバイスなどあれば、お願いします。

DALL-E-2。Hierarchical Text-Conditional Image Generation with CLIP Latents イカサマですね(笑)

DALL-E-2。Hierarchical Text-Conditional Image Generation with CLIP Latents イカサマですね(笑)

引用

https://cdn.openai.com/papers/dall-e-2.pdf

以下は、論文の引用です。
何を説明してくれているかわかりませんが。。。。
おそらく、かなり、間違った印象を与えるという意味では、StyleGANあたりからつづく
イカサマ(笑)だと、断じます。

コメント

アドバイスなどあれば、コメントお願いします。