AIうぉ--!(ai-wo-katsuyo-shitai !)

AIを上手く使ってみせたい!!自分なりに。

論文『A Survey of Uncertainty in Deep Neural Networks』を読みすすめる。

論文『A Survey of Uncertainty in Deep Neural Networks』を読みすすめる。

対象論文。

https://arxiv.org/pdf/2107.03342.pdf

??? なぜか、Google scholarで、出てこない!!(謎。。。)

以下、論文から引用の図

この論文を読む動機

ベイズのあたりを理解したいと思って、 なんかしてたら、たまたま、この論文にたどり着いた。 これを理解したら、ある程度、ベイズが理解できるかも。。。

【読解1】「概要」のところを読んだ

ポイントとなる文章を以下に引用してみた。

  • 基本的なニューラルネットワークは、確実な推定値を提供しなかったり、信頼度の過不足に悩まされたりする、つまり、うまく較正されていないのです
  • 最も重要な不確実性の原因について包括的に紹介し、それらを還元可能なモデルの不確実性と還元不可能なデータの不確実性に分離して提示する
  • 決定論ニューラルネットワークベイズニューラルネットワークニューラルネットワークのアンサンブル、テスト時データ補強アプローチに基づくこれらの不確実性のモデル化を紹介
  • ミッションクリティカルおよびセーフティクリティカルな実世界のアプリケーションにおけるニューラルネットワークの不確実性定量化手法の実用的な限界について議論し、そのような手法の幅広い使用に向けて次のステップの見通しを示す

引用(DeepL訳。事前に自力でも訳しましたが。。。)

過去10年間で、ニューラルネットワークは科学のほぼ全ての分野に到達し、様々な実世界のアプリケーションで重要な役割を果たすようになった。その普及に伴い、ニューラルネットワークの予測に対する信頼性がますます重要になってきている。しかし、基本的なニューラルネットワークは、確実な推定値を提供しなかったり、信頼度の過不足に悩まされたりする、つまり、うまく較正されていないのです。これを克服するために、多くの研究者がニューラルネットワークの予測における不確実性を理解し、定量化することに取り組んできた。その結果、様々な不確実性の種類や原因が特定され、ニューラルネットワークの不確実性を測定し定量化する様々なアプローチが提案されている。この著作では、ニューラルネットワークの不確実性推定について包括的に概観し、この分野の最近の進歩をレビューし、現在の課題を明らかにし、潜在的な研究機会を特定する。この分野の予備知識を前提とせず、ニューラルネットワークの不確実性推定に興味を持つ人に、幅広い概要と入門書を提供することを意図している。そのために、最も重要な不確実性の原因について包括的に紹介し、それらを還元可能なモデルの不確実性と還元不可能なデータの不確実性に分離して提示する。また、決定論ニューラルネットワークベイズニューラルネットワークニューラルネットワークのアンサンブル、テスト時データ補強アプローチに基づくこれらの不確実性のモデル化を紹介し、これらの分野の異なる枝と最新の開発について議論する。実用化に向けては、さまざまな不確実性の尺度、ニューラルネットワークキャリブレーションのためのアプローチ、既存のベースラインと利用可能な実装の概要を説明する。医療画像解析、ロボット、地球観測の分野における幅広い課題からの様々な例は、ニューラルネットワークの実用的なアプリケーションにおける不確実性に関するニーズと課題のアイデアを提供する。さらに、ミッションクリティカルおよびセーフティクリティカルな実世界のアプリケーションにおけるニューラルネットワークの不確実性定量化手法の実用的な限界について議論し、そのような手法の幅広い使用に向けて次のステップの見通しを示す。

進捗

概要を読んだ程度。

補足

ベイズに関しては、以下も参考になる。

www.youtube.com

コメント

何か、アドバイスなどあれば、コメントなどお願いします。

自己教師あり学習(Self-Supervised)は、実は、オチがついてないのでは?

自己教師あり学習(Self-Supervised)は、実は、オチがついてないのでは?

ここ3年ぐらい、自己教師あり学習の多くの手法が示されているが。。。。 MoCoとかPIRLとかSimCLRとか。。。
つかみがわかり易いから、よく取り上げられているけど。。。
実用例が少ないのでは?(単純のため、画像に話をしぼった場合。)

f:id:fanta_orange_grape:20220225075315p:plain
↑ 

https://arxiv.org/pdf/2002.05709.pdfより引用

Imagenetとかで一部だけラベルを使って、うまくいきましたといっても。。。
いやいや、Imagenetラベルあるし!!(笑)

自己教師学習のわかりやすいサイト

↓ すごく、わかりやすい!!!

www.youtube.com

↓ 実際の成果?に関係する記事

ai-scholar.tech

コメント

コメントなどあれば、お願いします。
実は、実際には、まだ、非常に使いにくいのでは??という意見です。

【仮説】深層学習は、現代アートを、ボロボロにするかもしれない。

深層学習は、現代アートを、ボロボロにするかもしれない。


(いらすとや)
  
たまに、AIで小説を書く、AIを使って小説を書くとかの記事をみかけることがあるが、 これは100%無理なので、相手にしないとして、
しかし、
   
現代アートはどうだろう?
   
可能性があるような気がする。

現代アートの理解

現代アートというのは、あるノリ(?)ルール(??)のようなものを共有し、それを更に進める?ような活動で、
今は、それを実際に表現するための例えば絵画であれば、画家としてのスキルが必要。 しかし、それをコンピュータでやるとしたら、スキルは不要。 で、 AIは、上記のノリ(?)ルール(??)は、理解できてしまう気がする。
で、 今のレベルのAIで理解できてしまうとしたら、
それは、現代アート側の問題ということになると思うのだが。。。

将来の動向が楽しみ!

例えば、将棋であれば、AIを排除するのはすごく正しい気がする、そもそもAIを持ち込む(練習用はいいとして)
AIに人が勝つ必要性は0%だと思うが、
現在アートはそうはいかない気がする。

整理

以下の3つのことに対する意見がクセが強すぎると自分でも思うが。。。

  • AIによる小説の執筆
  • AIによる現代アートの作成
  • AIによる将棋

関連自分の記事

2023/03/21

ai-de-seikei.hatenablog.com

他の人の意見

(↓ 何か、見つけたら、ここに貼ります。)

【調査中。。。】XAI(Explainable AI:説明可能なAI)の議論に、一線の技術者は関心を示しているのだろうか。

XAI(Explainable AI:説明可能なAI)の議論に、一線の技術者は関心を示しているのだろうか。

すみません、全く、答えを知らないのでこれから情報に出会ったら記録しておきます。 個人的には、直感的には、XAI(Explainable AI:説明可能なAI)は、あまり面白い話題でない気もしています。

記録(メモ)

まだ何もありません。

ご参考

XAIの説明は、ぐぐって最初のほうに出てきた以下など、参考になるかと。

atmarkit.itmedia.co.jp

AdaINを試してみた。。。(この類、深く入らないと楽しめないんでしょうね。)

AdaINを試してみた。。。(この類、深く入らないと楽しめないんでしょうね。)

以下のgithubを使わせていただいた。
下記の「結果」のようなものであれば、コマンド1行で素直に動きます。 github.com

結果

f:id:fanta_orange_grape:20220212093709j:plain

f:id:fanta_orange_grape:20220212093757j:plain (いらすとや) <--- これをスタイルとして採用!!

f:id:fanta_orange_grape:20220212093838j:plain (涙)

この類、深く入らないと楽しめないんでしょうね。

(いらすとや の画をスタイルの画として)学習させてみました。

とりえあえず、CPU環境だったので、デフォルトの1000分の1の回数の160回。
メモリ都合で、バッチも1にしたりしました。 f:id:fanta_orange_grape:20220213171641j:plain

f:id:fanta_orange_grape:20220213171659j:plain
(↑↑↓↓ とりあえず、0点。しっかり学習しても、たぶんダメだと思います。時間があるときに挑戦してみます。)

f:id:fanta_orange_grape:20220213172552j:plain

計画

どういう手法で実現できるかわかりませんが、とりあえず、第三者が「いやすとや」の画かどうか区別つかないレベルのものができるようにするのを長期目標の一つにしようと思います。(←特別な目的はないですが。。。)

コメントなどあればお願いします。

Vision Transformer (ViT)は、何故、self-attentionというか、画像をかける(x)のか?

Vision Transformer (ViT)は、何故、self-attentionというか、画像をかける(x)のか?

自然言語で単語のembeddingをかけるのは、ある程度、理解できるとして、
画像を「かけて」、何かいいことがあるのか?

⇒ 【自分なりの回答】他にやれることもないし。。。、が答えかと思う。

参考

f:id:fanta_orange_grape:20220211105503p:plain

上の図は、下記からの引用。 相関、掛け算で一致度の高い部分にピークが出ている例。画像のマッチングではよく使われる。

jp.mathworks.com

コメントなどあればお願いします。

号外!!きたー OpenVINO最新 nightly

号外!!きたー OpenVINO最新

↓↓ いよいよ、新しいのが出るんですかね。。。 nightlyというのが発生していました、極最近の発生だと思います。 f:id:fanta_orange_grape:20220211093551p:plain (OpenVINOでnightlyというのは、はじめて見ました。)

自分の関連記事

ai-de-seikei.hatenablog.com

何者か、情報などお持ちの場合は、コメントなどください。