AIうぉ--!(ai-wo-katsuyo-shitai !)

AIを上手く使ってみせたい!!自分なりに。

LSTMの時系列(予測)が、結構ズレてるので、逆に興味が湧く

LSTMの時系列(予測)が、結構ズレてるので、逆に興味が湧く

まず、以下の記事を、単に、なぞらせて頂きました。

toeming.hatenablog.com

コードは、以下です(重ねてありがとうございます。)

github.com

動かした結果

↑↑↑ train(赤線)ズレすぎ! (上段1回目。下段2回目。乱数の影響と思っている。)

↑↑↑ 予測の先頭ズレすぎ!!(上段1回目。下段2回目。乱数の影響と思っている。)

今後

上記の不思議な部分とかを少し検討できたらいいなと思っています。

コメント

アドバイス(参考にすべき記事の情報)などあれば、お願いしますーー、是非、コメントなど下さい!!

Multivariate Time Series Prediction with LSTM の例(GitHub)を動かしてみる。

Multivariate Time Series Prediction with LSTM の例(GitHub)を動かしてみる。

ここでは、

github.com

を動かしてみる。

↓ YouTuBEの解説あり。

youtu.be

自分の環境

  • Windows10
  • Python3.7.2
  • anacondaとかは使わずpip
  • GPUなし

動かす手順を示す(1回動いているので、リピート)

手順1

以下。

  • zip解凍
  • ipynbをpyへ

手順2

pyファイルを実行。

    get_ipython().magic('matplotlib inline')
NameError: name 'get_ipython' is not defined

定番のエラー。get_ipython()コメントアウトし、再度実行。

AttributeError: 'DataFrame' object has no attribute 'as_matrix'

as_matrix()をvaluesに書き換え。

NameError: name 'get_ipython' is not defined

別の記事

https://keep-loving-python.hatenablog.com/entry/2022/04/17/120802

に書きましたが、ここは、コメントアウトにすると 実行すべき行が抜けるので、 中味を展開。

es = EarlyStopping(monitor='val_loss', min_delta=1e-10, patience=10, verbose=1)
rlr = ReduceLROnPlateau(monitor='val_loss', factor=0.5, patience=10, verbose=1)
mcp = ModelCheckpoint(filepath='weights.h5', monitor='val_loss', verbose=1, save_best_only=True, save_weights_only=True)
tb = TensorBoard('logs')
history = model.fit(X_train, y_train, shuffle=True, epochs=30, callbacks=[es, rlr, mcp, tb], validation_split=0.2, verbose=1, batch_size=256)

以下のとっても変なグラフになる。

なぜか、コードの末尾にある、dataset_trainの3行を、下記の位置に移動。

# Parse training set timestamp for better visualization
dataset_train = pd.DataFrame(dataset_train, columns=cols)
dataset_train.index = datelist_train
dataset_train.index = pd.to_datetime(dataset_train.index)

plt.plot(PREDICTIONS_FUTURE.index, PREDICTIONS_FUTURE['Open'], color='r', label='Predicted Stock Price')

完成!!!

   

    (いらすとや)

この動かしたときのモジュールのバージョン

Keras                             2.3.1
tensorflow                        1.15.0
matplotlib                        3.5.1

なんか、matplotlibのエラーにならないためには、バージョンを気にしないといけなかったような気がする。 Kerasとtensorflowのバージョンは、Youtube他で指定されていた気がする。
上記のバージョンは、少し、違うかも。でもおおよそ、近いはず。

自分の関連記事(2023/10/06)

この記事で紹介しているもの、すごく、わかり易い!!!

ai-de-seikei.hatenablog.com

コメント

不明点などあれば、コメント等に書いて下さい!

多変量LSTMでアイスクリームを。【勝手に復刻】

多変量LSTMでアイスクリームを。【勝手に復刻】

qiita.com

上記のqiitaの記事の内容を復刻させてみる。 目的は、よくわからない部分があるので、もう少し、理解したいから。

コードは、GitHubで公開されている。

実行してみた。

f:id:fanta_orange_grape:20220415025419p:plain

ちょっと、細工してみた。

何を入力にした予測か、少し、わかりにくい面もあるので。。。 (場合によっては、実装にも疑義があるかもしれないので。。。qiitaの記事でもコメントが入っている。

f:id:fanta_orange_grape:20220415030659p:plain

↑ 予測に、直前の実績値は使ってないことを確認できた。(当たり前ですが。。。)

間違い!!!

アイスクリームの数だけの入力にした。

########dataframe = pandas.read_csv('tokyo-weather-2003-2012.csv', usecols=[0,3,4,5,6], engine='python', skipfooter=1)
dataframe = pandas.read_csv('tokyo-weather-2003-2012.csv', usecols=[0], engine='python', skipfooter=1)

f:id:fanta_orange_grape:20220415032217p:plain

↑ アイスクリームの数の実績使ってるやん。しかし、使うなら、それに近い値を予測したらいいわけで。。。
使ってるけど、実績に近づける気がないというか、、、
変な感じになっていると思います。

仮の結論

アイスクリームの実績を利用するなら、別の実装になるべき?
アイスクリームの実績を利用しないなら、それも、別の実装になるべき?
だから、今の実装は、少し、おかしい気が。

コメントなどあれば、お願いしますっ!

修正方法がわかる方、コメント書いて頂けると嬉しいです。

写真をネオン管風に変換してみた。

写真をネオン管風に変換してみた。

f:id:fanta_orange_grape:20220320170510j:plain

f:id:fanta_orange_grape:20220320170542j:plain

f:id:fanta_orange_grape:20220320170605j:plain

f:id:fanta_orange_grape:20220320171002j:plain

f:id:fanta_orange_grape:20220320171029j:plain

f:id:fanta_orange_grape:20220320171055j:plain

あちゃーーー

f:id:fanta_orange_grape:20220320170745j:plain

面白いなーーー。
人でもやりかねない!!!
この難問が解けてこそAI!!!(2045年を待とう!!)

関連する自分の記事

ai-de-seikei.hatenablog.com

コメント

あまりコメントありません。(これまでも、こういうの沢山やりましたが。。。一度も、しっかり、本人、盛り上がったことなし、です、勉強になりますっ。)
女優さんの写真はWikipediaのを使いました。(心が折れたのでURLは省略させて下さい。)
AIのプロなので、ここから、ステンドグラスに逃げたりはしません。 まあ、コメントやアドバイスなどあれば、お願いします。

【勝手にコンテスト】GANとかで、写真を『大友克洋』風の画像にする

【勝手にコンテスト】GANとかで、写真を『大友克洋』風の画像にする

まだ自分のしかないですが。。。

こんな画像になりました。全く、近づいてません!!

f:id:fanta_orange_grape:20220311042224j:plain f:id:fanta_orange_grape:20220311042238j:plain f:id:fanta_orange_grape:20220311042254j:plain f:id:fanta_orange_grape:20220311042308j:plain f:id:fanta_orange_grape:20220311042336j:plain f:id:fanta_orange_grape:20220311042350j:plain f:id:fanta_orange_grape:20220311042426j:plain

実行方法

自分のこの記事↓の通り。

ai-de-seikei.hatenablog.com

コメント

参加される方、作品のURLとかコメントでご連絡ください。応募期間は2年ぐらいかな(今:2022/03/11) あんまりおもしろくならないから、ストレスありますね。。。。!!!(もっと、感動的な動きしないかな。。。)

【勝手にコンテスト】GANとかで、写真を『Dr.スランプ』風の画像にする

【勝手にコンテスト】GANとかで、写真をDr.スランプ風の画像にする

まだ自分のしかないですが。。。

こんな画像になりました。全く、近づいてません!!

f:id:fanta_orange_grape:20220306124806j:plain f:id:fanta_orange_grape:20220306124817j:plain f:id:fanta_orange_grape:20220306124826j:plain f:id:fanta_orange_grape:20220306124833j:plain f:id:fanta_orange_grape:20220306124848j:plain f:id:fanta_orange_grape:20220306124902j:plain f:id:fanta_orange_grape:20220306124912j:plain

実行方法

自分のこの記事↓の通り。(epoch:45600, batch:4)

ai-de-seikei.hatenablog.com

コメント

参加される方、作品のURLとかコメントでご連絡ください。応募期間は2年ぐらいかな(今:2022/03/06)

論文『A Survey of Uncertainty in Deep Neural Networks』を読みすすめる。

論文『A Survey of Uncertainty in Deep Neural Networks』を読みすすめる。

対象論文。

https://arxiv.org/pdf/2107.03342.pdf

??? なぜか、Google scholarで、出てこない!!(謎。。。)

以下、論文から引用の図

この論文を読む動機

ベイズのあたりを理解したいと思って、 なんかしてたら、たまたま、この論文にたどり着いた。 これを理解したら、ある程度、ベイズが理解できるかも。。。

【読解1】「概要」のところを読んだ

ポイントとなる文章を以下に引用してみた。

  • 基本的なニューラルネットワークは、確実な推定値を提供しなかったり、信頼度の過不足に悩まされたりする、つまり、うまく較正されていないのです
  • 最も重要な不確実性の原因について包括的に紹介し、それらを還元可能なモデルの不確実性と還元不可能なデータの不確実性に分離して提示する
  • 決定論ニューラルネットワークベイズニューラルネットワークニューラルネットワークのアンサンブル、テスト時データ補強アプローチに基づくこれらの不確実性のモデル化を紹介
  • ミッションクリティカルおよびセーフティクリティカルな実世界のアプリケーションにおけるニューラルネットワークの不確実性定量化手法の実用的な限界について議論し、そのような手法の幅広い使用に向けて次のステップの見通しを示す

引用(DeepL訳。事前に自力でも訳しましたが。。。)

過去10年間で、ニューラルネットワークは科学のほぼ全ての分野に到達し、様々な実世界のアプリケーションで重要な役割を果たすようになった。その普及に伴い、ニューラルネットワークの予測に対する信頼性がますます重要になってきている。しかし、基本的なニューラルネットワークは、確実な推定値を提供しなかったり、信頼度の過不足に悩まされたりする、つまり、うまく較正されていないのです。これを克服するために、多くの研究者がニューラルネットワークの予測における不確実性を理解し、定量化することに取り組んできた。その結果、様々な不確実性の種類や原因が特定され、ニューラルネットワークの不確実性を測定し定量化する様々なアプローチが提案されている。この著作では、ニューラルネットワークの不確実性推定について包括的に概観し、この分野の最近の進歩をレビューし、現在の課題を明らかにし、潜在的な研究機会を特定する。この分野の予備知識を前提とせず、ニューラルネットワークの不確実性推定に興味を持つ人に、幅広い概要と入門書を提供することを意図している。そのために、最も重要な不確実性の原因について包括的に紹介し、それらを還元可能なモデルの不確実性と還元不可能なデータの不確実性に分離して提示する。また、決定論ニューラルネットワークベイズニューラルネットワークニューラルネットワークのアンサンブル、テスト時データ補強アプローチに基づくこれらの不確実性のモデル化を紹介し、これらの分野の異なる枝と最新の開発について議論する。実用化に向けては、さまざまな不確実性の尺度、ニューラルネットワークキャリブレーションのためのアプローチ、既存のベースラインと利用可能な実装の概要を説明する。医療画像解析、ロボット、地球観測の分野における幅広い課題からの様々な例は、ニューラルネットワークの実用的なアプリケーションにおける不確実性に関するニーズと課題のアイデアを提供する。さらに、ミッションクリティカルおよびセーフティクリティカルな実世界のアプリケーションにおけるニューラルネットワークの不確実性定量化手法の実用的な限界について議論し、そのような手法の幅広い使用に向けて次のステップの見通しを示す。

進捗

概要を読んだ程度。

補足

ベイズに関しては、以下も参考になる。

www.youtube.com

コメント

何か、アドバイスなどあれば、コメントなどお願いします。