ベイズの定理を300年ぶりに再発明しようと1時間弱努力したが、できなかった!!(2回目の挑戦)
やってみた。結果。
ただし、今回は時間がなかったので、15分の挑戦。 しかも、ベイズの定理という言葉が浮かんでなくて、ベイズ確率として、考えた。。。。
上記の図のような思考になった。
スタートできなかった。
正解に向けて
別途加筆します。
今回記載済の内容では、本来の目的には、近づけていないですが。。。。
本来の目的は、従来技術と、ニューラルネットワーク等の新しい技術の関係性(連続性?)等を明確にすることです。
コードは、以下に示されています。
https://github.com/kanoh-k/notebooks/blob/master/PetersNotes/Part1.ipynb
↓ かなり点数を増やしました。
係数が2になるべきところが、2.01になりました。
グラフの赤線も少しだけずれている。
なぜでしょう???
今後の課題。
redmine(4です)のバックアップをとろうとして出会ったエラー
バックアップは初めてです。
windows10
redmine4
mysqldump: Got error: 1045: Access denied for user 'bitnami'@'localhost' (using password: YES) when trying to connect
エラーのときのコマンド
mysqldump -u bitnami -p bitnami_redmine>backup_aaa.sql
ポート番号を入れて下さい。
mysqldump -u bitnami -P 3307 -p bitnami_redmine>backup_aaa.sql
ポート番号の情報は、 C:\Bitnami\redmine-4.1.0-0\apps\redmine\htdocs\config\database.yml にあります。
production: adapter: mysql2 database: bitnami_redmine host: 127.0.0.1 username: bitnami password: a79a62d76f # Use "utf8" instead of "utfmb4" for MySQL prior to 5.7.7 encoding: utf8mb4 port: 3307
この情報が激役立った場合、コメントなど下さい??(いいねみたいなの下さい!)
自分でも、以下みたいな記事を書き始めたりはしましたが。。。
分類で、どの範囲で、何を示したい、何を確認したいか、を最初に決めて、それに従って分類するだけかな。。。 と思います。
ボクシング
空手
柔道
柔術
RIZIN <--おいおい、団体名か。。。
まあ、分類できるわけもなく。
かるた
ポーカ
テレビゲーム
ポケモン
SWITCH <---- すみません、ゲームまったく無知です。
インベーダ
まず、時代の流れがありますし。。。。。それを広い範囲で拾うかどうか。。。。
https://scikit-learn.org/stable/tutorial/machine_learning_map/index.html
https://www.itu.int/en/ITU-T/Workshops-and-Seminars/201911/Documents/Mostafa_Essa_Presentation.pdf
(全体)
https://www.darpa.mil/program/explainable-artificial-intelligence
pptのファイルが取得できるので、それで、不要な線を消しました。
他に良いのがあれば、是非、教えて!
AIで、「テンソル」って、よく出てきますよね。
https://ja.wikipedia.org/wiki/%E3%83%86%E3%83%B3%E3%82%BD%E3%83%AB
引用
テンソル(英: tensor, 独: Tensor)とは、線形的な量または線形的な幾何概念を一般化したもので、基底を選べば、多次元の配列として表現できるようなものである。
↑
昔は、なに言うてんの。。。。と、いらっと来たが。。。
いまは、わからんでもないかな。。。ぐらいの感じ。
Google scholarで確認すると、引用数8,049(2022/09/24時点)でした。凄いけど、もの凄くはないか。。。。
Deepl翻訳
An attentional mechanism has lately been used to improve neural machine translation (NMT) by selectively focusing on parts of the source sentence during translation. However, there has been little work exploring useful architectures for attention-based NMT. This paper examines two simple and effective classes of attentional mechanism: a global approach which always attends to all source words and a local one that only looks at a subset of source words at a time. We demonstrate the effectiveness of both approaches on the WMT translation tasks between English and German in both directions. With local attention, we achieve a significant gain of 5.0 BLEU points over non-attentional systems that already incorporate known techniques such as dropout. Our ensemble model using different attention architectures yields a new state-of-the-art result in the WMT’15 English to German translation task with 25.9 BLEU points, an improvement of 1.0 BLEU points over the existing best system backed by NMT and an n-gram reranker.
(翻訳)
最近、翻訳中に原文の一部に選択的に注目することで、ニューラル機械翻訳(NMT)を改善するために、注意のメカニズムが利用されている。しかし、注意に基づくNMTに有用なアーキテクチャを探索した研究はほとんどない。本論文では、2つのシンプルで効果的なクラスの注意メカニズムを検討する。すなわち、常に全ての原語に注目するグローバルアプローチと、一度に原語のサブセットのみを見るローカルアプローチである。英語とドイツ語の双方向のWMT翻訳課題において、両アプローチの有効性を実証する。局所的な注意を用いることで、ドロップアウトなどの既知の技術を既に組み込んでいる非注意システムに対して5.0BLEUポイントという大きな利得を得ることができた。また、異なる注意アーキテクチャを用いたアンサンブルモデルでは、WMT'15英独翻訳タスクにおいて25.9BLEU点と、NMTとn-gram rerankerに支えられた既存の最適システムに対して1.0BLEU点の改善という、新たな最先端結果を得ることができました。
■ Global attentional model
各タイムステップ t で、モデルは現在のターゲット状態 ht とすべてのソース状態 h¯s に基づいて可変長のアライメント重みベクトル at を推論する。そして、グローバルコンテキストベクトル ct が、at に従って、すべてのソース状態にわたる加重平均として計算される。
( ↓ いろいろな選択肢がある。)
■ Local attention model
このモデルはまず、現在のターゲット単語に対して単一の整列位置 pt を予測する。そして、ソース位置ptを中心とするウィンドウを使用して、ウィンドウ内のソース隠された状態の加重平均であるコンテキストベクトルctが計算される。この重みatは現在のターゲット状態htとウィンドウ内のソース状態h¯sから推論される。
まだ読み始めです。