AIうぉ--!(ai-wo-katsuyo-shitai !)

AIを上手く使ってみせたい!!自分なりに。

ベイズの定理を300年ぶりに再発明しようと1時間弱努力したが、できなかった!!(2回目の挑戦)

ベイズの定理を300年ぶりに再発明しようと1時間弱努力したが、できなかった!!(2回目の挑戦)

やってみた。結果。

ただし、今回は時間がなかったので、15分の挑戦。 しかも、ベイズの定理という言葉が浮かんでなくて、ベイズ確率として、考えた。。。。

上記の図のような思考になった。
スタートできなかった。

正解に向けて

別途加筆します。

線形回帰の問題をニューラルネットワークを使って解く。(最小二乗法じゃなくて)

線形回帰の問題をニューラルネットワークを使って解く。(最小二乗法じゃなくて)

今回記載済の内容では、本来の目的には、近づけていないですが。。。。
本来の目的は、従来技術と、ニューラルネットワーク等の新しい技術の関係性(連続性?)等を明確にすることです。

解いてみた

まずは、完全にパクり。

www.madopro.net

コードは、以下に示されています。

https://github.com/kanoh-k/notebooks/blob/master/PetersNotes/Part1.ipynb

↓ かなり点数を増やしました。

疑問

係数が2になるべきところが、2.01になりました。
グラフの赤線も少しだけずれている。
なぜでしょう???
今後の課題。

解決策。mysqldump: Got error: 1045: Access denied for user 'bitnami'@'localhost' (using password: YES) when trying to connect

解決策。mysqldump: Got error: 1045: Access denied for user 'bitnami'@'localhost' (using password: YES) when trying to connect

エラー

redmine(4です)のバックアップをとろうとして出会ったエラー
バックアップは初めてです。

環境

windows10
redmine4

エラー

mysqldump: Got error: 1045: Access denied for user 'bitnami'@'localhost' (using password: YES) when trying to connect

エラーのときのコマンド

mysqldump -u bitnami -p bitnami_redmine>backup_aaa.sql

解決策

ポート番号を入れて下さい。

mysqldump -u bitnami -P 3307 -p bitnami_redmine>backup_aaa.sql

ポート番号の情報は、 C:\Bitnami\redmine-4.1.0-0\apps\redmine\htdocs\config\database.yml にあります。

production:
  adapter: mysql2
  database: bitnami_redmine
  host: 127.0.0.1
  username: bitnami
  password: a79a62d76f
  # Use "utf8" instead of "utfmb4" for MySQL prior to 5.7.7
  encoding: utf8mb4
  port: 3307

コメント

この情報が激役立った場合、コメントなど下さい??(いいねみたいなの下さい!)

AI(機械学習)のアルゴリズムの分類について、何日か考えたけど、意味ないですね。教師あり、教師なし、強化とか。。。(これは、ゲームの分類や、格闘技の分類をすることを考えると容易に分かる気が。。。)

AI(機械学習)のアルゴリズムの分類について、何日か考えたけど、意味ないですね。教師あり、教師なし、強化とか。。。(これは、ゲームの分類や、格闘技の分類をすることを考えると容易に分かる気が。。。)

教師あり、教師なし、強化学習とか、scikit-learnのチートシートとか、分類の手がかりはあるかもしれませんが。

自分でも、以下みたいな記事を書き始めたりはしましたが。。。

ai-de-seikei.hatenablog.com

最初に結論

分類で、どの範囲で、何を示したい、何を確認したいか、を最初に決めて、それに従って分類するだけかな。。。 と思います。

例えば、格闘技を分類しようとしたら。。。。

ボクシング
空手
柔道
柔術
RIZIN <--おいおい、団体名か。。。

新日本プロレス
WWE <---WWEであってる??

まあ、分類できるわけもなく。

ゲームを分類しようとしたら、

かるた
ポーカ
テレビゲーム
ポケモン

SWITCH <---- すみません、ゲームまったく無知です。
インベーダ

まず、時代の流れがありますし。。。。。それを広い範囲で拾うかどうか。。。。

機械学習のアルゴリズムのいけてる分類の図(3選)

機械学習アルゴリズムのいけてる分類の図(3選)

scikit-learn

URL

https://scikit-learn.org/stable/tutorial/machine_learning_map/index.html

Type of AI and Machine Learning

URL

https://www.itu.int/en/ITU-T/Workshops-and-Seminars/201911/Documents/Mostafa_Essa_Presentation.pdf

(全体)

XAI(DARPA)

URL

https://www.darpa.mil/program/explainable-artificial-intelligence

補足

pptのファイルが取得できるので、それで、不要な線を消しました。

コメント

他に良いのがあれば、是非、教えて!

1、2年AIのことを勉強したら、Wikipediaのテンソルの説明に耐えられるようになった。

1、2年AIのことを勉強したら、Wikipediaテンソルの説明に耐えられるようになった。

AIで、「テンソル」って、よく出てきますよね。

Wikipediaの「テンソル」の説明

https://ja.wikipedia.org/wiki/%E3%83%86%E3%83%B3%E3%82%BD%E3%83%AB

引用

テンソル(英: tensor, 独: Tensor)とは、線形的な量または線形的な幾何概念を一般化したもので、基底を選べば、多次元の配列として表現できるようなものである。

↑ 昔は、なに言うてんの。。。。と、いらっと来たが。。。
いまは、わからんでもないかな。。。ぐらいの感じ。

有名な論文『Effective Approaches to Attention-based Neural Machine Translation』を、いまさら、のんびり読む。

有名な論文『Effective Approaches to Attention-based Neural Machine Translation』を、いまさら、のんびり読む。

Google scholarで確認すると、引用数8,049(2022/09/24時点)でした。凄いけど、もの凄くはないか。。。。

概要

Deepl翻訳

An attentional mechanism has lately been used to improve neural machine translation (NMT) by selectively focusing on parts of the source sentence during translation. However, there has been little work exploring useful architectures for attention-based NMT. This paper examines two simple and effective classes of attentional mechanism: a global approach which always attends to all source words and a local one that only looks at a subset of source words at a time. We demonstrate the effectiveness of both approaches on the WMT translation tasks between English and German in both directions. With local attention, we achieve a significant gain of 5.0 BLEU points over non-attentional systems that already incorporate known techniques such as dropout. Our ensemble model using different attention architectures yields a new state-of-the-art result in the WMT’15 English to German translation task with 25.9 BLEU points, an improvement of 1.0 BLEU points over the existing best system backed by NMT and an n-gram reranker.

(翻訳)

最近、翻訳中に原文の一部に選択的に注目することで、ニューラル機械翻訳(NMT)を改善するために、注意のメカニズムが利用されている。しかし、注意に基づくNMTに有用なアーキテクチャを探索した研究はほとんどない。本論文では、2つのシンプルで効果的なクラスの注意メカニズムを検討する。すなわち、常に全ての原語に注目するグローバルアプローチと、一度に原語のサブセットのみを見るローカルアプローチである。英語とドイツ語の双方向のWMT翻訳課題において、両アプローチの有効性を実証する。局所的な注意を用いることで、ドロップアウトなどの既知の技術を既に組み込んでいる非注意システムに対して5.0BLEUポイントという大きな利得を得ることができた。また、異なる注意アーキテクチャを用いたアンサンブルモデルでは、WMT'15英独翻訳タスクにおいて25.9BLEU点と、NMTとn-gram rerankerに支えられた既存の最適システムに対して1.0BLEU点の改善という、新たな最先端結果を得ることができました。

Global attentional modelとLocal attention model

■ Global attentional model

各タイムステップ t で、モデルは現在のターゲット状態 ht とすべてのソース状態 h¯s に基づいて可変長のアライメント重みベクトル at を推論する。そして、グローバルコンテキストベクトル ct が、at に従って、すべてのソース状態にわたる加重平均として計算される。

( ↓ いろいろな選択肢がある。

■ Local attention model

このモデルはまず、現在のターゲット単語に対して単一の整列位置 pt を予測する。そして、ソース位置ptを中心とするウィンドウを使用して、ウィンドウ内のソース隠された状態の加重平均であるコンテキストベクトルctが計算される。この重みatは現在のターゲット状態htとウィンドウ内のソース状態h¯sから推論される。

コメント

まだ読み始めです。