AIうぉ--!(ai-wo-katsuyo-shitai !)

AIを上手く使ってみせたい!!自分なりに。

LSTMで株価予想、、、逆に、ちょっと面白くないかな。。。

AIの時系列のサンプルとして、株価予想とかありますが。。。 まあまあ最近、以下みたいな記事がQiitaに出てました。 qiita.com 直前60日間の情報を使って、次の日の株価を予想する コード的には、 for i in range(60, len(train_data)): #過去データ数60個か…

記事『“AI文化戦争”の勃発を告げるグーグル「Gemini」の人物画像生成停止』に思うこと

wired.jp 思うこと 修正する手段なんてないと思う ある程度の修正はできると思うが。。。 根本的な修正ポイントは見出しようがないと。。。。思う。 実体は、単に管理するだけかと。。。 いくらでも、細かい問題は発生しうる。。。。

OpenAIに似せたマークは、あまり、良い印象じゃないですよね。

だますつもりはないにしても。。。 ↑これは、本物。。。 openai.com 具体例は、示しづらいですが。。。 (以前、一度、騙された?ことがあるので。。。。嫌悪感が。。。)

多変量のLSTM、、、もう少し馴染まないとよくわからない。

以下の電力消費っぽいのを試してみた。。。 github.com 完全に意味不明!! 自分なりに、変えてみたのを、、、 (別途、示したい!)

AIの技術の流行りが追いかけにくい。。。。。

3、4年前だと、AI技術の状況がもう少しシンプルだった気がする。。。 動画での物体検出だとYoloとか 自然言語系だとHuggingfaceとか 自然言語系の技術だとTransformerとか フレームワークだとtensorflowよりpytorchかな。。。とか あと、GANとか ChatGPTとか…

GAN(Generative Adversarial Networks)は、なぜ、廃れたか?

GAN

生成AIが、大盛り上がりなのに、GANは最近一切聞きません。 GAN(Generative Adversarial Networks)は、なぜ、廃れたか? GANが廃れた理由 GANが廃れた理由を2つ示します。 『モード崩壊』 以下の記事がわかり易いですが、GANは、『モード崩壊』という課題を…

ChatGPT(3.5)。英語の文法解説は、かなり下手!(Let's get started on the project right away.)

依頼。 次の英文を文法を含めて解説して下さい。 Let's get started on the project right away. ChatGPT(3.5)回答 この文は比較的シンプルな構造を持っています。 "Let's get started on the project right away." "Let's" は "let us" の短縮形で、「私た…

やってみましょうよ! 『『ゼロから作る Deep Learning ❺』 公開レビューのお知らせ』って。

って! note.com 『・・・レビューアの方の名前をクレジットとして掲載する予定です。』って! ↑やってみましょうよ! レビューに参加しました!!!(発売が楽しみ。。。4月かな。)単なる餌を撒かれた魚かも。。。(売上に貢献)

ChatGPTは、英文の文法解説が「超!」苦手。(日本語だから?)

質問は。『以下の英文の文法を解説して下さい。 What do you think the main objective of this project is?』 回答は。 回答1 回答2 回答3 質問は。『以下の英文の文法を解説して下さい。 What do you think the main objective of this project is?』 回答…

ChatGPTにpyhonのdeepcopyを自作してもらった。なんで、こんなのを作ることが可能なんだろう。。。

ChatGPTによるdeepcopy自作 こんなコードを作ってくれた。 import copy def deep_copy(obj): if isinstance(obj, list): return [deep_copy(item) for item in obj] elif isinstance(obj, dict): return {key: deep_copy(value) for key, value in obj.items…

時系列データに対する(多変量)LSTM、この記事わかりやすい

↓この記事です。 説明もすっきりしています。 qiita.com githubは github.com 多変量で、こんな結果が出ます。 上記のgithubを動かすと、、、 類似の以前の自分の記事 ai-de-seikei.hatenablog.com

ChatGPTの凄さ、不思議さを、裏側(逆側?)から考える1。

ChatGPTは、人々の予測、理解を超えた凄さがあると思う。 ただ、これがどういう状況か、何故かを、考察するのは困難だと思う。多分、人の理解を超えているため。 では、裏側(逆側)から考えてみる(その1)。 直接、ChatGPTについて考えるのではなく 以下…

ChatGPTが予想よりすごい10の理由(まだ、1)。ChatGPTが期待ほどすごくない10の理由(まだ、0)。

ChatGPTが予想よりすごい10の理由 その1。結果を人の能力と直接比較していたため。 ChatGPTが期待ほどすごくない10の理由 ChatGPTが予想よりすごい10の理由 その1。結果を人の能力と直接比較していたため。 AIの性能を人の能力との優劣で比較してしまうこ…

固有表現抽出(NER)を動かしてみる5。(windows, python)。

参考にしたサイト 結果 環境 モジュールのバージョン 構成 参考にしたサイト 参考にしたというより、そのまま、動かしただけ。 www.depends-on-the-definition.com 結果 環境 windows10 python3.7 モジュールのバージョン numpy 1.19.2 scikit-learn 0.23.2 …

transformersからみた(のrequestする)tokenizersとかのバージョン

単に、setup.pyで確認 transformersのバージョン transformersリリース日 tokenizersのバージョン その他のバージョン v2.11.0 Jun 2, 2020 tokenizers == 0.7.0 v3.0.0 Jun 30, 2020 tokenizers == 0.8.0-rc4 v4.0.0 Dec 1, 2020 tokenizers == 0.9.4 v4.10…

『AIのバックプロパゲーションには、勾配降下法が用いられますが、ニュートン法を用いることはできませんか?』に対するChatGPT(3.5)の回答が、普通に立派過ぎる!

ChatGPT(3.5)との質疑 (文字化け=数式部分は、画を前か後ろに貼りました) User ChatGPT User ChatGPT User ChatGPT User ChatGPT User ChatGPT コメント ChatGPT(3.5)との質疑 (文字化け=数式部分は、画を前か後ろに貼りました) User AIのバックプロパ…

Pytorch, LSTM(1個), sine波の推定(予想?)は、この記事のコードがシンプルかも。。。。

Pytorch, LSTM(1個), sine波の推定(予想?) 以下の記事のコードがシンプルだと思いました。 datahacker.rs LSTMは、1個。 class myLSTM(nn.Module): def __init__(self, input_size=1, hidden_size=50, out_size=1): super().__init__() self.hidden_size …

AIの用語。回帰(regression)という用語は、少し、ずれた意味なので注意。

Wikipediaによると 「回帰」という用語は、英語の「regression」からの翻訳であるが、元々は生物学的現象を表すために19世紀にフランシス・ゴルトンによって造られた。ゴルトンは、背の高い祖先の子孫の身長が必ずしも遺伝せず、平均値に戻っていく、すなわ…

ちょっとなんでもいいので、Graph Neural Networksを動かしてみた

Graph Neural Networks github.com 上記、書籍対応のGitHubでいろいろある。 Chapter14を動かしてみた 環境 windows10 python3.7 CPU 結果 以下みたいな図(他にも図あり)が、表示された。 使われているデータセットは TUDatasetのMUTAG ChatGPT(3.5)に解説…

BERTは。何をデータとして事前学習しているのか?

答えが0秒で沢山えられます。。。。反省。 Wikipediaによると (両モデルとも、)Toronto BookCorpus[12](8億語)と、英語版Wikipedia(25億語)で事前訓練された。 引用元: https://ja.wikipedia.org/wiki/BERT_(%E8%A8%80%E8%AA%9E%E3%83%A2%E3%83%87%E3%8…

ChatGPT。知識量巨大(博識)ですが、知識がちょっとフワッとし過ぎでは。

知識量巨大(博識)ですが、知識がちょっとフワッとし過ぎでは。 結果1 ChatGPT 正解 評価 W0613 - Unused argument unused-argument 正解 W0612 - Unused variable unused-variable 正解 C0116 - Missing function or method docstring missing-function-do…

ChatGPTの回答を想像して、更に、その回答をでぃすってみる。

(想定)設問 消防車は、赤い。 救急車は、白い。 あと、消防車は消化のためのホースとかがあったりする。救急車にはそのようなものがない。 仮に、真っ白に塗装した消防車があるとして、それを描写した文章で、この車が消防車か救急車かをChatGPTに質問した…

◆少し参考になると思います。ChatGPT、公開バージョンがあがるような記事を見たので、いまのベンチマークの結果を残す。ベンチマーク20230715(プログラミング言語の作法の問題)編。

今のバージョンは ベンチマーク20230715-2 英語 ベンチマーク20230715-2(もう1回) 英語 User ChatGPT 評価 ベンチマーク20230715-1 英語 User ChatGPT ベンチマーク20230715-1(もう1回) 英語 User ChatGPT 今のバージョンは ChatGPT May 24 Version Free…

ChatGPTとかChatの性能に関するベンチマーク(2023/07/15, プログラミング言語の作法の問題)。これでどうでしょう4。

ベンチマーク20230715-1 英語 日本語 ポイント ベンチマーク20230715-2 英語 日本語 ポイント ベンチマーク20230715-1 英語 Explain which items (classification codes) in the python pylint or flake8 checklist can be ignored and why they can be igno…

論文『Attention Is All You Need』のScaled Dot-Product Attentionについて

論文『Attention Is All You Need』のScaled Dot-Product Attentionの説明部分 引用 The two most commonly used attention functions are additive attention [2], and dot-product (multiplicative) attention. Dot-product attention is identical to our…

論文『Attention in natural language processing』は、Transformerとかを理解するためには、もっと、読まれてもいいのでは?

論文『Attention in natural language processing』 Galassi, Andrea, Marco Lippi, and Paolo Torroni. "Attention in natural language processing." IEEE transactions on neural networks and learning systems 32.10 (2020): 4291-4308. https://arxiv.…

ChatGPT、公開バージョンがあがるような記事を見たので、いまのベンチマークの結果を残す。ベンチマーク20230706(微妙にダレた文章題、あり)編。

今のバージョンは ChatGPT May 24 Version Free Research Preview. ChatGPT may produce inaccurate information about people, places, or facts. ChatGPT May 24 Version ベンチマーク20230706-1 英語 Taro's family, Taro, his father, and his mother, d…

ChatGPT、公開バージョンがあがるような記事を見たので、いまのベンチマークの結果を残す。ベンチマーク20230605(英文法)編。

今のバージョンは ChatGPT May 24 Version Free Research Preview. ChatGPT may produce inaccurate information about people, places, or facts. ChatGPT May 24 Version ベンチマーク20230605 英語 User Please create six questions with at least two q…

ChatGPT、公開バージョンがあがるような記事を見たので、いまのベンチマークの結果を残す。ベンチマーク20230521(算数未満)編。

今のバージョンは ChatGPT May 24 Version Free Research Preview. ChatGPT may produce inaccurate information about people, places, or facts. ChatGPT May 24 Version ベンチマーク20230521-1 英語 User Taro, Jiro, and Hanako each had five apples. …

ChatGPTとかChatの性能に関するベンチマーク(2023/07/06, 微妙にダレた文章題)。これでどうでしょう3。

ベンチマーク20230706-1 英語 日本語 ベンチマーク20230706-2 英語 日本語 この -2 が、意外と、微妙にダレた日本語で難しい!!! 関連の自分の記事 コメント ベンチマーク20230706-1 英語 Taro's family, Taro, his father, and his mother, decided to pu…