AIうぉ--!(ai-wo-katsuyo-shitai !)

AIを上手く使ってみせたい!!自分なりに。

2023-07-01から1ヶ月間の記事一覧

『AIのバックプロパゲーションには、勾配降下法が用いられますが、ニュートン法を用いることはできませんか?』に対するChatGPT(3.5)の回答が、普通に立派過ぎる!

ChatGPT(3.5)との質疑 (文字化け=数式部分は、画を前か後ろに貼りました) User ChatGPT User ChatGPT User ChatGPT User ChatGPT User ChatGPT コメント ChatGPT(3.5)との質疑 (文字化け=数式部分は、画を前か後ろに貼りました) User AIのバックプロパ…

Pytorch, LSTM(1個), sine波の推定(予想?)は、この記事のコードがシンプルかも。。。。

Pytorch, LSTM(1個), sine波の推定(予想?) 以下の記事のコードがシンプルだと思いました。 datahacker.rs LSTMは、1個。 class myLSTM(nn.Module): def __init__(self, input_size=1, hidden_size=50, out_size=1): super().__init__() self.hidden_size …

AIの用語。回帰(regression)という用語は、少し、ずれた意味なので注意。

Wikipediaによると 「回帰」という用語は、英語の「regression」からの翻訳であるが、元々は生物学的現象を表すために19世紀にフランシス・ゴルトンによって造られた。ゴルトンは、背の高い祖先の子孫の身長が必ずしも遺伝せず、平均値に戻っていく、すなわ…

ちょっとなんでもいいので、Graph Neural Networksを動かしてみた

Graph Neural Networks github.com 上記、書籍対応のGitHubでいろいろある。 Chapter14を動かしてみた 環境 windows10 python3.7 CPU 結果 以下みたいな図(他にも図あり)が、表示された。 使われているデータセットは TUDatasetのMUTAG ChatGPT(3.5)に解説…

BERTは。何をデータとして事前学習しているのか?

答えが0秒で沢山えられます。。。。反省。 Wikipediaによると (両モデルとも、)Toronto BookCorpus[12](8億語)と、英語版Wikipedia(25億語)で事前訓練された。 引用元: https://ja.wikipedia.org/wiki/BERT_(%E8%A8%80%E8%AA%9E%E3%83%A2%E3%83%87%E3%8…

ChatGPT。知識量巨大(博識)ですが、知識がちょっとフワッとし過ぎでは。

知識量巨大(博識)ですが、知識がちょっとフワッとし過ぎでは。 結果1 ChatGPT 正解 評価 W0613 - Unused argument unused-argument 正解 W0612 - Unused variable unused-variable 正解 C0116 - Missing function or method docstring missing-function-do…

ChatGPTの回答を想像して、更に、その回答をでぃすってみる。

(想定)設問 消防車は、赤い。 救急車は、白い。 あと、消防車は消化のためのホースとかがあったりする。救急車にはそのようなものがない。 仮に、真っ白に塗装した消防車があるとして、それを描写した文章で、この車が消防車か救急車かをChatGPTに質問した…

◆少し参考になると思います。ChatGPT、公開バージョンがあがるような記事を見たので、いまのベンチマークの結果を残す。ベンチマーク20230715(プログラミング言語の作法の問題)編。

今のバージョンは ベンチマーク20230715-2 英語 ベンチマーク20230715-2(もう1回) 英語 User ChatGPT 評価 ベンチマーク20230715-1 英語 User ChatGPT ベンチマーク20230715-1(もう1回) 英語 User ChatGPT 今のバージョンは ChatGPT May 24 Version Free…

ChatGPTとかChatの性能に関するベンチマーク(2023/07/15, プログラミング言語の作法の問題)。これでどうでしょう4。

ベンチマーク20230715-1 英語 日本語 ポイント ベンチマーク20230715-2 英語 日本語 ポイント ベンチマーク20230715-1 英語 Explain which items (classification codes) in the python pylint or flake8 checklist can be ignored and why they can be igno…

論文『Attention Is All You Need』のScaled Dot-Product Attentionについて

論文『Attention Is All You Need』のScaled Dot-Product Attentionの説明部分 引用 The two most commonly used attention functions are additive attention [2], and dot-product (multiplicative) attention. Dot-product attention is identical to our…

論文『Attention in natural language processing』は、Transformerとかを理解するためには、もっと、読まれてもいいのでは?

論文『Attention in natural language processing』 Galassi, Andrea, Marco Lippi, and Paolo Torroni. "Attention in natural language processing." IEEE transactions on neural networks and learning systems 32.10 (2020): 4291-4308. https://arxiv.…

ChatGPT、公開バージョンがあがるような記事を見たので、いまのベンチマークの結果を残す。ベンチマーク20230706(微妙にダレた文章題、あり)編。

今のバージョンは ChatGPT May 24 Version Free Research Preview. ChatGPT may produce inaccurate information about people, places, or facts. ChatGPT May 24 Version ベンチマーク20230706-1 英語 Taro's family, Taro, his father, and his mother, d…

ChatGPT、公開バージョンがあがるような記事を見たので、いまのベンチマークの結果を残す。ベンチマーク20230605(英文法)編。

今のバージョンは ChatGPT May 24 Version Free Research Preview. ChatGPT may produce inaccurate information about people, places, or facts. ChatGPT May 24 Version ベンチマーク20230605 英語 User Please create six questions with at least two q…

ChatGPT、公開バージョンがあがるような記事を見たので、いまのベンチマークの結果を残す。ベンチマーク20230521(算数未満)編。

今のバージョンは ChatGPT May 24 Version Free Research Preview. ChatGPT may produce inaccurate information about people, places, or facts. ChatGPT May 24 Version ベンチマーク20230521-1 英語 User Taro, Jiro, and Hanako each had five apples. …

ChatGPTとかChatの性能に関するベンチマーク(2023/07/06, 微妙にダレた文章題)。これでどうでしょう3。

ベンチマーク20230706-1 英語 日本語 ベンチマーク20230706-2 英語 日本語 この -2 が、意外と、微妙にダレた日本語で難しい!!! 関連の自分の記事 コメント ベンチマーク20230706-1 英語 Taro's family, Taro, his father, and his mother, decided to pu…

ChatGPTに、BERTの論文の読み方のコツを教えてもらった。

BERTの論文の読み方のコツ User ChatGPT 関連の自分の記事 BERTの論文の読み方のコツ User 以下の論文を読むときの注意事項や、ポイントを教えて下さい。どのような手順で読めば理解できますか。BERT: Pre-training of Deep Bidirectional Transformers for …

ChatGPTに、Transformer(Attention Is All You Need )の論文の読み方のコツを教えてもらった。

Transformer(Attention Is All You Need )の論文の読み方のコツ User ChatGPT User ChatGPT 自分の関連記事 Transformer(Attention Is All You Need )の論文の読み方のコツ User 以下の論文を読むときの注意事項や、ポイントを教えて下さい。どのような…