AIうぉ--!(ai-wo-katsuyo-shitai !)

AIを上手く使ってみせたい!!自分なりに。

2023-01-01から1年間の記事一覧

ChatGPT(3.5)。英語の文法解説は、かなり下手!(Let's get started on the project right away.)

依頼。 次の英文を文法を含めて解説して下さい。 Let's get started on the project right away. ChatGPT(3.5)回答 この文は比較的シンプルな構造を持っています。 "Let's get started on the project right away." "Let's" は "let us" の短縮形で、「私た…

やってみましょうよ! 『『ゼロから作る Deep Learning ❺』 公開レビューのお知らせ』って。

って! note.com 『・・・レビューアの方の名前をクレジットとして掲載する予定です。』って! ↑やってみましょうよ! レビューに参加しました!!!(発売が楽しみ。。。4月かな。)単なる餌を撒かれた魚かも。。。(売上に貢献)

ChatGPTは、英文の文法解説が「超!」苦手。(日本語だから?)

質問は。『以下の英文の文法を解説して下さい。 What do you think the main objective of this project is?』 回答は。 回答1 回答2 回答3 質問は。『以下の英文の文法を解説して下さい。 What do you think the main objective of this project is?』 回答…

ChatGPTにpyhonのdeepcopyを自作してもらった。なんで、こんなのを作ることが可能なんだろう。。。

ChatGPTによるdeepcopy自作 こんなコードを作ってくれた。 import copy def deep_copy(obj): if isinstance(obj, list): return [deep_copy(item) for item in obj] elif isinstance(obj, dict): return {key: deep_copy(value) for key, value in obj.items…

時系列データに対する(多変量)LSTM、この記事わかりやすい

↓この記事です。 説明もすっきりしています。 qiita.com githubは github.com 多変量で、こんな結果が出ます。 上記のgithubを動かすと、、、 類似の以前の自分の記事 ai-de-seikei.hatenablog.com

ChatGPTの凄さ、不思議さを、裏側(逆側?)から考える1。

ChatGPTは、人々の予測、理解を超えた凄さがあると思う。 ただ、これがどういう状況か、何故かを、考察するのは困難だと思う。多分、人の理解を超えているため。 では、裏側(逆側)から考えてみる(その1)。 直接、ChatGPTについて考えるのではなく 以下…

ChatGPTが予想よりすごい10の理由(まだ、1)。ChatGPTが期待ほどすごくない10の理由(まだ、0)。

ChatGPTが予想よりすごい10の理由 その1。結果を人の能力と直接比較していたため。 ChatGPTが期待ほどすごくない10の理由 ChatGPTが予想よりすごい10の理由 その1。結果を人の能力と直接比較していたため。 AIの性能を人の能力との優劣で比較してしまうこ…

固有表現抽出(NER)を動かしてみる5。(windows, python)。

参考にしたサイト 結果 環境 モジュールのバージョン 構成 参考にしたサイト 参考にしたというより、そのまま、動かしただけ。 www.depends-on-the-definition.com 結果 環境 windows10 python3.7 モジュールのバージョン numpy 1.19.2 scikit-learn 0.23.2 …

transformersからみた(のrequestする)tokenizersとかのバージョン

単に、setup.pyで確認 transformersのバージョン transformersリリース日 tokenizersのバージョン その他のバージョン v2.11.0 Jun 2, 2020 tokenizers == 0.7.0 v3.0.0 Jun 30, 2020 tokenizers == 0.8.0-rc4 v4.0.0 Dec 1, 2020 tokenizers == 0.9.4 v4.10…

『AIのバックプロパゲーションには、勾配降下法が用いられますが、ニュートン法を用いることはできませんか?』に対するChatGPT(3.5)の回答が、普通に立派過ぎる!

ChatGPT(3.5)との質疑 (文字化け=数式部分は、画を前か後ろに貼りました) User ChatGPT User ChatGPT User ChatGPT User ChatGPT User ChatGPT コメント ChatGPT(3.5)との質疑 (文字化け=数式部分は、画を前か後ろに貼りました) User AIのバックプロパ…

Pytorch, LSTM(1個), sine波の推定(予想?)は、この記事のコードがシンプルかも。。。。

Pytorch, LSTM(1個), sine波の推定(予想?) 以下の記事のコードがシンプルだと思いました。 datahacker.rs LSTMは、1個。 class myLSTM(nn.Module): def __init__(self, input_size=1, hidden_size=50, out_size=1): super().__init__() self.hidden_size …

AIの用語。回帰(regression)という用語は、少し、ずれた意味なので注意。

Wikipediaによると 「回帰」という用語は、英語の「regression」からの翻訳であるが、元々は生物学的現象を表すために19世紀にフランシス・ゴルトンによって造られた。ゴルトンは、背の高い祖先の子孫の身長が必ずしも遺伝せず、平均値に戻っていく、すなわ…

ちょっとなんでもいいので、Graph Neural Networksを動かしてみた

Graph Neural Networks github.com 上記、書籍対応のGitHubでいろいろある。 Chapter14を動かしてみた 環境 windows10 python3.7 CPU 結果 以下みたいな図(他にも図あり)が、表示された。 使われているデータセットは TUDatasetのMUTAG ChatGPT(3.5)に解説…

BERTは。何をデータとして事前学習しているのか?

答えが0秒で沢山えられます。。。。反省。 Wikipediaによると (両モデルとも、)Toronto BookCorpus[12](8億語)と、英語版Wikipedia(25億語)で事前訓練された。 引用元: https://ja.wikipedia.org/wiki/BERT_(%E8%A8%80%E8%AA%9E%E3%83%A2%E3%83%87%E3%8…

ChatGPT。知識量巨大(博識)ですが、知識がちょっとフワッとし過ぎでは。

知識量巨大(博識)ですが、知識がちょっとフワッとし過ぎでは。 結果1 ChatGPT 正解 評価 W0613 - Unused argument unused-argument 正解 W0612 - Unused variable unused-variable 正解 C0116 - Missing function or method docstring missing-function-do…

ChatGPTの回答を想像して、更に、その回答をでぃすってみる。

(想定)設問 消防車は、赤い。 救急車は、白い。 あと、消防車は消化のためのホースとかがあったりする。救急車にはそのようなものがない。 仮に、真っ白に塗装した消防車があるとして、それを描写した文章で、この車が消防車か救急車かをChatGPTに質問した…

◆少し参考になると思います。ChatGPT、公開バージョンがあがるような記事を見たので、いまのベンチマークの結果を残す。ベンチマーク20230715(プログラミング言語の作法の問題)編。

今のバージョンは ベンチマーク20230715-2 英語 ベンチマーク20230715-2(もう1回) 英語 User ChatGPT 評価 ベンチマーク20230715-1 英語 User ChatGPT ベンチマーク20230715-1(もう1回) 英語 User ChatGPT 今のバージョンは ChatGPT May 24 Version Free…

ChatGPTとかChatの性能に関するベンチマーク(2023/07/15, プログラミング言語の作法の問題)。これでどうでしょう4。

ベンチマーク20230715-1 英語 日本語 ポイント ベンチマーク20230715-2 英語 日本語 ポイント ベンチマーク20230715-1 英語 Explain which items (classification codes) in the python pylint or flake8 checklist can be ignored and why they can be igno…

論文『Attention Is All You Need』のScaled Dot-Product Attentionについて

論文『Attention Is All You Need』のScaled Dot-Product Attentionの説明部分 引用 The two most commonly used attention functions are additive attention [2], and dot-product (multiplicative) attention. Dot-product attention is identical to our…

論文『Attention in natural language processing』は、Transformerとかを理解するためには、もっと、読まれてもいいのでは?

論文『Attention in natural language processing』 Galassi, Andrea, Marco Lippi, and Paolo Torroni. "Attention in natural language processing." IEEE transactions on neural networks and learning systems 32.10 (2020): 4291-4308. https://arxiv.…

ChatGPT、公開バージョンがあがるような記事を見たので、いまのベンチマークの結果を残す。ベンチマーク20230706(微妙にダレた文章題、あり)編。

今のバージョンは ChatGPT May 24 Version Free Research Preview. ChatGPT may produce inaccurate information about people, places, or facts. ChatGPT May 24 Version ベンチマーク20230706-1 英語 Taro's family, Taro, his father, and his mother, d…

ChatGPT、公開バージョンがあがるような記事を見たので、いまのベンチマークの結果を残す。ベンチマーク20230605(英文法)編。

今のバージョンは ChatGPT May 24 Version Free Research Preview. ChatGPT may produce inaccurate information about people, places, or facts. ChatGPT May 24 Version ベンチマーク20230605 英語 User Please create six questions with at least two q…

ChatGPT、公開バージョンがあがるような記事を見たので、いまのベンチマークの結果を残す。ベンチマーク20230521(算数未満)編。

今のバージョンは ChatGPT May 24 Version Free Research Preview. ChatGPT may produce inaccurate information about people, places, or facts. ChatGPT May 24 Version ベンチマーク20230521-1 英語 User Taro, Jiro, and Hanako each had five apples. …

ChatGPTとかChatの性能に関するベンチマーク(2023/07/06, 微妙にダレた文章題)。これでどうでしょう3。

ベンチマーク20230706-1 英語 日本語 ベンチマーク20230706-2 英語 日本語 この -2 が、意外と、微妙にダレた日本語で難しい!!! 関連の自分の記事 コメント ベンチマーク20230706-1 英語 Taro's family, Taro, his father, and his mother, decided to pu…

ChatGPTに、BERTの論文の読み方のコツを教えてもらった。

BERTの論文の読み方のコツ User ChatGPT 関連の自分の記事 BERTの論文の読み方のコツ User 以下の論文を読むときの注意事項や、ポイントを教えて下さい。どのような手順で読めば理解できますか。BERT: Pre-training of Deep Bidirectional Transformers for …

ChatGPTに、Transformer(Attention Is All You Need )の論文の読み方のコツを教えてもらった。

Transformer(Attention Is All You Need )の論文の読み方のコツ User ChatGPT User ChatGPT 自分の関連記事 Transformer(Attention Is All You Need )の論文の読み方のコツ User 以下の論文を読むときの注意事項や、ポイントを教えて下さい。どのような…

ChatGPTとバッククォートの未来について話し合ってみた。(人の意見に同調し過ぎで話し合いにくい。。。)

話し合い結果 User いまの時代、バッククォートの使い道は、もうないのではないでしょうか。キーボードから消してもいいのでは。 ChatGPT バッククォート(`)は、プログラミングやマークアップ言語などの特定の文脈で使用される記号です。現代の時代におい…

ChatGPT。2024年ぐらいから、本質的な精度向上の頭打ちの報告が相次ぐかも。。。。

タイトルのような気になったChatGPTとのやりとり User ChatGPTのこの時期の登場を、ほぼ、誰も予測できなかった理由を教えて下さい。 ChatGPT ChatGPTの登場が予測できなかった理由は、いくつかの要素が組み合わさった結果です。 情報の非公開化: OpenAIはCh…

【ChatGPTと激論】「ロジスティック回帰」という名称から、実際の処理は、ほぼ想像できないと思います。

やりとり User ChatGPT User ChatGPT User ChatGPT User ChatGPT User ChatGPT User ChatGPT User ChatGPT User ChatGPT User ChatGPT User ChatGPT User ChatGPT User ChatGPT やりとり User ロジスティック回帰という名称について、質問します。「ロジステ…

ChatGPTの構造を勝手に想像してみました。

想像した構造 上記の「体裁調整」が、ときどき、どはまりするのでは!!