AIうぉ--!(ai-wo-katsuyo-shitai !)

AIを上手く使ってみせたい!!自分なりに。

論文『Attention in natural language processing』は、Transformerとかを理解するためには、もっと、読まれてもいいのでは?

論文『Attention in natural language processing』 Galassi, Andrea, Marco Lippi, and Paolo Torroni. "Attention in natural language processing." IEEE transactions on neural networks and learning systems 32.10 (2020): 4291-4308. https://arxiv.…

ChatGPT、公開バージョンがあがるような記事を見たので、いまのベンチマークの結果を残す。ベンチマーク20230706(微妙にダレた文章題、あり)編。

今のバージョンは ChatGPT May 24 Version Free Research Preview. ChatGPT may produce inaccurate information about people, places, or facts. ChatGPT May 24 Version ベンチマーク20230706-1 英語 Taro's family, Taro, his father, and his mother, d…

ChatGPT、公開バージョンがあがるような記事を見たので、いまのベンチマークの結果を残す。ベンチマーク20230605(英文法)編。

今のバージョンは ChatGPT May 24 Version Free Research Preview. ChatGPT may produce inaccurate information about people, places, or facts. ChatGPT May 24 Version ベンチマーク20230605 英語 User Please create six questions with at least two q…

ChatGPT、公開バージョンがあがるような記事を見たので、いまのベンチマークの結果を残す。ベンチマーク20230521(算数未満)編。

今のバージョンは ChatGPT May 24 Version Free Research Preview. ChatGPT may produce inaccurate information about people, places, or facts. ChatGPT May 24 Version ベンチマーク20230521-1 英語 User Taro, Jiro, and Hanako each had five apples. …

ChatGPTとかChatの性能に関するベンチマーク(2023/07/06, 微妙にダレた文章題)。これでどうでしょう3。

ベンチマーク20230706-1 英語 日本語 ベンチマーク20230706-2 英語 日本語 この -2 が、意外と、微妙にダレた日本語で難しい!!! 関連の自分の記事 コメント ベンチマーク20230706-1 英語 Taro's family, Taro, his father, and his mother, decided to pu…

ChatGPTに、BERTの論文の読み方のコツを教えてもらった。

BERTの論文の読み方のコツ User ChatGPT 関連の自分の記事 BERTの論文の読み方のコツ User 以下の論文を読むときの注意事項や、ポイントを教えて下さい。どのような手順で読めば理解できますか。BERT: Pre-training of Deep Bidirectional Transformers for …

ChatGPTに、Transformer(Attention Is All You Need )の論文の読み方のコツを教えてもらった。

Transformer(Attention Is All You Need )の論文の読み方のコツ User ChatGPT User ChatGPT 自分の関連記事 Transformer(Attention Is All You Need )の論文の読み方のコツ User 以下の論文を読むときの注意事項や、ポイントを教えて下さい。どのような…

ChatGPTとバッククォートの未来について話し合ってみた。(人の意見に同調し過ぎで話し合いにくい。。。)

話し合い結果 User いまの時代、バッククォートの使い道は、もうないのではないでしょうか。キーボードから消してもいいのでは。 ChatGPT バッククォート(`)は、プログラミングやマークアップ言語などの特定の文脈で使用される記号です。現代の時代におい…

ChatGPT。2024年ぐらいから、本質的な精度向上の頭打ちの報告が相次ぐかも。。。。

タイトルのような気になったChatGPTとのやりとり User ChatGPTのこの時期の登場を、ほぼ、誰も予測できなかった理由を教えて下さい。 ChatGPT ChatGPTの登場が予測できなかった理由は、いくつかの要素が組み合わさった結果です。 情報の非公開化: OpenAIはCh…

【ChatGPTと激論】「ロジスティック回帰」という名称から、実際の処理は、ほぼ想像できないと思います。

やりとり User ChatGPT User ChatGPT User ChatGPT User ChatGPT User ChatGPT User ChatGPT User ChatGPT User ChatGPT User ChatGPT User ChatGPT User ChatGPT User ChatGPT やりとり User ロジスティック回帰という名称について、質問します。「ロジステ…

ChatGPTの構造を勝手に想像してみました。

想像した構造 上記の「体裁調整」が、ときどき、どはまりするのでは!!

"chatgpt.org"って。

"chatgpt.org"に、"chatgpt.org"を聞いてみた AI言語モデルとして、私はインターネット全体にアクセスすることはできませんので、「chatgpt.org」が何であるかを確認することはできません。私が調べたところでは、「chatgpt.org」は有名な、あるいは確立され…

『Self-Supervised Learning Vs Semi-Supervised Learning: How They Differ』って記事がすばらしい。

この記事 たまに、両方とも、SSLと書かれることが稀にあるし。。。 このすばらしいところ1 この記事のまとめの部分を引用 この記事 analyticsindiamag.com たまに、両方とも、SSLと書かれることが稀にあるし。。。 このすばらしいところ1 以下の引用?(リン…

(内容ないです。)ベイズチャレンジ。26年ぶりにナイーブベイズを発明してみる!!!

ナイーブベイズは、1997年かな。。 スパムメールのフィルタを前提に考えてみる。 考えた手順 STEP1. まず全体を考えてみる。 STEP1結論 STEP2. 一つの単語で考えてみる STEP2結論 STEP3 STEP2の課題を考える。 STEP3結論 次回のチャレンジに向けて この記事…

TOEIC対策に最適!ヒアリング力を鍛えるための難解な英文をChatGPTが提供!(その2)

本題 関連する自分の記事 参考(はずさない、英語読み上げサイト) 参考(はずさない、英語読み上げサイト、しかし多少長い文の場合は) 本題 以下のような英文を作ってもらいました。 TOEIC対策に使いたいと思います。 https://chat.openai.com/ Please pre…

TOEIC対策に最適!ヒアリング力を鍛えるための難解な英文をChatGPTが提供!

記事の前に。。。 本題 ChatGPTへの依頼の形式 関連する自分の記事 参考(はずさない、英語読み上げサイト) 参考(はずさない、英語読み上げサイト、しかし多少長い文の場合は) 記事の前に。。。 このタイトルは、ChatGPTに作ってもらいました。 Request: …

英語の勉強に、DeepLとChatGPTに付き合ってもらった。

英会話の試験があるので、スピーキングのための英文を検討した。 原文(適当に文章を羅列した)。 DeepLに翻訳してもらった。 ChatGPTに簡単にしてもらった ChatGPTに更に簡単にしてもらった 学んだこと theじゃなくてthatだね。。。 aspectは、partで逃げら…

ChatGPTとかChatの性能に関するベンチマーク(2023/06/05, 英文法)。これでどうでしょう2。

ベンチマーク20230605-1 英語 日本語 今日の回答 英語 日本語 関連の自分の記事 コメント ベンチマーク20230605-1 英語 Please create six questions with at least two questions with "were to" as the answer, similar to the following English grammar …

茂木さんは、ベイズは嫌いらしい。。。。(ワタシも嫌い)

このYoutubeを見て下さい。 このYoutubeを見て下さい。 www.youtube.com

ChatGPTに英文法の問題を作ってもらおうとしましたが。。。。。ちょっと、疲れました。

環境 作業結果(最初) コメント 環境 https://chat.openai.com/ 作業結果(最初) 以下の英文の文法に類する、英文の文法の試験問題を3題つくって下さい。TOEICのような問題にして下さい。 If we were to ignore too many calories, what are some good fo…

ChatGPTとかChatの性能に関するベンチマーク(2023/05/21, 算数未満)。これでどうでしょう。

この記事は、以下の記事からの派生です ai-de-seikei.hatenablog.com ベンチマーク20230521-1 英語 Taro, Jiro, and Hanako each had five apples. Hanako gave Taro four apples, but to others it appeared that Hanako gave Taro two apples. Also, one o…

ChatGPTの論理性?って、こんな感じだったりもするので共有したい!!(太郎、次郎、花子はそれぞれ5個のリンゴを。。。)ChatGPTに対するこのシンプルな質問を共有したい!!

環境 ChatGPTに対する質問 質問の日本語訳(deepl) ChatGPTの回答 回答の日本語訳 ちょっと質問文を替えてみた 回答が壊れた 関連する自分の記事 コメント 環境 https://chatgpt.org/chat (無料) ChatGPTに対する質問 Taro, Jiro, and Hanako each had five…

GPTについて。この記事を読んで驚いた。⇒短い文章を理解できずに苦痛を感じる人達への対応術(ホリエモン)

驚いた記事 note.com 驚いた部分 この記事の主題はちょっと異なるのだが。。。。 以下に引用の最初の5行程度。 こんなすごいことができるんだーーー!!! 実は5/9に書いたnoteの文章はGPT-4により増量されている。 私が書いた基となる原稿をGPT-4に読み込ま…

ChatGPTを少しさわった結果、びっくりするほど利口なので、人との能力の関係をグラフにしてみた。

ChatGPTと人との比較。(Q&A対応を想定) 上↑の分析に対する補足 今後の予定 補足(2023/5/21) 上記の自分の記事を受けて ちょっと、この記事も見て下さい。どうも、評価下げる必要ありそうーーー!!!(2023/05/28) 補足(2023/6/29) 具体的な評価の下げ方…

ChatGPTにJSONのフォーマットについて教えてもらった。

まずは ちょっとおかしいので。。。 追加で質問してみた 更に、教えてもらった どうも、配列が大外の場合、改行がいまいちなので、会話してみた JSONフォーマットの説明でどこのサイトが優れているか、ChatGPTと議論してみた ちょっと、ボロがでました。 ま…

文房具を英語にすると、Google翻訳は今日もstationaryと教えてくれる(それは以前報告したが)。Bingのチャットに聞くとStatineryと正しく回答してくれて、stationaryという誤りについても説明してくれたから記事にしようと思ったら、今日は、そう言ってくれない。

タイトルの通り Google翻訳では。 bingのチャットでは ChatGPTと会話してみた 以前の自分の関連記事 タイトルの通り Google翻訳では。 bingのチャットでは ChatGPTと会話してみた 以前の自分の関連記事 fanta-orange-grape.hatenablog.com

AIは、わかりやすいパンダの写真は100%パンダと検出するはずで、テナガザルになるわけないので、安心して下さい。

なんの話か コメント なんの話か 出典: ノイズで、テナガザルになったって。。。 コメント つまらない。 そんなんだったら、最後の出力のprint文にノイズを入れて、「テナガザル」にしたら!!! 別途、ちゃんと説明したい!!!テーマです。

Google scholarあるある。有名な論文が検索でかからない!!! 解決策。

実例 解決策 この解決策を知らないと。。。。 実例 ↓ わりと有名な論文なのに、出てこない(=検索にかからない) 解決策 適当に筆者とかを加える Long Ouyang, Jeff Wu, Xu Jiang, Diogo Almeida, とか足しました。 Training language models to follow ins…

論文『Language Models are Unsupervised Multitask Learners』を読む。(GPT-2。)

論文『Language Models are Unsupervised Multitask Learners』 Abstract ちょっと、うまく意味が取れない部分 2.3. Model わかったこと(そもそも確認したかったこと) 知りたかったこと、わかったこと GPT-2とTransformerの関係 前提 コメント 論文『Langu…

Google Scholar でchatGPTの論文がbanされているように見える(逆か?)

Google scholarで、chatGPTの論文『Training language models to follow instructions with human feedback』が出てこないんですけど。。。 それとも 補足 コメント Google scholarで、chatGPTの論文『Training language models to follow instructions with…