論文『Attention in natural language processing』 Galassi, Andrea, Marco Lippi, and Paolo Torroni. "Attention in natural language processing." IEEE transactions on neural networks and learning systems 32.10 (2020): 4291-4308. https://arxiv.…
今のバージョンは ChatGPT May 24 Version Free Research Preview. ChatGPT may produce inaccurate information about people, places, or facts. ChatGPT May 24 Version ベンチマーク20230706-1 英語 Taro's family, Taro, his father, and his mother, d…
今のバージョンは ChatGPT May 24 Version Free Research Preview. ChatGPT may produce inaccurate information about people, places, or facts. ChatGPT May 24 Version ベンチマーク20230605 英語 User Please create six questions with at least two q…
今のバージョンは ChatGPT May 24 Version Free Research Preview. ChatGPT may produce inaccurate information about people, places, or facts. ChatGPT May 24 Version ベンチマーク20230521-1 英語 User Taro, Jiro, and Hanako each had five apples. …
ベンチマーク20230706-1 英語 日本語 ベンチマーク20230706-2 英語 日本語 この -2 が、意外と、微妙にダレた日本語で難しい!!! 関連の自分の記事 コメント ベンチマーク20230706-1 英語 Taro's family, Taro, his father, and his mother, decided to pu…
BERTの論文の読み方のコツ User ChatGPT 関連の自分の記事 BERTの論文の読み方のコツ User 以下の論文を読むときの注意事項や、ポイントを教えて下さい。どのような手順で読めば理解できますか。BERT: Pre-training of Deep Bidirectional Transformers for …
Transformer(Attention Is All You Need )の論文の読み方のコツ User ChatGPT User ChatGPT 自分の関連記事 Transformer(Attention Is All You Need )の論文の読み方のコツ User 以下の論文を読むときの注意事項や、ポイントを教えて下さい。どのような…
話し合い結果 User いまの時代、バッククォートの使い道は、もうないのではないでしょうか。キーボードから消してもいいのでは。 ChatGPT バッククォート(`)は、プログラミングやマークアップ言語などの特定の文脈で使用される記号です。現代の時代におい…
タイトルのような気になったChatGPTとのやりとり User ChatGPTのこの時期の登場を、ほぼ、誰も予測できなかった理由を教えて下さい。 ChatGPT ChatGPTの登場が予測できなかった理由は、いくつかの要素が組み合わさった結果です。 情報の非公開化: OpenAIはCh…
やりとり User ChatGPT User ChatGPT User ChatGPT User ChatGPT User ChatGPT User ChatGPT User ChatGPT User ChatGPT User ChatGPT User ChatGPT User ChatGPT User ChatGPT やりとり User ロジスティック回帰という名称について、質問します。「ロジステ…
想像した構造 上記の「体裁調整」が、ときどき、どはまりするのでは!!
"chatgpt.org"に、"chatgpt.org"を聞いてみた AI言語モデルとして、私はインターネット全体にアクセスすることはできませんので、「chatgpt.org」が何であるかを確認することはできません。私が調べたところでは、「chatgpt.org」は有名な、あるいは確立され…
この記事 たまに、両方とも、SSLと書かれることが稀にあるし。。。 このすばらしいところ1 この記事のまとめの部分を引用 この記事 analyticsindiamag.com たまに、両方とも、SSLと書かれることが稀にあるし。。。 このすばらしいところ1 以下の引用?(リン…
ナイーブベイズは、1997年かな。。 スパムメールのフィルタを前提に考えてみる。 考えた手順 STEP1. まず全体を考えてみる。 STEP1結論 STEP2. 一つの単語で考えてみる STEP2結論 STEP3 STEP2の課題を考える。 STEP3結論 次回のチャレンジに向けて この記事…
本題 関連する自分の記事 参考(はずさない、英語読み上げサイト) 参考(はずさない、英語読み上げサイト、しかし多少長い文の場合は) 本題 以下のような英文を作ってもらいました。 TOEIC対策に使いたいと思います。 https://chat.openai.com/ Please pre…
記事の前に。。。 本題 ChatGPTへの依頼の形式 関連する自分の記事 参考(はずさない、英語読み上げサイト) 参考(はずさない、英語読み上げサイト、しかし多少長い文の場合は) 記事の前に。。。 このタイトルは、ChatGPTに作ってもらいました。 Request: …
英会話の試験があるので、スピーキングのための英文を検討した。 原文(適当に文章を羅列した)。 DeepLに翻訳してもらった。 ChatGPTに簡単にしてもらった ChatGPTに更に簡単にしてもらった 学んだこと theじゃなくてthatだね。。。 aspectは、partで逃げら…
ベンチマーク20230605-1 英語 日本語 今日の回答 英語 日本語 関連の自分の記事 コメント ベンチマーク20230605-1 英語 Please create six questions with at least two questions with "were to" as the answer, similar to the following English grammar …
このYoutubeを見て下さい。 このYoutubeを見て下さい。 www.youtube.com
環境 作業結果(最初) コメント 環境 https://chat.openai.com/ 作業結果(最初) 以下の英文の文法に類する、英文の文法の試験問題を3題つくって下さい。TOEICのような問題にして下さい。 If we were to ignore too many calories, what are some good fo…
この記事は、以下の記事からの派生です ai-de-seikei.hatenablog.com ベンチマーク20230521-1 英語 Taro, Jiro, and Hanako each had five apples. Hanako gave Taro four apples, but to others it appeared that Hanako gave Taro two apples. Also, one o…
環境 ChatGPTに対する質問 質問の日本語訳(deepl) ChatGPTの回答 回答の日本語訳 ちょっと質問文を替えてみた 回答が壊れた 関連する自分の記事 コメント 環境 https://chatgpt.org/chat (無料) ChatGPTに対する質問 Taro, Jiro, and Hanako each had five…
驚いた記事 note.com 驚いた部分 この記事の主題はちょっと異なるのだが。。。。 以下に引用の最初の5行程度。 こんなすごいことができるんだーーー!!! 実は5/9に書いたnoteの文章はGPT-4により増量されている。 私が書いた基となる原稿をGPT-4に読み込ま…
ChatGPTと人との比較。(Q&A対応を想定) 上↑の分析に対する補足 今後の予定 補足(2023/5/21) 上記の自分の記事を受けて ちょっと、この記事も見て下さい。どうも、評価下げる必要ありそうーーー!!!(2023/05/28) 補足(2023/6/29) 具体的な評価の下げ方…
まずは ちょっとおかしいので。。。 追加で質問してみた 更に、教えてもらった どうも、配列が大外の場合、改行がいまいちなので、会話してみた JSONフォーマットの説明でどこのサイトが優れているか、ChatGPTと議論してみた ちょっと、ボロがでました。 ま…
タイトルの通り Google翻訳では。 bingのチャットでは ChatGPTと会話してみた 以前の自分の関連記事 タイトルの通り Google翻訳では。 bingのチャットでは ChatGPTと会話してみた 以前の自分の関連記事 fanta-orange-grape.hatenablog.com
なんの話か コメント なんの話か 出典: ノイズで、テナガザルになったって。。。 コメント つまらない。 そんなんだったら、最後の出力のprint文にノイズを入れて、「テナガザル」にしたら!!! 別途、ちゃんと説明したい!!!テーマです。
実例 解決策 この解決策を知らないと。。。。 実例 ↓ わりと有名な論文なのに、出てこない(=検索にかからない) 解決策 適当に筆者とかを加える Long Ouyang, Jeff Wu, Xu Jiang, Diogo Almeida, とか足しました。 Training language models to follow ins…
論文『Language Models are Unsupervised Multitask Learners』 Abstract ちょっと、うまく意味が取れない部分 2.3. Model わかったこと(そもそも確認したかったこと) 知りたかったこと、わかったこと GPT-2とTransformerの関係 前提 コメント 論文『Langu…
Google scholarで、chatGPTの論文『Training language models to follow instructions with human feedback』が出てこないんですけど。。。 それとも 補足 コメント Google scholarで、chatGPTの論文『Training language models to follow instructions with…