ChatGPTは、英文の文法解説が「超!」苦手。(日本語だから?)
質問は。『以下の英文の文法を解説して下さい。 What do you think the main objective of this project is?』
回答は。
どれも0点???
ちなみに、GPT-3.5です。
回答1
この文は疑問文です。文法的には次のように解釈できます。
"What"(何)は疑問詞であり、文の主題や特定の情報を尋ねるために使われます。 "do you think" は、疑問詞 "What" の後に続く文の主語と述語を構成します。これは直訳すると「あなたは何を考えますか」となりますが、実際には「何だと思いますか」という意味です。 "the main objective of this project" は、文の主題です。これは「このプロジェクトの主な目的」という意味であり、質問の対象です。 最後の部分の" is" は文の動詞であり、文を完結させます。 したがって、文全体の意味は「このプロジェクトの主な目的は何だと思いますか?」となります。
回答2
この文は、疑問文の形式をとっています。基本的な文法構造は次のようになっています:
疑問詞 (Question word): この文の場合、「What」が疑問詞です。疑問詞は質問の対象を指し示します。「何」という意味で使われており、具体的に問いかけたい内容を表します。
助動詞 (Auxiliary verb): この文では、「do」という助動詞が使われています。これは、英語の現在形疑問文において、主要な動詞(ここでは「think」)と共に使われます。
主要な動詞 (Main verb): この文では「think」という動詞が主要な動詞です。この動詞が具体的な行動または考えを示しています。
質問の対象 (Object of the question): この文では、"the main objective of this project"が質問の対象です。つまり、質問者が知りたい内容や特定の事柄です。
文末の疑問文の指示語 (Question indicator at the end): 英語の疑問文では、通常、文末に疑問符 "?" が付きます。これによって、文が質問であることが示されます。
したがって、「What do you think the main objective of this project is?」は、「このプロジェクトの主な目的は何だと思いますか?」という意味になります。この文は、相手にそのプロジェクトの目標や目的についての意見を尋ねています。
回答3
"What do you think the main objective of this project is?" という文は、英語の疑問文です。この文の構成要素を解説します。
主語(Subject): この文の主語は "you" です。この文は他人に対して何かを尋ねているため、"you"(あなた)が主語となります。
動詞(Verb): 動詞は "think" です。"think" は過去形が "thought"、現在分詞が "thinking" となりますが、この文では疑問形の "do"(助動詞)と共に使われています。
疑問詞(Interrogative word): "what" が疑問詞として使われています。これは何についての質問かを示しています。
述語(Predicate): "do you think" が述語です。"do" は助動詞で、疑問文や否定文を作る際に使用されます。"think" は主要な動詞で、意見や考えを表現します。
目的語(Object): "the main objective of this project" がこの文の目的語です。これが質問の対象となっています。
この文は他人に対して、特定のプロジェクトの主な目的について考えを問いかけています。
ChatGPTにpyhonのdeepcopyを自作してもらった。なんで、こんなのを作ることが可能なんだろう。。。
ChatGPTによるdeepcopy自作
こんなコードを作ってくれた。
import copy def deep_copy(obj): if isinstance(obj, list): return [deep_copy(item) for item in obj] elif isinstance(obj, dict): return {key: deep_copy(value) for key, value in obj.items()} else: return copy.copy(obj)
なぞ
このようなやり方があるようなのだが。。。
なんで、それを知っていて、それが提供できるのか、ちょっと謎!
このことだけみると、ChatGPTは超利口ということになるが。。。
時系列データに対する(多変量)LSTM、この記事わかりやすい
ChatGPTの凄さ、不思議さを、裏側(逆側?)から考える1。
ChatGPTは、人々の予測、理解を超えた凄さがあると思う。
ただ、これがどういう状況か、何故かを、考察するのは困難だと思う。多分、人の理解を超えているため。
では、裏側(逆側)から考えてみる(その1)。
直接、ChatGPTについて考えるのではなく
以下の問題を考えてみる
- 人はなぜ、2+3が、5であることに、めちゃくちゃ自信を持てるのか?
コメント
まだ、検討途中です!!!
ChatGPTが予想よりすごい10の理由(まだ、1)。ChatGPTが期待ほどすごくない10の理由(まだ、0)。
ChatGPTが予想よりすごい10の理由
その1。結果を人の能力と直接比較していたため。
AIの性能を人の能力との優劣で比較してしまうことがある。
ここで、AIの能力を見誤ることが多いと思う。
沢山の違いがあるため、ベンチマーク的なものでの、人の能力との比較での良し悪しは、あまり、意味がない気がする。
⇒ これで、ややAIの能力を低く見積もる傾向が出たのでは?
出典:
https://developer.nvidia.com/blog/mocha-jl-deep-learning-julia/
出典: Russakovsky, Olga, et al. "Imagenet large scale visual recognition challenge." International journal of computer vision 115 (2015): 211-252.
ChatGPTが期待ほどすごくない10の理由
固有表現抽出(NER)を動かしてみる5。(windows, python)。
参考にしたサイト
参考にしたというより、そのまま、動かしただけ。
www.depends-on-the-definition.com
結果
環境
windows10
python3.7
モジュールのバージョン
numpy 1.19.2 scikit-learn 0.23.2 seqeval 1.1.1 tokenizers 0.5.2 torch 1.2.0+cpu transformers 2.6.0
時短のため、多少?、データを減らしたりしているので、その影響はあるかも。。。 ただ、Validationは、もう良くならない感じ。。。
Average train loss: 0.08474868331431437 Validation loss: 0.19457249017662098 Validation Accuracy: 0.9525395503746877 Validation F1-Score: 0.7423857868020304
構成
data = pd.read_csv("ner_dataset.csv", encoding="latin1").fillna(method="ffill")
tokenizer = BertTokenizer.from_pretrained('bert-base-cased', do_lower_case=False)
model = BertForTokenClassification.from_pretrained( "bert-base-cased",
↑これらで、雰囲気、わかるかな。。。