Chat GPTに論文をチェックさせたら?

Chat GPTなど対話型AIの利用方法について、議論がかまびすしくなっている。いわくフェイク情報が真実としてまかり通る。学生がChat GPTの書いたものを丸写しする・・・・・・。

可もなく不可もない当たり前の文章をつくってもらうぶんには、とくに問題はないだろうが、それによって重大な判断を下したり、書いた(丸写しした)人物を評価したりするには、少々心配である。

そこで思ったのだが、書かれた文章を受け取る側(教授や先生、政治家やビジネスマン)もChat GPTを使って検証してみてはどうだろう。

大学の論文などで学生に使わせる際は、「書かれた論文がChat GPTないし他の対話型AIで提示された文章とどの程度合致しているか?」と、Chat GPT自身に問い合わせる。客観性を担保するために、他のAIに聞いてみてもいいかもしれない。

そうすると丸写しだったら「100%」という答えが返ってくるだろうし、学生のほうも考えるだろうから、「50%以上はアウト」など基準を設けてもいい。

いちいち提出された論文を入力しなくても、「○○大学の〇〇学講義提出論文について」とか、限定する条件さえつければ勝手に調べてきてくれるだろう。

日本政府も活用するとのたまっているが、これも回答があがってきたら、「この情報に関する反論はなにか」とか、「この情報の不確定要素はなにか」など、AI自身に考えさせたらいいのではないか。こういうケースでは、複数の対話型AIが出てきていることが信頼性を高めるうえで、より効果的といえそうだ。

AIの時代、新しい技術に関しては、使う側も新しい利用の方法、つまり間違いを起こさせない方法を開発することが必要なのかもしれない。