ChatGPTによってゴミのような記事が無限生成されることでネット空間が汚染される

スポンサーリンク

ChatGPTによってゴミのような記事が無限生成されることでネット空間が汚染されることについて書きます。

OpenAIが2022年11月に公開したチャットボット「ChatGPT」は、テキストを生成するための強力なツールでありこれを用いて、ゴミのような低品質や誤ったコンテンツを生成する人たちもいる。これについてChatGPTに対して「ChatGPTによってゴミのような記事が無限生成されることでネット空間が汚染されることについてどう考えますか?」という質問をしてみた。

質問した後に得られた回答が上記となる。ゴミのような記事が無限生成されることでネット空間が汚染される負の影響を軽減するためには、ChatGPTのような言語モデルを使用するユーザーや開発者は、その使用による「潜在的な影響」を検討し、負の影響を軽減するためのステップを講じることが重要だとしているが、言語モデルを責任ある方法で使えない人たちもいるので、このような場合はどうすれば良いのか。これも、ChatGPTに「言語モデルを責任ある方法で使えない人たちはどのように対処すればいいと考えますか?」と質問してみた。

質問後、得られた回答が上記になる。まずChatGPTの使用者に対して適切なトレーニング(生成するテキストに対しての社会的責任についてを学ぶことができるもの)を提供するとあるが、このトレーニングプログラムを拒む者もいるということも理解しておきたい。次に技術開発者に対して責任を負わせるとあるが、責任を逃れようとする者もいるので、このような場合はどうすれば良いのか気になったので、追加でこれに関して質問した。

質問後、得られた回答が上記となる。

次に使用者に対して監視を行うこと。監視することは確かに大事だ。言語モデルが使用されるプラットフォームやサービスは、使用者が責任ある方法で使用しているかどうかを監視する仕組みを設けることは良い方法ではないかと思った。これを読んでパッと頭の中に浮かんだのが、情報の真偽を検証しネットの言論空間の健全性を維持することを目的に設立された「日本ファクトチェックセンター」のようなセンターを設けること。しかし、そもそもファクトチェックの場合は、お金にならないので、運営を継続するのが難しいということもあるし、チェックセンターに携わる人は「どのような人を選ぶのか」も大事になってくる。実際に日本ファクトチェックセンターは、朝日新聞出身者が多いといったことなどで炎上したので、携わる人に偏りがあると、真偽を検証しチェックすることは難しくなる可能性はある。そうなってくると、私たち一人一人が監視の目となり、常に見張っていき声をあげるということが大事となってくると考える。そして、ChatGPTの回答の最後に挙げられた「法律や規制を整備する」ということ。ゴミのような記事が無限生成されることでネット空間が汚染されることを強く取り締まるのであれば、これも必要になってくる。ただ、この場合も「どこまでの範囲」を法律や規制で取り締まるかが課題になってくる。また政府や業界団体が法律や規制を正しく整備できるのかというところも課題だと考える。権力やお金で力で間違った整備になってしまう可能性もゼロではないと考える。

最後に、ChatGPTから得られた回答の中に「技術開発者に対して責任を負わせる」とあったのだが、技術開発者に責任を負わせることでどのような効果があるのか気になったので、ChatGPTにさらに質問してみた。

質問後、得られた回答が上記になる。言語モデルの技術開発に携わっている方は参考にしてもらいたい。

 

■追記(2023年02月02日)

ChatGPTによってゴミのような記事が無限生成されることでネット空間が汚染されるについて、ChatGPTに「ChatGPTにおけるネット空間の汚染についてメリットはありますか?」という質問を行ってみた。

いいえ、ネット空間の汚染にはメリットはありません。汚染とは、偽の情報やウイルスなどを含んだ不正なコンテンツが多数存在することを指します。これらは、ユーザーの情報を盗んだり、コンピューターを破壊したりする恐れがあり、サイバーセキュリティー上のリスクをもたらします。また、汚染されたネット空間は、正確な情報を探すのが困難になり、情報の歪曲や誤解も生じる可能性があります。

質問が得られたのが上記の回答となるが、情報の歪曲や誤解もない正確な情報をChatGPTが生成できるのか疑問に感じたので「ChatGPTで正確な情報を生成することは可能かどうかについて考えて書いてください。」とChatGPTに質問してみた。

ChatGPTは大量のテキストデータを学習して生成する言語モデルですが、正確な情報を生成することは保証できません。モデルは学習データに基づいて生成するので、学習データに含まれている誤りや偏向性が反映される可能性があります。

また、ChatGPTは意図や文脈を理解する能力も限られているため、正確な情報を生成することができない場合もあります。人間のように感性や判断力を持っていないため、不正確な情報や誤解を生成する可能性があります。

したがって、ChatGPTが生成する情報は参考資料として利用することはできますが、正確性を保証するものではないことを理解して利用することが重要です。

質問後、得られた回答が上記になる。ChatGPTは正確な情報を生成することは保証できず、不正確な情報や誤解を生成する可能性があることを念頭においた方が良い。また、ChatGPTが生成する情報は、あくまで参考資料として利用するのが理想的だろう。

ちなみに、ChatGPTの技術を活用したWebメディア記事自動作成ツールを公開している企業が日本にも現れはじめているが、あくまで「ツール(道具)」として用いて最終的な調整や判断は人間が行い、Webメディアを公開するようにした方が良いというのが私の意見である。