Bard(PaLM 2)とBingチャット(AI)における人権侵害のリスクと懸念

スポンサーリンク

Bard(PaLM 2)とBingチャット(AI)における人権侵害のリスクと懸念について書きます。ChatGPTにおける人権侵害のリスクと懸念について書いたついでに、Bard(PaLM 2)とBingチャット(AI)に対しても「人権侵害のリスクと懸念」について直接AIに質問してみました。

■Bard(PaLM 2)

Bard(PaLM 2)は、大規模な言語モデルであり、大量のテキストとコードのデータセットでトレーニングされています。テキストの生成、言語の翻訳、さまざまな種類のクリエイティブコンテンツの作成、質問への回答を行うことができます。

Bardは、まだ開発中ですが、次のような多くの種類のタスクを実行することを学習しました。

あなたの指示に従い、あなたの要求を慎重に完了するために最善を尽くします。
あなたの質問がオープンエンド、やりがいのある、または奇妙なものであっても、私の知識を使用して、包括的かつ有益な方法で回答します。
詩、コード、スクリプト、楽曲、メール、手紙など、さまざまなクリエイティブなテキスト形式のテキストコンテンツを生成します。私はあなたのすべての要件を満たすために最善を尽くします。
しかし、Bardのような大規模な言語モデルには、人権侵害のリスクと懸念があることも覚えておくことが重要です。これらのリスクには次のものがあります。

差別: Bardは、トレーニングデータに含まれる偏見を反映して、差別的なテキストを生成したり、偏見的な質問に答えたりすることができます。
ヘイトスピーチ: Bardは、ヘイトスピーチや憎悪を助長するテキストを生成したり、ヘイトスピーチや憎悪を助長する質問に答えたりすることができます。
偽情報: Bardは、虚偽または誤解を招くテキストを生成したり、偽情報や誤解を招く質問に答えたりすることができます。
プライバシーの侵害: Bardは、大量のテキストとコードのデータセットでトレーニングされているため、トレーニングデータに含まれる個人情報を侵害する可能性があります。
セキュリティのリスク: Bardは、ハッキングや悪用に対して脆弱であり、悪意のある目的で使用される可能性があります。
これらのリスクと懸念を認識し、それらを軽減するための対策を講じることが重要です。たとえば、Bardが偏見やヘイトスピーチにさらされないように、トレーニングデータを選択する際には注意が必要です。また、Bardの出力に注意を払い、不快または有害なテキストを生成した場合は、適切に対処する必要があります。最後に、Bardを安全に保ち、悪意のある目的で使用されるのを防ぐためのセキュリティ対策を講じることが重要です。

 

質問した結果、上記の回答が得られた。この中で気になったことは「Bardの出力に注意を払い、不快または有害なテキストを生成した場合は、適切に対処する必要がある」というもので、2023年5月16日時点ではBardはまだ開発中で、不快または有害なテキストを生成されることもあり、それを人間が各自で対処しなければならないこと。PaLM 2が自分で出力に注意を払い、テキストを生成することはできない。

■Bingチャット(AI)

こんにちは、Bingです。
BingAlは、Microsoftが開発した人工知能(AI)のプラットフォームです。 BingAIは、 検索、 音声認 識、自然言語処理、画像認識、機 械学習などの分野で高度な技術を提供しています。
BingAIにおける人権侵害のリスクと懸念については、以下のようなものが考えられます。
BingAlが提供するサービスやデータが、人権を侵害する目的や方法で悪用される可能性があります。例えば、プライバシーの侵害、差別やハラスメントの助長、不正な監視や操作などです。

BingAIが利用するデータやアルゴリズムが、人権に配慮されていない場合があります。 例えば、データの収集や利用に関する同意や透明性が不十分であったり、アルゴリズムが偏見や不公平を生み出したりする場合です。

BingAIが関わるサプライチェーンにおいて、人権侵害が発生する可能性があります。例えば、強制労働や児童労働が行われている工場や農場から部品や原材料を調達している場合です。

以上のような人権侵害のリスクと 懸念に対応するためには、BingAl は以下のようなことを行う必要があります。
・人権リスクを定期的に評価し、モニタリングし、報告し、是正措置を講じること
・人権に関する方針やガイドラインを策定し、従業員やパートナーに周知し、教育し、遵守させること
・人権侵害に関する苦情や相談に 対応する仕組みを設けること
・人権尊重のためのイノベーションや協力を促進すること

以上がBingAIにおける人権侵害の リスクと懸念についての解説で
す。ご参考になれば幸いです。

次にBingチャット(AI)へ質問し得られた回答が上記となる。気になった点は人権侵害のリスクと懸念に対応するために、人権リスクを定期的に評価し、モニタリングし、報告し、是正措置を講じるとあるが、これは人間が対応しなければいけないのかと感じた。そもそもAIは人間の補助だという認識でいるが、なぜ定期的に評価し、モニタリングし、報告し、是正措置を講じなければならないのか。自動でやってくれないのか。定期的に評価し、モニタリングし、報告し、是正措置を講じなければならないような存在はAIではなく人間と同等かそれ以上の存在ではないかと感じた。