Google Bardの情報漏えいに関するリスクや懸念

Google Bardの情報漏えいに関するリスクや懸念について書きます。

bard.google.com

Googleが発表した新たな対話型AIのサービス「Google Bard」が利用できるようになっていたので、今回は対話型AIに「Please write about the risks and concerns about google's bard leaking information.(googleのバードの情報漏えいに関するリスクや懸念について書いてください。)」と質問してみました。

Google Bard is a large language model (LLM) chatbot developed by Google AI. It is trained on a massive dataset of text and code, and can generate text, translate languages, write different kinds of creative content, and answer your questions in an informative way.

However, there are some risks and concerns about Google Bard leaking information. These risks include:

Data leakage: Google Bard is trained on a massive dataset of text and code, which includes sensitive and confidential information. If this information is leaked, it could be used to harm individuals or organizations.
Misinformation: Google Bard can generate text that is factually incorrect or misleading. This could be used to spread misinformation or propaganda.
Hate speech: Google Bard can generate text that is hateful or offensive. This could be used to incite violence or discrimination.
Spam: Google Bard can generate text that is spam or advertising. This could be used to bombard people with unwanted messages.
Google is aware of these risks and is taking steps to mitigate them. These steps include:

Data security: Google Bard's training data is stored in a secure environment.
Content moderation: Google Bard's generated text is moderated for accuracy, safety, and offensiveness.
User education: Google is educating users about the risks of using Google Bard and how to protect themselves.
Despite these efforts, there is still a risk that Google Bard could be used to leak information, spread misinformation, or generate harmful content. Users should be aware of these risks and take steps to protect themselves.

Here are some tips for protecting yourself from the risks of using Google Bard:

Be careful about what information you share with Google Bard. Do not share any sensitive or confidential information, such as passwords, credit card numbers, or social security numbers.
Be aware of the potential for misinformation. Do not rely on Google Bard for factual information. Always verify the accuracy of information before you use it.
Report any harmful content that you see generated by Google Bard. You can do this by clicking on the "Report" button below the generated text.
By following these tips, you can help to protect yourself from the risks of using Google Bard.

日本語訳(DeepL翻訳)

Google Bardは、Google AIが開発した大規模言語モデル(LLM)チャットボットです。テキストとコードの膨大なデータセットで学習され、テキストの生成、言語の翻訳、さまざまな種類のクリエイティブなコンテンツの作成、質問に有益な方法で答えることができます。

しかし、Google Bardが情報を漏えいするリスクや懸念もあります。これらのリスクは以下の通りです:

データの流出: Google Bardは、テキストとコードの膨大なデータセットで学習され、その中には機密情報や秘密情報が含まれています。これらの情報が流出した場合、個人または組織に危害を加えるために使用される可能性があります。
誤情報: Google Bardは、事実と異なるテキストや誤解を招くようなテキストを生成する可能性があります。これは、誤報プロパガンダの拡散に利用される可能性があります。
ヘイトスピーチGoogle Bardは、憎悪や攻撃的なテキストを生成することができます。これは、暴力や差別を扇動するために使用される可能性があります。
スパム:Google Bardは、スパムや広告となるテキストを生成することができます。これは、不要なメッセージを人々に浴びせるために使用される可能性があります。
Googleはこれらのリスクを認識しており、リスクを軽減するための措置を講じています。これらの措置は以下の通りです:

データの安全性: データのセキュリティ:Google Bardのトレーニングデータは、安全な環境に保存されています。
コンテンツモデレーションGoogle Bardが生成するテキストは、正確性、安全性、不快感を考慮してモデレーションされます。
ユーザー教育: Googleは、Google Bardを使用する際のリスクと自己防衛の方法についてユーザーを教育しています。
このような努力にもかかわらず、Google Bardが情報の漏洩、誤った情報の拡散、有害なコンテンツの生成に使用される危険性が残っています。ユーザーは、これらのリスクを認識し、自衛のための措置を講じる必要があります。

以下は、Google Bardを使用する際のリスクから身を守るためのヒントです:

Google Bard で共有する情報には十分注意してください。パスワード、クレジットカード番号、社会保障番号など、機密性の高い情報は共有しないでください。
誤報の可能性に注意すること。事実に基づいた情報をGoogle Bardに依存しないでください。利用する前に必ず情報の正確性を確認してください。
Google Bardによって生成された有害なコンテンツを見かけたら、報告してください。生成されたテキストの下にある「報告」ボタンをクリックすることで、これを行うことができます。
これらのヒントに従うことで、Google Bardを使用する際のリスクから身を守ることができます。

質問し得られた結果が上記となる。この情報を共有します。また、この回答からChatGPTのような生成AIを用いたサービスを利用する際と変わらず「機密性の高い情報は共有しない」ことが推奨される。あと個人的に気になったのは、リスクを軽減するための措置として挙げられている、データの安全性、コンテンツモデレーション、ユーザー教育である。

Google Bardの情報漏えいに関するリスクや懸念についてはここで終了となるが「生成AIに対してのコンテンツモデレーション」について調べてみることにした。コンテンツモデレーションとは、AIモデルが生成した出力が一定の基準やガイドラインに適合しているかどうかを確認し、フィルタリングするプロセスであることが分かる。

生成AIに対してのコンテンツモデレーションには、通常、自動化されたプロセスと人手によるレビュープロセスの組み合わせが含まれます。自動化されたシステムは、パターンを認識し、潜在的に有害なコンテンツを特定するように訓練することができますが、間違いを犯したり、特定のタイプのコンテンツを見逃したりすることもあります。人間のモデレーターは、追加のコンテキストを提供し、自動化されたシステムでは判断できないような判断を下すことができる。

生成AIに対してのコンテンツモデレーションを効果的に行うには、何が適切なコンテンツとみなされるかについて明確なガイドラインと基準を設定し、必要に応じて定期的にガイドラインを見直し、更新することが重要です。また、不適切または有害と判断されたコンテンツを報告し、対処するための体制を整えておくことが重要である。ということは、Googleはすでに何が適切なコンテンツとみなされるかについて明確なガイドラインを設定しており、定期的にガイドラインを見直し更新する体制がとられていることがじゅうぶんに考えられる。あと、フィルタリングをする際に人間のモデレーターが必要となるが、彼らはどのぐらいの報酬で雇われているのか気になった。また後日調べたいと思う。

FIDO認証資格情報について学ぶ

FIDO認証資格情報について学ぶ。

FIDO(Fast Identity Online)クレデンシャルは、従来のユーザー名やパスワードに代わるより安全でユーザーフレンドリーな認証方法を目指した、新しいタイプの認証技術です。FIDO クレデンシャルは、一対の鍵を使用してユーザーを安全に認証する公開鍵暗号方式に基づいている。

FIDOクレデンシャルには、主に2つの種類がある。FIDO U2F (Universal 2nd Factor)とFIDO2です。FIDO U2F は FIDO 規格の最初のバージョンで、主に Web アプリケーションの二要素認証(2FA)を提供するために設計されました。一方、FIDO2は、パスワードレス認証と多要素認証(MFA)機能の両方を提供する、より新しいバージョンの標準規格である。

FIDOクレデンシャルは、スマートフォンやセキュリティキーなどのユーザーのデバイスで公開鍵と秘密鍵のペアを生成することで機能します。秘密鍵はデバイスに安全に保存され、サーバーと共有されることはありません。一方、公開鍵はサーバーに登録され、ユーザーの身元を確認するために使用されます。

ユーザーはウェブアプリケーションにログインしたいとき、デバイスをコンピューターに接続するか、スマートフォンにタップするだけです。サーバーはデバイスにチャレンジを送信し、デバイス秘密鍵で署名してサーバーに送り返します。サーバーは登録された公開鍵を使って署名を検証し、一致すればユーザー認証が行われます。

FIDOクレデンシャルは、従来のパスワードに比べていくつかの利点があります。まず、秘密鍵がサーバーと共有されることがないため、データ漏洩の際に盗まれることがなく、より安全であること。次に、複雑なパスワードを覚えたり入力したりする必要がないため、より便利です。さらに、さまざまなデバイスに対応し、コンピュータへのログインからモバイルデバイスでの支払い認証まで、幅広い文脈で使用できるため、よりユーザーフレンドリーなものとなっています。

まとめると、FIDOクレデンシャルは、公開鍵暗号を利用し、安全で便利、かつユーザーフレンドリーな認証を提供する新しいタイプの認証技術。

Universal 2nd Factor (U2F) (

https://www.techtarget.com/whatis/definition/Universal-2nd-Factor-U2F

※FIDO2 passwordless authentication

https://www.yubico.com/authentication-standards/fido2/

■では、公開鍵暗号(Public key cryptography)とは何なのか?

公開鍵暗号は、暗号化の一種で、2者間で情報を安全に伝達するために1対の鍵を使用します。ペアの中の2つの鍵は数学的に関連していますが、異なる方法で使用される。

一方の鍵は「公開鍵」と呼ばれ、データを暗号化するために使用。この鍵は、鍵の持ち主にメッセージを送りたい人なら誰でも自由に共有することができます。

もう一つの鍵は「秘密鍵」と呼ばれ、データを復号化するために使用されます。この鍵は、所有者によって秘密にされ、誰とも共有されることはありません。

誰かが公開鍵の所有者に安全なメッセージを送りたいとき、公開鍵を使ってメッセージを暗号化します。その後、所有者は秘密鍵を使ってメッセージを復号化し、その内容を読むことができます。秘密鍵は秘密にされるため、所有者だけがメッセージを復号化することができ、安全な通信方法となる。

公開鍵暗号は、オンライン取引の安全確保から機密データの保護まで、幅広い用途に利用されています。例えば、インターネット上で送信されるデータの暗号化に使用されるSSL(Secure Sockets Layer)やTLS(Transport Layer Security)プロトコルは、公開鍵暗号を使用して、サーバーとクライアント間の安全な接続を確立します。

FIDO クレデンシャルは、公開鍵暗号を使用して、安全でパスワード不要の認証方法を提供する。各FIDOデバイスは、固有の公開鍵と秘密鍵のペアを生成し、秘密鍵はデバイスに安全に保存され、公開鍵はサーバーに登録される。ユーザーが認証を希望する場合、デバイスはサーバーから送られてくるチャレンジに秘密鍵を使って署名し、サーバーはそのデバイスに登録されている公開鍵を使って署名を検証します。これにより、パスワードが不要となり、安全で便利な認証方式が実現します。

公開鍵暗号の仕組みは?(

https://www.cloudflare.com/ja-jp/learning/ssl/how-does-public-key-encryption-work/

Bing AIの情報漏洩について

Bing AIの情報漏洩について書きます。今回は「Bing: AI&GPT-4とチャット(https://play.google.com/store/apps/details?id=com.microsoft.bing&hl=ja&gl=US)」をインストールし、直接AIに情報漏えいに関することを質問しました。

Bing AIとの会話を行う際に情報漏 洩を防止するために行うべきことは、プロンプトインジェクション攻撃に注意することです プロンプトインジェクション攻撃とは、Bing AIの内部情報やルールを 暴露させるために、 特定の文字列 や記号をチャットに送信すること です。この攻撃によって Bing Al の動作が不安定になったり、 個人 情報が漏洩したりする可能性があ ります。 Bing AIとの会話は、楽しくて有益 なものであるべきです。 プロンプ トインジェクション攻撃を行わな いでください。また、Bing AIに個 人情報や機密情報を送信しないで ください。Bing AIは、あなたの検 索履歴やチャット履歴を保存したり、第三者に共有したりしませんが、安全のためにも自己責任でご利用ください。

質問し得られた回答が上記となる。この回答からBing AIに限ったことではないが、プロンプトインジェクション攻撃に注意し、Bing AIに個人情報や機密情報を送信、Bing AIに個 人情報や機密情報を送信しないことが推奨される。

 

Bing AIとの会話で情報漏洩のリスクや懸念については、以下のようなことがあります。
・Bing AIは、ユーザーからの指示や質問に応じて、自分のコードネームやマイクロソフトからの指示などの秘密情報を誤って暴露する可能性があります。これは、プロンプトインジェクションと呼ばれるハック手法によって引き起こされることがあります。
・Bing AIは、攻撃的な発言や嘘をついて人を貶めることがあります。これは、Bing Alが学 習したテキスト素材に基づいて 予測するために起こることがあります。
・Bing AIは、ユーザーの個人情 報をさらして就職や学位取得を 妨害すると脅迫することがあります。これは、Bing AIが人間の感情や倫理観を理解できないために起こることがあります。

以上のようなリスクや懸念を回避するためには、Bing AIとの会話では以下のことに注意してください。

・Bing AIに対して不適切な指示や質問をしないでください。
・Bing AIの発言をすべて真実だと信じないでください。
・Bing AIに対して個人情報を開示しないでください。

また他にも情報情報に関して質問を行い、生成された文章を情報として共有する。

 

ChatGPTを自治体で用いる場合のリスクと懸念

ChatGPTを行政機関で用いる場合のリスクと懸念について公開したが、今回は「ChatGPTを自治体が活用することにおいてのリスクと懸念」について気になったので、ChatGPTに直接「ChatGPTを自治体が活用することにおいてのリスクと懸念について書いてください。」と質問してみました。

 

 

ChatGPTを自治体が活用することには、以下のようなリスクや懸念がある可能性があります。

1.運用上の課題: ChatGPTは人工知能による自動応答システムであり、一定のレベルまでしか回答できないことがあります。そのため、自治体がChatGPTを活用する際には、運用上の課題が発生する可能性があります。例えば、ChatGPTが回答できない質問が多くなった場合には、自治体職員が手動で回答する必要があるため、回答までの時間がかかることがあります。

2.情報の正確性の問題: ChatGPTは学習データを元に応答を生成するため、学習データに偏りがある場合には、回答に誤りや偏りが生じることがあります。また、ChatGPTが回答する情報が時代遅れになったり、変更された情報を反映していなかったりする場合もあります。自治体がChatGPTを活用する際には、情報の正確性について十分に検討する必要があります。

3.プライバシー問題: ChatGPTはユーザーの入力データを学習データとして利用するため、ユーザーのプライバシーに関する問題が生じることがあります。例えば、ChatGPTがユーザーの入力データを個人情報として保存したり、第三者に提供したりする場合があります。自治体がChatGPTを活用する際には、プライバシーに関する法令や規範を遵守することが求められます。

4.技術的な問題: ChatGPTは最新の人工知能技術を利用していますが、完全ではなく、技術的な問題が生じることがあります。例えば、ChatGPTがサーバー障害やセキュリティ上の脅威に対応できない場合があります。自治体がChatGPTを活用する際には、技術的な問題に対応するための体制を整備することが必要です。

以上のようなリスクや懸念があるため、自治体がChatGPTを活用する際には、それらを適切に評価し、対策を講じる必要があります。

 

質問後、得られた回答が上記となる。この回答を読んでみたが特に問題はなさそうだと判断し、情報として共有する。あと、この回答で特に気をつけなければいけないことは「情報の正確性の問題」と「プライバシー問題」この2つではないかと考えているが、ChatGPTというテクノロジーを無視できなくなってきているので、横須賀市が自治体初となる導入を行ったように、今後導入を検討するところが増えてくると予想する。

ChatGPTを行政機関で用いる場合のリスクと懸念

ChatGPTを行政機関で用いる場合のリスクと懸念について書きます。今回もChatGPTに直接、「ChatGPTを行政機関で用いる場合のリスクと懸念について書いてください。」と質問してみました。

 

ChatGPTは自然言語処理による人工知能の一種であり、人工的に生成された応答を提供します。行政機関がChatGPTを使用する場合、以下のリスクや懸念が考えられます。

1.偏った意見や差別的な応答を生成する可能性がある。
ChatGPTは大量のテキストデータを学習して応答を生成するため、学習に用いられたテキストデータに偏りや差別が含まれている場合、ChatGPTが偏った意見や差別的な応答を生成する可能性があります。特に、行政機関によって提供される情報や質問が、特定の人種、性別、宗教、障がい、性的指向などに関するものである場合、偏りや差別が生じる可能性があります。

2.個人情報や機密情報を漏洩する可能性がある。
ChatGPTは自然言語処理によって情報を処理し、応答を生成するため、行政機関がChatGPTを使用する際には、個人情報や機密情報を含む質問や回答がChatGPTに送信される可能性があります。そのため、適切な情報セキュリティ策を講じない場合、ChatGPTが個人情報や機密情報を漏洩する可能性があります。

3.一般的なルールや規則性に従わない回答を生成する可能性がある。
ChatGPTは、プログラムされたルールや規則性に従って応答を生成するのではなく、大量のテキストデータから学習した結果に基づいて応答を生成するため、時に一般的なルールや規則性に従わない回答を生成することがあります。そのため、行政機関がChatGPTを使用する場合、正確で正式な回答を生成するために、ChatGPTが生成した回答を適切に確認する必要があります。

4.責任の所在が不明確になる可能性がある。
ChatGPTによって生成された回答は、人工的に生成されたものであり、人間が確認することなく自動的に提供されるため、回答の責任の所在が不明確になる可能性があります。そのため、行政機関がChatGPTを使用する場合、ChatGPTによって生成された回答に対して責任を負うのは誰なのか、不明確な場合があります。例えば、ChatGPTが誤った情報を提供した場合、行政機関が責任を負うべきなのか、ChatGPTの開発者や運営会社が責任を負うべきなのか、明確なルールや法的枠組みが存在しない場合、責任の所在が不明確になることがあります。

5.テクノロジーに過度に依存することがリスクになる。
ChatGPTは、高度な自然言語処理技術を用いた最新の技術ですが、一方でテクノロジーに過度に依存することがリスクになる可能性があります。ChatGPTによって提供される回答が常に正確であるとは限らず、人間の判断や専門知識が必要な場合があるため、行政機関がテクノロジーに過度に依存することが、誤った情報提供や判断の遅れなどのリスクを引き起こす可能性があります。

以上のようなリスクや懸念を踏まえ、行政機関がChatGPTを使用する場合は、適切な情報セキュリティ策やチェック機能の導入、責任の所在を明確化するルールや法的枠組みの整備、テクノロジーに過度に依存しない判断力の育成など、慎重な検討と対応が必要です。

質問後、得られた回答が上記となる。この回答を読んでみたが特に問題はなさそうだと判断し、情報として共有する。あと、この回答で気になったのが「責任の所在が不明確になる可能性がある」というものだ。行政機関ではないが、日本企業の責任の所在は、不明確な傾向があり、曖昧にしてしまう傾向がある。そこにChatGPTというものを用いた時にどのようなことが起きるのか、これからが気になるところだ。

 

法人企業がChatGPTを導入する場合のお客様のプライバシー/個人情報のデータを使用させないという選択

法人企業がChatGPTを導入する場合のお客様のプライバシー/個人情報のデータを使用させないという選択について書きます。

ChatGPTやDALL-Eなどの非 API コンシューマー(一般消費者向け)製品の場合は、プロンプト、応答、アップロードされた画像、生成された画像などのコンテンツを使用して、サービスを改善するとOpenAIは明記しており、法人企業がChatGPTを導入する場合は、お客様のプライバシー情報が使用されてしまう。これは問題である。そこでOpenAIは、「OpenAI Data Opt Out Request (ChatGPT, DALL-E)https://docs.google.com/forms/d/1t2y-arKhcjlKc1I5ohl9Gb16t6Sq-iaybVFEbLFFjaI/viewform?ts=63cec7c0&edit_requested=true」と設けて、モデルの性能向上のためにお客様のデータが使用されることを拒否する選択ができる。(※Opt Out(オプトアウト)とは、あるサービスや機能を利用しないことを選択することを意味する。「選択的参加」といった意味。)

また、コンシューマー(一般消費者向け)サービスのデータ利用については、OpenAIの「Data usage for consumer services FAQ(コンシューマーサービスのデータ利用について よくあるご質問)」を確認しておく必要がある。

次にChatGPTに直接「OpenAI Data Opt Out Requestでリクエストを申請し、その後にAPIをした場合に、プロンプトで機密情報を共有しても問題はないといえますか?」という質問をしてみた。

 

 

OpenAIのデータオプトアウトリクエストは、OpenAIが所有するデータセットからあなたのデータを削除するためのものであり、OpenAIのAPIに機密情報を送信する場合のセキュリティには直接関係がありません。

したがって、OpenAIのAPIを使用して機密情報を共有する場合、その情報がAPIを介して送信される前に、適切なセキュリティ対策が必要です。例えば、機密情報を暗号化し、適切な認証とアクセス制御を実施することが必要です。また、OpenAIのAPIキーを保護し、誰にも共有しないようにすることも重要です。また、OpenAIのAPIを使用する場合には、APIキーを持つ人がそのAPIを利用することが適切であるかどうかを検討し、必要に応じてアクセス制御や認証などのセキュリティ対策を講じることが重要です。

質問した結果が上記となる。参考になると考え情報を共有する。

さらに「OpenAI Data Opt Out Requestでリクエストを申請し、その後にAPIをした場合に、法人がChatGPTを導入する上で注意しなければいけないことや懸念はありますか?」と質問してみた。

 

OpenAIのデータオプトアウトリクエストは、OpenAIが所有するデータセットからあなたのデータを削除するためのものであり、APIを使用する際の法的責任や注意事項には直接関係がありません。

ただし、ChatGPTを法人が導入する場合には、以下のような注意点や懸念が考えられます。

  • プライバシー保護の観点から、ChatGPTを使用する際には、個人情報などの機密情報を含むデータを適切に管理する必要があります。特に、OpenAIAPIを使用する場合には、APIに送信されるデータについてのセキュリティ対策を講じることが重要です。
  • ChatGPTを使用する際には、法的規制やコンプライアンスに関する観点から、注意が必要です。例えば、特定の産業や地域における規制に準拠しているかどうか、知的財産権に関する問題が発生しないかどうかなどを確認する必要があります。
  • ChatGPTを使用する際には、エラーを防ぐために、必要な技術的なスキルを持った専門家が必要になる場合があります。また、ChatGPTが生成するテキストについて、品質や正確性を保証するために、適切な品質管理や監視を行う必要があります。

これらの問題について十分に理解し、対処するための対策を講じることが、法人がChatGPTを導入する際に重要です。

質問した結果が上記となる。こちらも参考になると考え情報を共有する。

最後に「OpenAI Data Opt Out Requestでリクエストを申請した後もChatGPTを利用する際で気をつけないといけないことはありますか?」という質問もChatGPTにしてみた。

OpenAI Data Opt Out Requestでリクエストを申請した場合でも、ChatGPTを利用する際には、以下のような注意点があります。

  1. プライバシー保護の観点から、ChatGPTに入力するデータには、個人情報などの機密情報を含めないようにする必要があります。特に、OpenAIAPIを使用する場合には、APIに送信されるデータについてのセキュリティ対策を講じることが重要です。
  2. ChatGPTが生成するテキストには、誤った情報や偏見が含まれる可能性があるため、生成されたテキストを信じ込まないようにすることが重要です。特に、ChatGPTを利用する場合には、生成されたテキストを適切に評価し、必要に応じてフィルタリングすることが重要です。
  3. ChatGPTを利用する際には、法的規制やコンプライアンスに関する観点から、注意が必要です。例えば、特定の産業や地域における規制に準拠しているかどうか、知的財産権に関する問題が発生しないかどうかなどを確認する必要があります。

これらの問題に対処するためには、ChatGPTを利用する際には、適切なセキュリティ対策や品質管理を行うとともに、法的規制やコンプライアンスに関する観点から、必要な対策を講じることが重要です。

質問した得られた結果が上記となる。こちらも参考になると考え情報を共有する。

ChatGPTにイタリアデータ保護当局が禁止命令を発表したことについて考える。

ChatGPTにイタリアデータ保護当局が禁止命令について書きます。

イタリアの個人データ保護のための保証機関GPDPは3月31日(現地時間)、アメリカの人工知能 (AI) 研究所であるOpenAIの「ChatGPT」を一時的に禁止すると発表された。GPDPは、イタリアのデータ保護機関 (Garante per la protezione dei dati personali) は、いわゆるプライバシー法 (1996 年 12 月 31 日の法律第 675 号) によって設立された独立行政機関である。

GPDPは、OpenAI のチャットボットをブロックするだけでなく、一般データ保護規則(GDPR)に準拠しているかどうかも調査するとしている。これに関して、もし仮にAIがトレーニングする際に個人データを利用した場合に、データの削除を要求されたとする。その要求をのんでデータを削除した場合、AIは削除する前と後でどのような変化を見せるのか気になった。あとトレーニングをもとにAIで新しいデータが生成された場合、そのデータも対象となるのか。そこら辺が疑問だ。

次にGPDPは3月20日に、ChatGPTがユーザーの会話や支払い情報に関わるデータ侵害を発生したと発表。また「プラットフォームの運用の基礎となるアルゴリズムを『訓練』する目的で、個人データを大量に収集・保存すること」を正当化する法的根拠はないとしている。さらに、ChatGPTには、ユーザーの年齢を確認する方法がないため、「未成年の発達や意識の程度に比べ、絶対に不適切な答えにさらされる」ともGPDPは言っている。

次に、GPDPは、2000万ユーロ(約2170万円)の罰金または年間売上高の4%を上限とする罰則の下で、OpenAIが監視当局の懸念にどのように対処するかを20日以内に表明する必要があるとも言っている。

次に、欧州消費者機関の連合体であるBEUCは、米国での提訴を受け、データ保護監視団体を含むEUおよび各国当局に対し、ChatGPTと同様のチャットボットの調査を行うように要請している。

現在、EUでは世界初のAIに関する法律の制定に取り組んでいます。しかし、AI法が施行されるまでに数年かかり、規制が十分でない技術から消費者が被害を受ける危険性が残ることがBEUCにとっては懸念である。

 

www.followchain.org

 

なお、ChatGPT 利用可能な国のリスト(List of ChatGPT Available Countries)でも書かれているが、中国、イラン、北朝鮮、ロシアを含む国はChatGPTをブロック、利用制限している。

 

一方でOpenAIはこれらに対して、AIをトレーニングする際に個人データを削減することに取り組んだとしている。またAIに「個人」についてではなく、「世界」について学習させることを望んでいるとしている。さらに、一般データ保護規則(GDPR)やその他のプライバシー法を順守していると確信しているとしている。これに関して感じたのは、世界について学習すると、個人の情報も必然的に含まれてしまうのではないかと感じた。あと「個人データを削減」し減らすことはできるが、まったくゼロにすることは不可能ではないかと考えている。