【ChatGPTによる情報漏えい】社内の極秘情報を共有する場合は情報は保護されるのかなど。

スポンサーリンク

ChatGPTによる情報漏えい(ChatGPTに社内の極秘情報を共有する場合は情報は保護されるのかなど)について書きます。

なぜこれについて書こうかと考えたのか。それは最近はほぼ毎日のようにChatGPTに関連した情報をニュースサイトなどで収集している。

www.gizmodo.jp

その収集した中で上記の記事が目についた。この記事の中では、Amazonの弁護士チームが、Amazon社員に向けて「開発中のコード含むAmazonの極秘情報」をChatGPTと共有しないように通達したということが書かれており、ここに書かれていることからChatGPTに社内の極秘情報を共有する場合は情報は保護されるのかについて疑問がわいた。なので、2023年1月30日でアップグレード,事実関係や数学的な能力を向上されたChatGPT(https://help.openai.com/en/articles/6825453-chatgpt-release-notes)に直接「ChatGPTに社内の極秘情報を共有する場合は、情報は保護されますか?」という質問をしてみた。

 

質問後、得られた回答が上記となる。「OpenAIは社内の極秘情報を保護されず、秘密情報を含むような情報は共有しない」という回答を得られた。「ChatGPTが本当に信じられるのか?」という問題があるが、これに関しては私は信じても良いと考えてこれを公開する。

次に「ChatGPTで共有されたくないことはあるが、どうしてもChatGPTを用いて問題解決したい場合はどうすれば良いのか?」という疑問もわいてきたので、これもChatGPTに質問してみた。

質問後、得られた回答が上記となる。私の個人的な考えでは「代替テキストを使用する」と、「特定の情報を含まないトレーニングデータを使用し、ChatGPTをカスタマイズする」というのが良いのではないかと考える。「情報を暗号化してからChatGPTに入力することで、情報の漏洩を防ぐ」ということも書かれていたが、「情報を暗号化してからChatGPTに入力した場合、その情報が他の者によって引き出される可能性があるのでは?」と考え、これについてChatGPTに質問してみる。

質問後、得られた回答が上記となる。「情報の漏洩を防ぐことができますが、100%保証はできません」とあるので、私もこれについては同意する。

ここまで、社内の極秘情報を共有する場合は情報は保護されるのかについて、ChatGPTと対話しながら考えてみたが、共有しない方が良い。

 

■追記

「ChatGPTのようなAlと機密情報を共有することへの懸念を説明する(describe concerns about sharing sensitive information with Al like ChatGPT)。」ということを英語と日本語の両方で、ChatGPTに質問してみた。

得られた回答が上記となる。回答が若干異なることが、新しい発見だったことも含め共有します。

ChatGPTのようなAIと機密情報を共有すると、以下のようなことが起こります。

1.データ漏洩、機密情報への不正アクセス
2.情報の流通や利用をコントロールできなくなる。
3.情報が悪用された場合、個人または組織に損害を与える可能性がある。
4.プライバシーとセキュリティをめぐる法的・倫理的問題

AIシステムと機密情報を共有することのリスクとメリットを慎重に評価し、それを保護するために適切なセキュリティ対策を実施することが重要です。

なお、英語の回答を日本語に翻訳すると、上記となる。

■追記(2023年2月3日)

ChatGPTのようなAlと機密情報を共有するについて、さらに情報漏えいということについて興味がわいたのでChatGPTに「ChatGPTによる情報漏えいのリスクと懸念について説明してください」と質問してみた。

質問後、得られた回答が上記となる。ChatGPTから得られた回答は「正確性や適切性について自己責任を持って判断する必要」があるということだった。これについての信憑性は高いと判断し共有しておく。

■追記(2023年3月17日)

海外においてセキュリティ、公益技術者であるブルース・シュナイアー(Bruce Schneier)氏のブログにおいて、「ChatGPT Is Ingesting Corporate Secrets(ChatGPTは企業機密を取り込んでいる)(

https://www.schneier.com/blog/archives/2023/02/chatgpt-is-ingesting-corporate-secrets.html

)」という記事が公開されており、この記事の中では「Insiderに流出したSlackの内部メッセージによるとAmazonの弁護士がChatGPTで生成されたテキストが社内のデータに酷似している」ということが書かれている。

また、OpenAIのプライバシーポリシー(

https://openai.com/policies/privacy-policy

)では、ユーザーのIPアドレス、ブラウザの種類と設定、ユーザーのサイトとのやり取りに関するデータ(ユーザーが関与したコンテンツの種類、使用した機能、取った行動など)を収集するといったことが書かれているので、プライバシーポリシーをしっかりと確認し、社内の機密情報が漏れないようにした方が良い。

■追記(2023年3月25日)

この記事は、ChatGPTに社内の極秘情報を共有する場合は情報は保護されるのかというテーマで書かれているもので、話はすこしそれるが、OpenAIは、発生したバグにより、一部の人がChatGPTで他のユーザーのチャット履歴を閲覧できる状態となり、有料ユーザーの支払い情報も流出する可能性があることを明らかにしている。さらに、このバグにより、ChatGPT Plus加入者の1.2%の支払い関連情報を意図せず可視化した可能性があることも明らかにしている。この件では、完全な決済カード番号は流出せず、ユーザーの氏名や住所など、残りの決済情報が流出してしまった。

■追記(2023年3月28日)

・2023年3月2日ではあるが、OpenAIはプライバシーリスクへの懸念が高まる中、利用規約を変更し、モデルがデフォルトでユーザー入力を使って学習することがないようにしている。

■追記(2023年3月29日)

ChatGPT and large language models: what's the risk?(ChatGPT と大規模な言語モデル: リスクは何ですか?)にも書かれているが、開発した大規模言語モデル (LLM)を公開した企業の「利用規約」と「プライバシー ポリシー」は十分に理解する必要がある。が、「利用規約」と「プライバシー ポリシー」は長文であり、書かれていることを読まずに、大規模言語モデル (LLM)を用いたサービスを利用しているケースがあるので、注意しておきたい。

■追記(2023年4月4日)

法人企業がChatGPTを導入する場合のお客様のプライバシー/個人情報のデータを使用させないという選択についての記事を書いたので、参考にしたい方は確認すると良い。

■追記(2023年4月5日)

3月30日、Samsung Electronicsが社内でChatGPTの使用を許可したところ、機密性の高い社内情報をChatGPTに入力してしまうことが発生している。

株式会社ギブリーは、OpenAIの規約上、学習に利用されないことになっているAPIを経由し、ChatGPTのサービスを提供する「法人GPT」の提供を開始している。

■追記(2023年4月11日)

Confidentiality concerns over employees inputting sensitive data into ChatGPT after Italy ban: useful analysis from legal expert(イタリアで禁止されたChatGPTに機密データを入力する従業員の守秘義務への懸念:法律専門家の有益な分析)という記事が公開されており、この中で「ChatGPTのようなチャットボットを適切なトレーニングや注意なしに使用する企業は、知らず知らずのうちにGDPRのデータ侵害にふれる恐れがあるので、適切な訓練と規制措置なしに職場のツールとして使用することは、賢明ではない」と書かれているがこれはまさしく同意する。また、「企業内で規制が策定され、ChatGPTのようなAIチャットボットがどのようにデータを統合し、取得するかについて従業員を教育するために行動を起こすことは企業の責任。」だとも書かれている。これも同意する。LLM(大規模言語モデル)がどのように機能するかを明確に理解していない従業員もいるので教育はこれからのために行った方が良い。(参考:AI(LLM)についてまだみんなが知らない8つの事実(論文:Eight Things to Know about Large Language Modelsについて)

■追記(2023年4月15日)

実際のChatGPT – 主要な法的問題(ChatGPT in practice – major legal issues)という記事が公開されていたので、こちらも共有する。この中で書かれている「個人情報、営業秘密、秘匿情報、特権情報、第三者に開示してはならない情報などが含まれる可能性のあるコンテンツは入力しない」ということは社内で利用する者にとってはじゅうぶんに理解しておきたいことである。

■追記(2023年4月26日)

OpenAIは、ChatGPTに新しいプライバシーコントロールを追加。チャット履歴を保存しない機能で、チャット履歴が無効になっているときに開始された会話は、モデルのトレーニングや改善に使用されず、履歴サイドバーにも表示されない(https://openai.com/blog/new-ways-to-manage-your-data-in-chatgpt