ChatGPT(チャット・ジーピーティー)は、今や多くの企業で業務効率化のツールとして使われています。しかし、その利便性の一方で、情報漏洩などのセキュリティのリスクも高まっています。企業の経営者にしてみれば、特にこのリスクは気になるところではないでしょうか。
IPA(独立行政法人情報処理推進機構)の最新調査によると、AI利用企業の約60.4%がセキュリティ脅威を感じているにもかかわらず、適切な規則や体制を整備している企業は20%未満という実態が明らかになっています。
参照:IPA( 独立行政法人 情報処理推進機構)「AI利用時のセキュリティ脅威・リスク調査報告書」そこで、今回は、ChatGPTの情報漏洩リスクとその発生理由、実際の事例、そして中小企業が実践すべき7つの対策について詳しく解説します。ChatGPTを安全に活用するために、ぜひ参考にしてください。
目次
( 1 ) ChatGPTの情報漏洩リスクとは?
そもそもChatGPTとは?
ChatGPTは、OpenAI社が開発した生成AI(Generative AI)を代表するサービスの一つです。GPTは、「Generative Pre-trained Transformer」の略で、自然言語処理(NLP)技術にもとづき大量のデータを学習し、人間と自然な対話を行うことができる言語処理AIです。一般的にAIはデータベースをもとに最適な答えを導き出しますが、生成AIはそれだけにとどまりません。学習したデータを再構築し、新たなデータやコンテンツを「生成」します。それはテキストをはじめ、画像、映像、音楽など、さまざまな分野に及びます。
用途は多種多様で、主なものとして以下が挙げられます。
- 情報収集・調査
- アイデア出し・企画立案のサポート
- メールの文章作成・翻訳
- 資料の作成や要約
- プログラミング支援
- カスタマーサポート
ビジネスシーンでも活用されるChatGPT
ChatGPTはすでに多方面のビジネスシーンで活用されています。具体的な活用事例をいくつか紹介しましょう。
カスタマーサポートの効率化
あるBtoBソリューションサービスを担う企業では、ChatGPTをベースにした生成AIツールを開発し、さまざまな業務に活用しています。自社のデータとつなぎ合わせて、顧客対応などのカスタマーサポートに導入され業務効率化につながっています。
業務オペレーションの大幅削減
あるインターネット広告事業を展開する企業では、「ChatGPTオペレーション変革室」を設立。ChatGPTを適切に活用することで、広告運用にかかるオペレーションの総作業時間を30%削減することを目指しています。
SNS用のPR文を自動生成
あるIT関連サービスを手がける企業では、集客に利用できるSNS用のPR文や商品説明文を自動生成するChatGPTを活用した機能を提供。顧客の利便性向上を新しい価値提供としています。
情報漏洩リスクはゼロではない
文章や資料の作成ができ、アイデアも出してくれるなど、多方面で活用できる便利なChatGPTですが、情報漏洩のリスクはゼロではありません。
開発元のOpenAIでは顧客データの暗号化やデータ侵害の通知、データ漏洩の監視など、さまざまなセキュリティ対策を行っており、基本的な利用についてはまず安全と言ってよいでしょう。しかし、2024年の最新調査でも複数の情報漏洩事例が報告されており、リスクが完全にゼロとは断言できません。やはり企業としては、いざというときのことも考慮に入れて慎重に利用する必要があります。つまりはゼロトラスト(※1)で臨むのが正解です。
※1 ゼロトラスト:企業のセキュリティ対策において、「何も信用しない」という考えで取り組むこと。もともとは「システムに対するアクセスを無条件に信用しない」といった意味。大事な情報資産を守るうえで注目を集める概念。
参照:IPA( 独立行政法人 情報処理推進機構)「テキスト生成AIの導入・運用ガイドライン」( 2 ) ChatGPTで情報漏洩が起きる理由
情報が流出してしまう3つの理由
過去に何度かChatGPTの情報漏洩が報告されていますが、主に以下の3つのケースに大別されます。それぞれのケースを詳しく解説します。
① プロンプト情報の漏洩
プロンプトとは、ユーザーがChatGPTへ入力する指示や質問のことです。最も典型的な情報漏洩のパターンは、プロンプト(=ChatGPTへの入力データ)に重要な情報(個人情報や会社の機密情報など)を含んでしまうことで起こります。原則としてChatGPTは、ユーザーの入力した情報がデータベースに蓄積されます。つまり「学習」するということなのですが、その情報が、他のユーザーの回答に利用され、意図せず情報漏洩につながる場合があります。
なおプロンプトの情報を学習するのはWeb版のChatGPTのみで、API版(※2)であれば機密情報を入力しても回答としてほかに使われることはありません。
② アカウント情報の流出
ユーザーが意図せず、プロンプトに機密情報を入力してしまうことで起こる情報漏洩に加えて、ChatGPTのアカウント情報が流出するというケースもあります。2023年3月にはOpenAIから有料プランである「ChatGPT Plus(プラス)」の会員情報が流出したと発表されました。
流出したのは有料会員のうち約1.2%の個人情報で、ログイン時にほかのユーザーの氏名、住所、メールアドレス、クレジットカード情報の一部などが、約10時間にわたって表示されるという事態になりました。
③ チャット履歴の流出
この「ChatGPT Plus」の会員情報流出とあわせて、一部のユーザーのチャット履歴が別のユーザーに表示される不具合(バグ)(※3)も発生しました。
その後バグは修正されましたが、この事例からもプロンプトやチャットの内容が意図せず他人に見られてしまうケースが起こり得るということがわかります。会社の機密情報などを入力していたら、不特定多数の人の目に触れていたかもしれないということです。
( 3 ) ChatGPTで情報漏洩が発生した事例2選
では、より具体的な情報漏洩事例を2つ見てみましょう。ChatGPTは世界中で利用されているだけに、ひとたびインシデントが生じるとリスクも大きいということが、これらの事例からわかります。
機密情報が外部に漏洩
韓国の大手テクノロジー企業では、ChatGPTを業務に利用していましたが、2023年3月に機密情報の漏洩が3件発生しました。これはエンジニアがプログラムのエラーを解消するためにChatGPTに独自開発した技術が組み込まれたソースコードなど、外部に公開できない機密性の高いソースコード(※4)を入力したことや、議事録作成のために会議で話された新製品の規格に関する情報や、人事評価に関する情報などの詳細な内容をテキストとして入力したことなどが原因でした。
いずれも機密情報をChatGPTのサーバ(OpenAIのシステム)に保存した時点で外部に情報が漏洩したため、同社では緊急措置としてChatGPTの利用制限を設け、さらにその後、全面的に利用を禁止しました。
この事例は、従業員の何気ない業務効率化の試みが、企業の機密情報を危険にさらす可能性を浮き彫りにし、世界中の企業に対しセキュリティ対策の再考を促す契機となりました。
アカウントが闇市場で取引
シンガポールの情報セキュリティ会社が、日本からChatGPTのアカウント情報が漏洩していると発表しました。10万件を超える多くのChatGPTアカウントがダークウェブ(※5)で取引されており、2023年5月までに少なくともそのうち700件近くが日本からの漏洩であると確認されています。
アカウント情報を悪用してChatGPTにアクセスすることで、過去に質問した内容を閲覧することができるため、もし過去に個人情報や企業の機密情報、開発中のプロジェクトの詳細などが入力されていた場合、それらが第三者に筒抜けになります。この問題は、IPA(独立行政法人情報処理推進機構)が毎年発表している「情報セキュリティ10大脅威2024」でも取り上げられており、その深刻さが指摘されています。
( 4 ) ChatGPTの情報漏洩を防ぐ7つの対策
情報を漏らさないための7つの方法
ユーザー側が適切な対策を講じてさえいれば、作業の効率化が図れるなど、ChatGPTはビジネスにおいても有効なツールであることは間違いないでしょう。そのためにはセキュアな運用が何よりも重要です。ここからはChatGPTの情報漏洩を防ぐ方法を紹介します。
① 機密情報を入力しない
これはWeb版のChatGPTに関してのみですが、プロンプトに入力した情報をAIが学習して他者に回答する可能性があるため、機密情報を入力することは厳禁です。ただしすでにインターネット上などに公開されている情報であれば構いません。
下記の情報は入力しないようにしてください。
- 顧客の個人情報
- 社内の機密資料
- 財務情報
- 未発表の製品・サービス情報
- パスワードやアクセスキー
どうしても機密情報が含まれる場合は、該当箇所をダミー情報に置き換えるなどの工夫が必要です。
② 情報漏洩防止のための「オプトアウト設定」
ChatGPTを安全に利用するためには、機密情報を入力しないなどの基本的な運用ルールに加えて、「学習への使用をオプトアウトする設定」を行うことも有効です。
この設定を行うことで、ユーザーの入力データがChatGPTのモデル学習に使われないよう制限できます。
具体的には、設定画面の「データコントロール」から「チャット履歴とトレーニング」機能をオフにすることで対応可能です。
企業アカウントや複数人で利用している場合、管理者が設定を固定している可能性があります。個別ユーザーの設定画面からは設定の変更ができないので、管理者に連絡を取り、設定の変更を要請(もしくは依頼)してください。また、無料ユーザーも同様に設定を変更できないため、注意が必要です。
③ API版を利用する
前述したとおりAPI版のChatGPTであれば、機密情報を入力しても何ら問題ありません。API版なら自社の情報をAIに学習させることで、自社専用のChatGPTとして活用することができます。もちろんその学習内容が、ほかのユーザーが使っているAPI版やWeb版に反映されることもないので安心です。
④ 企業用の「ChatGPT Enterprise」プランを利用する
2023年8月に発表された「ChatGPT Enterprise(エンタープライズ)」は、GPT-4を含めChatGPTのすべての機能が利用できる企業向けの最新プランです。米国公認会計士協会(AICPA)によって考えられたサイバーセキュリティのフレームワーク「SOC 2」に準拠しており、企業が利用するにふさわしいレベルの高い安全性が確保されています。
API版と同じく機密情報を使ったやりとりが可能で、さらにすべての会話データがエンドツーエンド(※6)で完全に暗号化されるため、チャット履歴が流出する心配もありません。
⑤ セキュリティシステム「DLP」を導入する
DLP(Data Loss Prevention)とは、重要なデータや機密情報を自動的に特定する機能です。機密情報の持ち出しが疑われる場合には、アラートの通知や操作のブロックが行われます。DLPは、ユーザーではなく、データを中心としたセキュリティシステムであることが特徴です。顧客情報や、クレジットカード情報、経営戦略など機密情報が含まれる文章は送信前に通知またはブロックされます。
つまり従業員がプロンプトに機密情報を入力したとしても、送信がブロックされるため情報漏洩を防ぐことができます。
⑥ 「Azure OpenAI Service」を利用する
Microsoft(マイクロソフト)が提供する「Azure(アジュール) OpenAI Service」は、ChatGPTをさまざまなアプリケーションに組み込んで使えるサービスです。ブラウザでもAzure(※7)の高度なセキュリティ環境のもとで、ChatGPTを利用することが可能となります。
外部からのアクセス制限もできるため、セキュリティが不安な回線からのアクセスを遮断することで情報漏洩を防ぐことができます。入力データがAIの学習に使用されないので機密情報も安心して扱うことができます。社内チャットボットやコードレビュー、クレーム内容の要約、感情分析など、さまざまな業務に使われています。
⑦ アカウントのセキュリティを強化する
アカウント情報の流出や悪用に備えて、アカウントに関するセキュリティ強化を図ることも大切です。通常、ChatGPTはIDとパスワードを入力し、ログインすることで利用できますが、これは情報が漏洩した際に誰でも簡単にログインできるということでもあります。そこで定期的にパスワードを変更するなどして、万が一のことが起きても簡単にログインされないよう、普段から対策しておくことをおすすめします。多要素認証(MFA)の有効化も効果的です。また、ログイン履歴を定期的に確認することで、不審なアクセスの兆候に気づくことができます。
( 5 ) ChatGPTを安全に利用するためのポイント
企業としてChatGPTを安全に使うためにはどのようなことに気をつければよいのでしょうか。いずれも、経営層がリードしながら、全社員一丸となって取り組みたいことです。

① ChatGPTのためのガイドライン作成
企業としてChatGPTを使う際には、ガイドラインが必要です。ルールを明確にし、全社員が守るべきことや注意すべきことを認識することによって、適切な活用が可能になります。特に個人情報や社外秘の機密情報はどのように取り扱うのか、しっかりと定めておかなければなりません。
ガイドラインに含めるべき項目
- 利用目的の明確化: どのような業務でChatGPTを使用するか
- 機密情報の取り扱い基準: 入力禁止情報の具体的リスト
- 利用承認プロセス: 誰がどのような手続きで利用を承認するか
- 違反時の対応手順: ルール違反があった場合の処理方法
ガイドラインの作成に際しては、「一般社団法人 日本ディープラーニング協会(JDLA)」が策定・公開しているひな形も参考にしてみてください。
参照:一般社団法人日本ディープラーニング協会「生成AIの利用ガイドライン」② ChatGPTに関する教育・研究の実施
ガイドライン作成とあわせて忘れてはならないのが、従業員に対する教育です。IPA (独立行政法人情報処理推進機構)の調査によると、生成AI利用企業の多くで「社内リテラシー向上・普及啓発」の規則整備が遅れているという実態が示されています。ChatGPTの使い方の指導だけでなく、モラルも含めてどのようにこの最新技術と向き合うか、経営層として全社員一人ひとりのITリテラシーの向上に努めることが重要です。
ただしマニュアルを作成し、配付して終わりでは、あまり意味がありません。時間を設けて研修を実施し、正しい活用方法などをレクチャーしましょう。従業員がAI技術を正しく理解し、責任を持って利用できる環境を整えることが、企業全体のセキュリティ強化につながります。
③ ChatGPT利用の制限
ChatGPTを安全に利用するためには、従業員のITリテラシー向上やガイドライン整備と並行して、ChatGPTの利用範囲に適切な制限を設けることも非常に有効な対策です。ChatGPTへの質問を一定の容量に制限する、アクセス権限を付与する従業員を限定するなどは、ほかのセキュリティ対策よりも容易なため、すぐに実践できます。また、ChatGPTへのアクセスや質問内容のログを記録し、定期的に監視することで、不適切な利用がないかを確認できます。
なお物理的なアクセス制限をかけたい場合は、前述した「Azure OpenAI Service」が便利です。登録されていないIPアドレス(※8)からのアクセスを制限することができます。
※8 IPアドレス:パソコンやタブレット、スマートフォンなど、ネットワークにつながっている機器に割り振られた番号のこと。④ セキュリティ対策の見直し
ChatGPTのような生成AIツールを業務に導入する際、単にそのツールの安全性を確保するだけでなく、セキュリティ強度の高いツールをあわせて使えば、より安全な環境でChatGPTの利用が可能になるでしょう。そのためには、自社がどんなセキュリティ対策を行っているのか、現状を把握する必要があります。ChatGPTの適切な活用をきっかけとして、組織全体のセキュリティ体制の包括的な見直しをおすすめします。
( 6 ) まとめ
ここまで、ChatGPTの情報漏洩リスク、具体的な情報漏洩の事例、情報漏洩を防ぐための対策などについて紹介してきました。残念ながら、ChatGPTの情報漏洩リスクはゼロとは言い切れません。しかし、適切な対策を講じたうえで活用すれば、業務の効率化に役立つということがご理解いただけたのではないでしょうか。
ChatGPTに限らず、現代のビジネス環境では、クラウドサービスの利用、リモートワークの普及、巧妙化するサイバー攻撃など、情報漏洩のリスクはさまざまなところに潜んでいます。これを機に自社のセキュリティ対策を見直してみてはいかがでしょうか?もし、貴社が情報セキュリティに関する課題を抱えている、あるいは現在の対策に不安を感じているようでしたら、ぜひこの機会に専門家への相談をおすすめします。
サクサでは、情報セキュリティに関する中堅・中小企業の課題を解決するツールを多数ご用意しています。お気軽にお問い合わせください。
また、情報漏洩対策のチェックリストをはじめ、さまざまなお役立ち資料も提供しています。ぜひ、ご活用ください。
経営課題におけるトレンド情報や課題解決にお役立ていただける資料をまとめております。
ぜひ一度お読みください。