あらゆる事業は常に効率性と生産性を得る方法を求めており、多くの場合、コンテンツを生成したり、顧客と会話をしたり、さらにはソフトウェアをビルドしたりさえするためにChatGPTなどのAIベースの大規模言語モデル(LLM)の活用を模索することは非常に有望に思えます。ただし、これとは対照的に、多くの大企業では従業員によるこれらのテクノロジーの利用を差し止めざるを得ない状況に陥っています。同業他社がこれにならうのかどうか、という点が気になるでしょう。
AIを禁止しなければならない理由は、どこにある のでしょうか?その理由は、生成AIサービスはさらなるトレーニングのためにデータインプットを用いており、多くの場合こうしたデータが後に部外者に開示されてしまうためです。機密データを保有または処理し、自社の知的財産を守り、高度な規制監督を受けた業界で事業を運営していたり、クローズドソース(ソースコードを外部に開示しない)ソフトウェアを製作している組織にとって、この種のデータ漏洩は大災害につながる可能性があります。
しかし、こうしたツールは大きなメリットをもたらしもします。では、CISO(最高情報セキュリティ責任者)たちはChatGPTや類似のツールを許可するべきか禁止すべきか、どのように決めればいいのでしょうか?特に、禁止することで社員の生産性が落ちるのであれば、その強制は難しく、さらに監督しきれるでしょうか?
その理由は、社員はChatGPTや他のLLMを仕事を簡単にし効率性を高めるものであると捉え、気づかないうちにデータ漏洩につながるようなやり方でこれを用いる可能性があるためです。
すべてのAIモデル同様、ChatGPTはより多くのデータを投入されればより優れた結果を出すように設計されています。こうしたツールはデータ保管庫を安全に保つために設計しているわけではないため、起こりう る意図しないデータの漏洩は必ずしも「欠陥である」ことにはなりません。LinkedInやInstagramなどのようなソーシャルメディアプラットフォームに機密情報を投稿した場合と同様、これらのアプリはプライベートなデータを守るようにはできていないのです。
ある調査では、社員が機密情報または知的財産に関する情報をこうしたツールに読み込ませていることが分かりました。別のケースでは、Samsungのエンジニアが不意に機密情報をChatGPTにアップロードして漏洩させてしまい、Samsungでの社員によるChatGPTの使用が制限されることになりました。
あらゆるソフトウェア同様、LLMにはバグがあることが多く、中にはデータの漏洩につながり得るものもあります。2023年3月、OpenAIは、ChatGPTとのユーザーの会話の一部がバグにより他のユーザーに表示されたことを明らかにしました。
最後に、こうしたツールにはコンプライアンスと規制監督要件上の懸念があります。データの取り扱われ方には一切の保証がなく、データの共有が企業をデータセキュリティ規制のコンプライアンスから逸脱させてしまう可能性があります。あらゆる外部アプリケーションと同様に、漏洩またはデータの処理方法の可視性の不在がGDPRまたはその他規制枠組みへの違反につながる可能性があります。LLMへのデータの提供も、コンプライアンスで求められるデータ監査の基準から逸脱します。
リスクを鑑み、複数の大企業が社員によるLLMの利用の禁止へと踏み切りました。
Amazonは、ChatGPTがAmazon内部のデータに類似していると思われる応答を返したことを発見した後、ChatGPTの利用を禁止しました。Appleは、機密情報の漏洩につながる可能性への懸念により、ChatGPT、およびGitHubからの自動コーディングツールであるCopilotの社内での利用の禁止を施行しました。
金融業界は、LLMの利用禁止について特に積極的に取り組んできました。JPMorgan Chaseは、国および業界のデータ規制の違反につながり得る、保護対象の金融関連情報の漏洩が起こる可能性への懸念から、社内でのChatGPTの利用について厳しい制約を設けました。Bank of America、Citigroup、Deutsche Bankなどの大手金融サービスプロバイダーが