ChatGPTをビジネスで利用するには② セキュリティ編
今回のブログではChatGPTのセキュリティ面での考慮事項について記載していきます。(基本的なChatGPTの仕組みについては前回のブログを参照して下さい)
ChatGPTを利用するには主に以下の2つの方法があります。
■ChatGPT
■API
ChatGPTはインターネットで公開されているChat形式のWebサービスです。それに対して、APIはLLMを利用するアプリケーションを開発する際に利用するものです。次のブログで紹介する社内ナレッジを利用する場合にはAPIを使用した方がよいと思います。
ビジネスではChatGPTを使うケースとAPIを使うケースでのセキュリティ面での違いを意識する必要があります。
目次[非表示]
ChatGPTはオプトアウトがデフォルトではない
入力データは学習データとして使用される可能性あり
個人情報や機密情報を入力した場合、ChatGPTがこの入力情報を学習し、回答が作成される可能性がある状態がデフォルトです。
オプトアウトを設定することで、入力データを学習データとして使用することを拒否できます。現在ではSettingsから設定ができます。(以前は申請のみだったので、簡単に設定できるように変更されました)
ただし、監視目的のため30日間入力情報はクラウド側に保存されます。こういった状況を理解し、利用する必要があります。
ビジネスで利用するには、オプトアウト設定を各個人がきちんと行っているのかを組織でチェックする必要があります。
また、万が一、ChatGPT側で情報漏洩が発生した場合、そのことを影響ある関係者に伝える義務があります。(2023年4月個人情報保護法改訂)そのためには、どういった情報を入力したのか管理する仕組みが必要です。
上記のことをしっかり管理できる仕組み作りができれば、利用しても問題はありませんが、仕組み作りが困難な場合は利用すべきではありません。
利用を許可している企業では、「個人情報や機密情報を入力しない」ということを条件として利用を認めているケースがほとんどです。しかし、約束を守らない社員が発覚し利用禁止に変更したというケースもあります。
ちなみにマイクロソフトは入力データを組織外に出さない仕様にしている Bing Chat Enterpriseを7月18日にプレビュー版で発表しているので、気軽にビジネス利用したいのであれば、いずれはこちらを使うとよいかと思います。(正式リリース時期は未定)
APIはオプトアウトがデフォルト
入力データは学習されないため、社内利用向き
Open AI 社、マイクロソフト社のどちらのAPIも、入力されたデータは一般利用されているChatGPTの学習データとしては使用されません。そのため、社内利用ではAPI経由が望ましいと言えます。
また、APIであればプラグインや他サービスとの連携により機能を充実させることができます。
しかし、Open AI社のAPIは認証キーを使って認証する仕組みしかありません。つまり、このキーが盗まれれば誰でもこのAPIにアクセス可能ということです。共通のパスワードでアクセスするような仕組みです。
Azure OpenAI Serivce(Microsoft提供のGPT API)では認証キーまたはAzure ADを指定することができます。Azure ADを使えば誰にどの権利を割り当てるのかを細かく指定することができます。
SLAやセキュリティの観点からみると企業向けのクラウドサービス提供に慣れているマイクロソフトのAPIの方が一歩進んでいます。ただしOpenAI社もこのことは認識しており、ビジネス向けに整備した サービスの提供を検討しています。
クロールで収集した学習データに著作権確認は不要?
GPTはWebクロールで学習データを収集しています。クロールとはインターネット上のWebサイトから自動的にクローラーと呼ばれるソフトウェアがページ内容を収集/保存する技術です。
情報の取り扱いに関しては国や米国であれば州によって考え方が異なるため、法規制面も確認しておく必要があります。
ちなみに米国では利用許可なく学習データとして使われたとして、訴訟がいくつか起こっているとのことです。(参考記事はこちら)
日本では「著作物に表現された思想または感情の享受を目的としない利用行為は原則として著作権者の許可なく利用することが可能」となっています。ただし、「必要と認められる限度」を超える場合や「著作権者 の利益を不当に害することとなる場合」は、この規定の 対象とはならないとしています。
不当な例として情報解析用に販売されているデータベースの著作物をAI学習目的 で複製する場合が挙げられています。
日本の著作権とAIの関係についてもう少し詳しく知りたい方は文化庁のこちらの資料を参照して下さい。
日本も今後の状況や世界情勢によって法が変更される可能性があるため、ウォッチが必要ですが、現状は学習データに関しては問題ないという状況です。
ちなみに現状、学習データは日本語サイトのものが少ないそうで、政府がOpen AIに対して、日本語サイトのものを増やすように要請したと聞いています。次期バージョンではネットワンパートナーズについての質問に答えてくれそうですね!(このことに関しては前回のブログを参照)
生成物の著作権は?
OpenAIの利用規約では、生成された結果を使用した文章やコンテンツは作成者に帰属しているとなっていますが、この情報のみ判断するのは危険です。
日本では、既存の著作権物に類似していると判断されれば著作権違反 となります。 基本的に生成物に関することは既存の著作権の考え方と同じとのことです。(文化庁資料参照)
学習データが世界中のものから生成されている状況で、各国で学習データに対する考え方がまだ定まっていない段階では、著作権に配慮しつつ使うべきかと思います。
海外の状況をまとめているサイトがあるので興味がある方はこちらを参照して下さい。
おまけ)脳への影響
セキュリティとは関係ありませんが、利用上の規制を考える1つの要素となると思うので 脳への影響を少しお話したいと思います。
脳は刺激を受けることで、脳内のネットワークが強化されていきます。逆に使わなくなると弱体化します。学生の頃に解けていた数式が今は解けない、というのはまさにネットワークが弱体化してリンクが切れたからです。。。
使わないものは失われます。。。
もう少し専門的に言うと「シナプスの可塑性」機能の話になるのですが、興味がある方はこちらの記事を参照して下さい。分かりやすく解説されています。
ChatGPTを使うと回答の精査に頭を使いますが、文章や回答を作成することは考えません。となると、創造するという能力がいずれは失われることになります。
脳の前頭前野(記憶、推測、創造)の働きは20代もしくは30代から下り坂とされており、使うことで予防できるとされています。ちなみに使い過ぎも脳疲労を起こし低下の原因となるため、何事もほどほどにしておくことが重要です。
このあたりも踏まえて、自分は生成AIをどこまで使うべきなのか、も考えた方がいいと思いました。東北大加齢医学研究所の榊浩平助教へのインタービュー記事でもChatGPT使用時には脳をあまり使ってないとの話がありました。
子供に対しては文科省が生成AI利用に対する暫定的ガイドラインを出していますが、大人も 自分なりのガイドラインを決めた方がよいかと思っています。
ChatGPTセキュリティ考慮事項のまとめ
今回はセキュリティの観点を中心に利用についての考慮事項について記載しました。日本はデジタル化が遅れているという状況ですが、それに対して日本政府は迅速に対応しようという姿勢が最近見受けられます。
生成AIのガイドライン発表や、いずれブログに記載する予定のWeb3に関係するステーブルコイン対する法整備なども、これまでにないスピード感があるように思います。他の国と比較し、新しい技術が使いやすい状況かと思うので、この状況を上手くビジネスチャンスに生かせるようにしていきたいですね!
次回は③社内ナレッジを利用するには?について記載します。社内ナレッジを学習データとして追加することができれば「より便利になりそう」ということは思いつくと思います。ちなみに現状できなくはないけど、限界があるとだけ言っておきます。なので、まだまだこのジャンルは進化の余地があるとも言えます。
次回もお楽しみに!
関連ブログ