ChatGPTを使っている際、「この情報は漏れたりしないだろうか」「ChatGPTの機密情報の取り扱いはどうなってるの?」と思う方もいらっしゃるのではないでしょうか。
今回はChatGPTの使用にあたって考えられるセキュリティリスクと日本政府の対応について解説していきます。
ChatGPTの機密情報漏洩の危険性
昨今、ChatGPTは日本の行政や企業で積極的に導入されています。
しかし、便利である反面、機密情報漏洩のリスクが存在することも認識しておかなければいけません。
過去にはイタリアで、ユーザーの個人情報が流出する事案が発生しました。
日本ではまだそういった事例は起きていませんが、注意が必要です。
ChatGPTで考えられるセキュリティリスク
ここでは、ChatGPTにおいて起こり得るセキュリティリスクについて解説します。
セキュリティリスクについては以下のような事例が挙げられます。
①企業の内部情報・個人情報の流出
②フィッシング詐欺への利用
③マルウェアソフト開発への利用
この3点について解説します。
①企業の内部情報・個人情報の流出
ChatGPTで企業の機密情報や個人情報を入力すると、機密情報漏洩やプライバシーの侵害につながる危険性があります。
ChatGPTは同一チャット内であれば、学習した内容をそのまま保有することができるため、何らかの形で情報が流出する可能性があります。
入力する情報には注意し、一般的な使用に留めるようにしましょう。
②フィッシング詐欺への利用
ChatGPTは高度な文章構成能力を持っています。
営業メールや記事の執筆など、正規の使用方法であればとても便利なツールですが、その能力が悪用される可能性もあります。
例えば、「明らかに外国人が作ったであろう変な日本語のメール」などは、文法がおかしいため詐欺であると気づくことができますが、ChatGPTの文章作成や校正の機能を利用することで見分けがつかなくなる可能性があります。
③マルウェアソフト開発への利用
ChatGPTはプログラミングコードの生成も行うことができます。
最近では、プログラミング初心者が1日で簡単なゲームを作ったりもできるようになっています。
この機能を悪用すれば、プログラミングの知識がない人でもマルウェアソフトを作ることができる可能性があります。
これらの危険から身を守るためには、使い手側の私たちのリテラシーが重要です。
怪しいサイトやメールは絶対に開かず、閲覧しないということを徹底しましょう。
日本政府は管理体制を構築していくとのこと
2023年7月27日、米のマイクロソフトが生成系AI事業のデータセンターを日本に設置する方針であることを発表しました。
データセンター拠点が海外に存在することで、情報漏洩への懸念も指摘されていました。
日本にデータセンター拠点が移ることによって、国内でデータのやり取りが完結するため、情報漏洩防ぎ、管理体制をより強固にすることができます。
また、今後は国会での使用もされていくようなので、より安全な環境構築が為されていくことが予想できます。
アメリカのIT大手、マイクロソフト社は近日、日本に位置する生成AI向けのデータセンターを拡張することを明らかにしました。 その一環として、アジア地域において初となる「ChatGPT」の最新版サービスの提供を日本政府に向けて行う予定で[…]
まとめ
今回はChatGPTの機密情報に関するリスクについて解説しました。
生成系AIの使用にあたっては、国や企業が情報管理体制を敷くことはもちろん、私たち1人1人がリテラシーを持って使っていくことが大切です。
入力する情報や用途には気を付けつつ、ChatGPTを使用していきましょう。