2023年5月2日、ブルームバーグはサムスン電子が従業員に対してOpenAIのChatGPTを含む生成AIの使用を禁止する新ポリシーを策定したと報道しました。
参考:Bloomberg
機密データのアップロードによるリークが原因
2023年5月1日、同社は最大級の部門のスタッフに文書で通知した内容によると、サムスンのエンジニアが誤って社内ソースコードをChatGPTにアップロードし、リークさせる事態が発生しました。
外部サーバーに保存されるデータが回収・削除が困難で他のユーザーに開示される恐れがあると懸念しています。具体的な情報についてはサムスンはコメントを控えています。
新ポリシーの内容
新たなポリシーでは、社有のコンピューターやタブレット、携帯電話、社内ネットワークでの生成AIの使用が禁止されています。ただし、消費者向けに販売されているAndroid OS搭載スマートフォンやWindows PCなどのデバイスは対象外です。
サムスンは個人所有の端末でChatGPTなどを利用する従業員に対し、会社関連の情報や個人データを入力しないよう要請しており、遵守しない場合は解雇も検討されると警告しています。
ChatGPTの懸念が広がる背景
ChatGPTは公開以降、ヨーロッパを中心に個人データ・機密データ保護の観点から懸念が広がっています。2023年2月にはウォール街の銀行、JPモルガン・チェースやバンク・オブ・アメリカ、シティグループなどがChatGPTの使用を制限または禁止しました。また、イタリアは2023年3月末に一度ChatGPTの使用を禁止し、その後4月28日に解除してしています。
このように、ChatGPTのデータ保護に関する懸念は世界的に広がっており、各企業や国が対策を講じています。サムスン電子の生成AI使用禁止は、この懸念への対応策の一例と言えるでしょう。今後も各企業や国は、データ保護の観点からAI技術の使用に対して注意を払い続けることが求められるでしょう。