ChatGPT活用で「法律違反の可能性もある」 個人情報保護委員会が注意喚起

月刊総務 編集部
最終更新日:
2023年06月05日

政府の個人情報保護委員会(東京都千代田区)は6月2日、個人情報取り扱い事業者や一般の利用者、行政機関等に対して、ChatGPTを導入、利用する際に気を付けるべき点などを取りまとめ、注意喚起を行った。

他社管理下の生成AIに個人情報・機密情報を入力する場合は「機械学習機能をオフにする」など対処を

  • 生成AI個人情報を入力する場合、個人情報の利用目的に合っているかどうかを確認する。また、利用目的のために必要としている範囲内の個人情報かどうかも十分に確認する。
  • 事前に本人の同意を得ないで生成AIに個人データを入力し、個人データが生成AIの機械学習に使われた場合、個人情報保護法の規定に違反する可能性がある。個人データを入力する場合は、機械学習機能をオフにして、生成AIを活用する。
  • 生成AIに個人情報を入力すると、生成AIの機械学習に利用されることがある。さらに、そのほかの情報と個人情報が統計的に結び付くことで、不正確な情報が生成AIから利用者への回答として提示されるリスクがあることを認識する。
  • 生成AIには、確率的な相関関係に基づいて自然な文章が利用者に対する回答として提示される特徴がある。しかし、こうして作られた文章はあくまで確率的な相関関係がベースとなっているため、必ずしも正確なものではなく、入力に対する回答に不正確な内容が含まれることがあることを認識する。
  • 生成AIサービスの一般利用者は、オープンAIの利用規約やプライバシーポリシーを十分に確認する。

ChatGPTを運営する米OpenAI社には行政指導

個人情報保護委員会は、ChatGPTを運営する米OpenAI社に対しても、病歴などの重要な個人情報の取得方法に懸念があるとして、「注意喚起」の行政指導を行ったと発表した。病歴などの「要配慮個人情報」をAIの学習データに利用しないよう対応を求めた。現時点では違反は確認されていないため、行政指導の中でも「注意喚起」の位置付けとなった。

個人情報保護法は、利用目的が明記されていれば、本人の同意がなくても個人情報を収集することができる。一方で、病歴や犯罪歴といった「要配慮個人情報」は取得段階で本人の同意が必要とされている。

ChatGPTはインターネットの情報や利用者が打ち込んだ情報等の内容を大量に取得・学習しており、個人情報保護委員会は利用者への回答に表示される可能性があることに懸念を示した。


ChatGPTを巡っては、利便性の高さから国内でも利用が急速に拡大している反面、5月に広島で開かれた主要7か国首脳会議(G7広島サミット)でもAIのリスクとして、要配慮個人情報の取り扱いが議論となっている。個人情報保護員委員会は「個人の権利や利益が保護される生成AIサービスの開発・利用状況を引き続き注視していく予定で、今後、追加の注意喚起等を実施する可能性もある」としている。

当メディアでもChatGPTを活用する際の組織向けガイドラインアサヒグループジャパンKDDIの生成AIを巡る社内体制構築の動きなども紹介している。

発表の詳細はこちらで確認できる。

※掲載されている情報は記事公開時点のものです。最新の情報と異なる場合があります。

著者プロフィール


月刊総務 編集部

パンデミック、働き方の変化、情報技術への対応など、今、総務部門には戦略的な視点が求められています。「月刊総務オンライン」は、そんな総務部門の方々に向けて、実務情報や組織運営に役立つ情報の提供を中心にさまざまなサービスを展開するプラットフォームです。


特別企画、サービス