ルール作りは「3つの大原則」を押さえてから 現場で使われる「AI利用ガイドライン」にする方法

アクセスランキング
第1回では、生成AIを業務で利用する際に潜む、知的財産、情報管理、そして信用の各側面にわたる多様な法務リスクを紹介しました。そして、これらのリスクの多くは、管理の目が届かない「シャドーAI」から生まれることを指摘しました。「リスクがあるなら、禁止すべきでは?」 ―― この考えは、一見すると安全策のように思えるかもしれません。しかし、AI活用が企業競争力に直結する現代において、その選択は企業の成長機会を自ら放棄するに等しい行為です。問題の本質はAIそのものではなく、「ルールがないこと」にあります。全社統一のガイドラインなくしてAI活用を進めるのは、いわば信号のない交差点のようなもの。無用な混乱や渋滞が生じ、意図せぬ事故につながる危険すらあります。
そこで第2回となる今回は、第1回で紹介したリスクを踏まえた実効性あるAI利用ガイドラインの具体的な策定方法を解説します。この全社的な「交通整理」こそ、各部署の事情を理解し、攻めと守りのバランスを調整できる、総務の腕の見せどころです。
失敗しないガイドライン策定の「3つの大原則」
やみくもに策定を始めても、現場で使われない「形骸化したルール」が出来上がるだけです。そうならないために、まずは策定にあたって心得るべき3つの大原則を押さえましょう。
原則1:総務が旗を振る。ただし「全社横断」で進める
ガイドライン策定の旗振り役は、部署横断的な視点を持つ総務が適任です。しかし、総務だけで策定してはいけません。
法的リスクは法務部、セキュリティは情報システム部、事業への影響は各事業部、そして倫理的な側面など、AIのリスクは多岐にわたります。法務、知財、IT、各事業部門、そして経営層も巻き込んだチームを組成し、多様な視点から検討することが望ましいです。特に、AIを巡る法務リスクは複雑で変化も速いため、弁護士など外部の専門家も交えて検討することが望ましいでしょう。
原則2:「総論」と「各論」を分ける
※掲載されている情報は記事公開時点のものです。最新の情報と異なる場合があります。