生成AI利用規定
生成AI利用規定のテキスト
生成AI利用規程
第1章 総則
第1条(目的)
本規程は、ChatGPT等の生成AIツール(以下「生成AI」という)の業務利用に関する基本ルールを定め、情報漏洩やコンプライアンス違反等のリスクを未然に防止し、安全かつ効果的な活用を目的とする。
第2条(適用範囲)
本規程は、当社の全従業員(正社員、契約社員、派遣社員を含む)に適用する。 対象ツールは、利用が許可されたChatGPT、Microsoft Copilotなど、同等機能を持つ生成AIとする。
第2章 生成AIの利用に関する基本方針
第3条(利用目的の制限および利用可能なツール)
1. 生成AIの利用は、業務上必要かつ生産性向上に資する目的に限定する。具体的な活用シーンは、マーケティング施策のたたき台作成、カスタマー対応用のFAQ案の草案、議事録要約など、具体的な活用シーンを記載することで、現場担当者にも理解しやすい内容とする。
2. 利用可能なツールは、情報システム部門が承認し、社内規程に準拠したセキュリティ要件を満たすと判断されたツールに限定する。
3. 無料版などの個人アカウントでの業務利用は原則禁止とする。
第4条(禁止事項)
以下の行為を禁止する。禁止事項の明記は、情報漏洩や法的リスクの回避に直結する。
1. 個人情報や社外秘の情報(機密情報)の入力。これには、顧客データ、未公開の経営資料、契約内容、開発中の仕様、取引先情報、個人を特定できる情報、プライバシーに関する情報、人事情報等が含まれる。
2. 無許可でのAPI利用やブラウザ拡張機能の導入、またはChatGPTによる業務自動化など高度な利用は、申請制とする。
3. 生成AIが出力した情報の無断公開・無断使用の禁止(生成物の著作権リスクを含む)。
4. 著作権保護期間内にある著作物の創作性の認められる表現そのもの、または他人の著作物と同一または類似する生成物を生成する目的と受け取られるような内容をプロンプトとして入力する行為。
5. 違法行為、または違法行為を促進・助長するコンテンツの作成(犯罪行為、性的暴力等)。
6. 組織内のシステム等のユーザーID・パスワード・アクセスキーなどの認証情報の入力。
第3章 生成物の取り扱いと責任範囲
第5条(生成物の取り扱い)
1. 生成AIの出力内容は、あくまで参考情報(一次情報)とみなし、そのまま鵜呑みにして業務に使うことを禁止する。
2. 利用者は、生成物を利用する前に、必ず人の目による確認・校正を行うものとする。特に、以下の点について確認を怠らないこと。
① 出力内容の正確性や法的リスク(著作権、商標権、名誉毀損など)バイアスが含まれる可能性があるため、厳重に確認する。
② 引用元不明な記述については、必ず裏取りを行う。
3. 生成AIの出力結果に対する責任の所在は、最終的な利用者が持つことを明確にする。
4. コンテンツとして社外に公開する場合は、上長レビューを必須とする。また、生成AIを用いて作成したこと、および人間の創作的寄与(加筆・修正)があったことを明記することが推奨される。
第4章 管理・運用・教育体制
第6条(アカウント、ログ、セキュリティ管理方針)
1. 生成AIツールの利用時には、プロンプトや出力内容のログがツール側に保存されている可能性があることを認識したうえで利用する。
2. 統合ミドルウェアなどのバックエンドで実行されているソフトウェアは、必要最小限の権限で実行し、被害を軽減できるようにする。
3. 情報システム部門は、利用履歴(プロンプトログ)の定期的な確認および監査を実施できる体制を整える。
4. API利用など、ログを外部に保存しない仕組みを使う場合の運用方法についても明確に定めておく。
第7条(教育・研修の義務)
1. 規程を社内に定着させるため、ルールと教育はセットで考えるのが継続的なAI活用のカギとなる。
2. 初回導入時にeラーニングや対面研修を必須化するなど、利用者に生成AIのリテラシー教育を定期的に実施する。
3. 教育・研修を通じて、「なぜ規程が必要なのか」という情報漏洩リスクや業務トラブルのリスクの背景を具体例で説明し、利用者の意識を醸成する。
第8条(規程の見直しと違反時の対応)
1. 本規程は、生成AIの技術進化や法制度、業務環境の変化にあわせて、定期的な見直しと改善を行う前提で運用する。
2. 本規程に違反した場合、社内の懲戒規定に基づき、必要な措置を講じるものとする