AI SAFETY POLICYAI安全ポリシー
株式会社ヲタクリエイト(以下「当社」)は、AI技術を活用した開発およびAI導入支援を行うにあたり、法令遵守・倫理的配慮・安全管理を最優先事項と位置づけています。本ポリシーは、当社がAIを「つくる」「使う」「提供する」すべての場面における行動指針を定めるものです。
当社は、クライアントが安心してAI技術を導入・活用できるよう、データの取り扱い、著作権・知的財産、個人情報保護、セキュリティ、そしてAI倫理に関する明確な方針を本ポリシーに定め、これを遵守します。
安全性の確保
AIシステムの品質・安全性を最優先とし、人間による監督のもとで運用します。
法令・倫理の遵守
関連法令とAI倫理ガイドラインを遵守し、公正で透明なAI活用を推進します。
データの保護
クライアントのデータを厳格に管理し、目的外利用・無断学習を禁止します。
1. クライアントデータの取り扱い
当社は、AI開発・導入支援においてクライアントからお預かりするデータについて、以下の方針を厳守します。
- 学習データへの無断使用禁止 — クライアントのデータを、当社またはAIプロバイダーのモデル学習(トレーニング)に無断で使用することはありません。
- 外部API利用時の学習オプトアウト — OpenAI、Anthropic、Google等の外部AIサービスを利用する場合、データがモデル改善に利用されないよう、学習オプトアウト設定を必ず適用します。
- データの最小収集原則 — AI処理に必要な最小限のデータのみを収集・利用し、不要になったデータは速やかに削除します。
- データの保存場所の明示 — クライアントデータの保存場所(国内/海外、クラウド/オンプレミス)を事前に明示し、合意のもとで運用します。
- 機密データのローカル処理 — 機密性の高いデータについては、オンプレミス環境またはプライベートクラウド上でのローカルLLM運用をご提案します。
2. 著作権・知的財産権への対応
AI生成物に関する権利問題は、AI技術の活用において最も注意を要する領域の一つです。当社は以下の方針で対応します。
- 納品物の権利帰属を契約で明確化 — AI生成物を含む納品物の著作権・知的財産権の帰属は、契約書において明確に定めます。当社の標準契約では、納品後の成果物の権利はクライアントに帰属します。
- AI生成物の権利リスクの事前説明 — 現行の著作権法におけるAI生成物の権利に関する論点(著作物性、類似性等)について、プロジェクト開始前にクライアントへご説明します。
- 学習データのライセンス確認 — AI開発において使用するデータセットや事前学習モデルのライセンスを確認し、適法な利用を徹底します。
- 既存著作物との類似性チェック — AI生成コンテンツについて、既存著作物との類似性リスクを認識し、必要に応じて確認プロセスを実施します。
3. 個人情報保護
AI技術の活用において、個人情報の保護は最重要事項です。当社は、個人情報保護法をはじめとする関連法令を厳守し、以下の方針で対応します。
- 個人情報保護法の遵守 — AIシステムの設計・開発・運用のすべてのフェーズにおいて、個人情報の保護に関する法律(個人情報保護法)を遵守します。
- AI処理前のデータ匿名化 — 個人情報を含むデータをAI処理に使用する場合、事前に匿名化処理または仮名加工情報化を行い、個人を特定できない状態で処理します。
- プライバシー・バイ・デザイン — AIシステムの設計段階からプライバシー保護を組み込む「プライバシー・バイ・デザイン」の思想に基づき、個人情報の漏洩リスクを最小化します。
- プロファイリングへの配慮 — AIによる個人の自動的な分析・評価(プロファイリング)を行う場合、その旨を本人に通知し、不当な不利益が生じないよう配慮します。
4. セキュリティ対策
AIシステム特有のセキュリティリスクに対し、以下の対策を実施します。
- プロンプトインジェクション対策 — AIモデルへの悪意ある入力(プロンプトインジェクション)を防ぐため、入力バリデーション・サニタイズ処理を実装します。
- APIキー・認証情報の厳格管理 — AIサービスのAPIキーやアクセストークンは、環境変数やシークレットマネージャーで管理し、ソースコードへのハードコーディングを禁止します。
- 通信・データの暗号化 — AIシステムとの通信はTLS 1.2以上で暗号化し、保存データについてもAES-256等の暗号化を適用します。
- アクセス制御と監査ログ — AIシステムへのアクセスは最小権限の原則に基づき制御し、すべてのアクセスを監査ログとして記録します。
- 出力フィルタリング — AIモデルの出力に機密情報や不適切な内容が含まれないよう、出力フィルタリング機構を実装します。
5. AI倫理・ガバナンス
当社は、AI技術の社会的影響を認識し、責任あるAI活用を推進します。
5-1. 公平性・バイアスへの対応
- AIモデルの学習データや出力結果に、人種・性別・年齢等に基づく不当なバイアスが含まれていないか検証します。
- バイアスが検出された場合は、データの偏りの修正やモデルの再学習等の是正措置を講じます。
5-2. 透明性・説明可能性
- AIシステムが行う判断・推薦について、可能な限りその根拠を説明できる設計(Explainable AI)を推進します。
- AIが関与する意思決定プロセスについて、ユーザーに対し適切に情報開示を行います。
5-3. 人間による監督
- AIの判断を最終的な意思決定とせず、重要な判断には人間のレビュー・承認プロセスを組み込みます(Human-in-the-Loop)。
- AIシステムに問題が発生した場合の停止・切り替え手順を事前に策定します。
6. 準拠するガイドライン・法令
当社は、以下の法令およびガイドラインを参照し、AI技術の適正な利活用を推進します。
7. 契約における取り決め
AI開発・導入支援のご契約においては、以下の事項を契約書に明記します。
- AI生成物の権利帰属 — 納品物に含まれるAI生成部分の著作権・知的財産権の帰属先
- データの取り扱い範囲 — お預かりするデータの利用目的、保存期間、削除方法
- 使用するAIサービス — 開発に利用するAIモデル・サービスの種類と、各サービスのデータポリシー
- 責任分界 — AIの出力結果に起因するトラブル発生時の責任範囲
- 秘密保持 — プロジェクトに関するすべての情報の秘密保持義務
- 品質保証 — AI機能の精度・性能に関するSLA(サービスレベル合意)
8. 社内におけるAI利用体制
当社は、自社の開発プロセスにおいてもAI技術を積極的に活用していますが、以下のルールのもとで運用しています。
- クライアントデータの外部AI送信禁止 — クライアントから預かった機密データを、クライアントの許可なく外部AIサービスに送信することを禁止しています。
- AI出力の人間レビュー必須 — AIが生成したコード・ドキュメント・設計はすべて、担当エンジニアが品質レビューを行ったうえで納品物に反映します。
- 社内AI利用ガイドラインの策定・更新 — 社内向けのAI利用ガイドラインを策定し、法改正や技術動向に応じて定期的に更新しています。
- AIリテラシー教育 — チームメンバー全員がAIの特性・限界・リスクを理解し、適切に活用できるよう、継続的な教育を実施しています。
9. ポリシーの改定
本ポリシーは、AI技術の進展、関連法令の改正、社会情勢の変化に応じて適宜改定します。改定した場合は、当社ウェブサイトにて公表いたします。
10. お問い合わせ
本ポリシーに関するご質問、AI開発におけるデータの取り扱いに関するご相談は、下記までお問い合わせください。
株式会社ヲタクリエイト AI安全ポリシーに関する相談窓口
info@otacreate.co.jp
また、AI開発・導入支援のご相談はお問い合わせフォームからもお受けしています。
制定日:2026年3月19日 | 最終更新日:2026年3月19日
FAQよくある質問
- AI開発を依頼した場合、自社データはAIの学習に使われますか?
- いいえ、クライアントのデータを当社またはAIプロバイダーのモデル学習に使用することはありません。外部APIを利用する場合も、学習オプトアウト設定を必ず適用し、データがモデル改善に利用されない環境で開発・運用を行います。
- AIが生成したコードや文章の著作権はどうなりますか?
- 納品物の権利帰属は契約書で明確に定めます。当社の標準契約では、納品後の成果物に関する著作権・知的財産権はクライアントに帰属します。AI生成物に関する権利リスクについても事前にご説明し、契約に反映します。
- 機密データをクラウドAIに送信しても安全ですか?
- 機密性の高いデータについては、オンプレミス環境やプライベートクラウドでのローカルLLM運用をご提案します。クラウドAPIを利用する場合も、通信の暗号化、データの非保持設定、アクセス制御を徹底します。
- AI導入にあたって法令違反のリスクはありませんか?
- 当社は個人情報保護法、著作権法、不正競争防止法等の関連法令を遵守したAI開発・導入を行います。また、総務省・経済産業省の「AI事業者ガイドライン」や「AI・データの利用に関する契約ガイドライン」を参照し、法的リスクを最小化する設計を行います。
- AIの判断を鵜呑みにして大丈夫ですか?
- 当社が開発するAIシステムでは、重要な意思決定に対して人間のレビュー・承認プロセスを組み込む「Human-in-the-Loop」設計を標準としています。AIはあくまで支援ツールであり、最終判断は人間が行う前提で設計します。