2026年1月22日に施行された「人工知能の発展と信頼基盤の構築等に関する基本法」(以下、AI基本法)が施行から1ヶ月を迎えました。この法律の核心は、技術を開発した側ではなく、顧客にサービスを提供する側、すなわち「最終提供者」に責任を求めるという点にあります。
科学技術情報通信部が発表した『透明性・安全性・信頼性の確保に関するガイドラインなど7種類の告示・ガイドライン案』を見ると、これは単なる法的規制にとどまらず、顧客の信頼を得るためのサービス設計指針に近いものです。つまり、マーケティングのキャッチコピーやサービス企画、製品設計そのものが、法的審査の対象となったのです。
💡AI基本法の要点はこちら
* APIのみを使用する場合でも、顧客にサービスを提供すれば「人工知能事業者」として法的義務を負います。
* AI使用前の事前告知と、生成物に対する識別表示が必須です。利用規約だけでなく、サービスのUXにも自然に組み込む必要があります。
* 医療・金融などの機微な分野におけるサービスについては、リスク管理、人的監督、文書化の義務が追加され、1年以上の猶予期間が設けられます。
外部APIを連携してサービスを提供する場合でも、「人工知能事業者」に該当します。
AIサービスの法的責任は誰が負うのか?
AI基本法においてまず確認すべき点は、「誰が責任を負うのか」ということです。LLM(大規模言語モデル)を自ら開発せず、外部APIを連携させてサービスを提供する場合でも、最終的に顧客にサービスを提供したのであれば、「人工知能事業者」に該当し、法的義務を負うことになります。
科学技術情報通信省の「透明性確保ガイドライン」によると、AI技術開発会社(A)と、それを活用するサービス事業者(B)が分離されている場合、利用者と直接接点を持つB社に、透明性の確保などの義務が課されます。つまり、マーケティングや営業を通じて顧客とコミュニケーションを取り、サービスを提供する当社が、責任の主体となるのです。
具体的には、CRM SaaSに「AIメール要約」機能を追加した場合、基盤となるLLMの開発元ではなく、SaaS企業が顧客に対してAIの利用事実を通知し、関連情報を提供する必要があります。したがって、自社が「最終提供者」に該当するかどうかを、社内開発チームや法務チームと確認し、対応体制を整えておくことが望ましいでしょう。
透明性を確保するための「告知」と「表示」、その方法は以下の通りです。
AI基本法の透明性ガイドラインは、「AIを使用する場合はまずその旨を告知し(事前告知)、その結果がAIによるものであることが区別できるように表示する」という2つの原則に要約されます。これは単なる法的義務にとどまらず、顧客に信頼を与えるユーザー体験設計の出発点となります。
事前の告知や利用規約に盛り込めばそれで済むのでしょうか?
「事前の告知」とは、ユーザーがAIとやり取りする「前」に、その機能がAIに基づいていることを明確に認識できるようにするための措置です。これを利用規約に一行追加するだけでは、義務を果たしたとは言い難いでしょう。顧客がAI機能を利用する各接点で、自然に情報を認識できるよう、サービスフローの中に告知を組み込む必要があります。
チャットボット型のサービスであれば、会話を開始する前にポップアップや画面上部に固定されたバナーを通じて「この会話はAIと行われます」という点を明示し、顧客データの分析やコンテンツの推奨機能については、該当する機能ボタンの近くにAIアイコンやヘルプのツールチップを配置することが効果的です。サービス内のAI機能へのアクセスポイントを確認し、顧客が誤解しないよう明確な告知文を追加する作業が必要です。
成果物の表示については、外部への持ち出しも考慮する必要があります
事前の告知と同様に重要なのが、AIが生成した成果物を明確に識別できるよう「表示」することです。『AI基本法』では、ディープフェイクのように社会的リスクの高いコンテンツについては「直感的な識別表示」を義務付け、一般的な生成AIの成果物に対しても、可視的または非可視的(メタデータなど)な表示を求めています。
AI生成コンテンツの表示義務に違反した場合、最大3,000万ウォンの過料が科される可能性があります。ただし、法施行当初は、少なくとも1年以上の指導期間が設けられる予定です。
生成されたコンテンツがサービス外に出る瞬間まで企業の責任が続くため、共有やダウンロード機能がある場合は、ファイル自体に識別マークが含まれるよう技術的な対策を講じる必要があります。例えば、AIに基づいて自動生成されたマーケティング用画像であれば、ダウンロード時に画像の一角に「AI Generated」といった透かしが自動的に挿入されるように設計することができます。
| 区分 | 基本原則 | 実行例 |
|---|---|---|
| 事前通知 | ユーザーがAIとやり取りする「前」に、それがAIベースであることを明確に認識できるようにする | チャットボットとの会話を開始する前のポップアップ:「この会話はAIと行われます」・機能ボタンの横のアイコンおよびツールチップ:「AIによるおすすめ」 |
| 結果の表示 | AIが生成した成果物には、可視的または不可視的な識別マークが含まれている | 画像のダウンロード時に自動的に透かしを挿入:「AI Generated」・生成情報をテキストメタデータに含める |
AI基本法において「高影響AI」に指定されると、文書化の義務も生じます。
当社のサービスが、人の安全、基本的人権、あるいは重大な社会的・経済的利益に直接的な影響を及ぼす可能性がある場合、「高影響AI」に分類され、より一層厳格な管理の対象となります。採用審査、医療診断、信用評価など、機密性の高い分野におけるB2Bソリューションがこれに該当する可能性があります。
高影響AIと判断された場合、リスク管理体制の構築、人的監督手順の策定、そしてこれらすべてのプロセスの「文書化」が必須となります。具体的には、HRソリューションにおいてAIが応募者の合否を推奨したとしても、最終決定には人が関与し、そのプロセスを記録として残さなければなりません。
幸いなことに、政府は「高影響AI」の指定後、少なくとも1年以上の規制猶予期間を設ける予定であり、判断が曖昧な企業のために「人工知能基本法サポートデスク」を運営しています。ここを通じて、韓国情報通信技術協会(TTA)や情報通信政策研究院(KISDI)といった専門機関のコンサルティングを受けることができるため、サービスのリスクを客観的に診断し、必要な準備を始めることをお勧めします。

B2B企業にとって、AI基本法は信頼を築く好機となり得ます。
AI基本法は、単に遵守すべき規制ではなく、顧客から信頼されるAIサービスを実現するための明確なガイドラインです。同法が求める透明性(告知・表示)と責任(文書化)は、顧客が安心して当社のサービスを利用できるようにするための仕組みであり、これは長期的には企業の競争力となります。
法律が施行される前の今こそ、システムを整え、顧客の信頼を先取りできる絶好の機会です。複雑な法律条項に戸惑っているなら、実務者がすぐに活用できるチェックリストで確認してみてください。
📌 AI基本法への対応に向けた実務チェックリスト10
1. 責任主体の確認
当社のサービスがAI技術を活用してエンドユーザーに価値を提供する「最終提供者」に該当するかどうか、法務・開発チームと検討しましたか?
2. 対応体制の整備
AIに関連する法的課題や顧客からの問い合わせが発生した場合、対応する担当者と社内手順を定めているか?
3. 事前告知の場所の確認
顧客がAI機能を利用するすべての入口(ボタン、ポップアップ、ツールチップなど)に、それがAIベースであることを示す表示を設置していますか?
4. 告知文言の明確化
「この会話はAIと行われます」、「AIによるおすすめ」など、顧客が誤解しないような直感的で明確な告知文言を使用していますか?
5. 規約およびポリシーの反映
利用規約やプライバシーポリシーにおいて、AIの活用目的、範囲、生成物の権利関係などを具体的に明記していますか?
6. 視覚的な表示の適用
AIが生成した画像、動画、テキストに、「AI生成」「AI Generated」などの透かしやテキストを挿入し、識別できるようにしていますか?
7. 外部へ持ち出す際は表示を保持すること
ユーザーがコンテンツをダウンロードしたり共有したりする際にも、識別情報(透かし、メタデータなど)が自動的に含まれ、保持されるように設計されていますか?
8. 非視覚的表示の実装
デザイン上、視覚的な表示が困難な場合、ファイルのメタデータなどにAI生成情報を記録する技術的な措置を講じているか?
9. 高影響AIの診断
当社のサービスが、採用、信用評価、医療などの「ハイインパクトAI」に該当する可能性がないか確認し、必要に応じて専門機関に相談しましたか?
10. 監督および文書化体制
高リスクAIと判定された場合、人的監督の手順を整備し、リスク管理および監督の全プロセスを文書化する準備は整っていますか?
よくある質問
Q1. AI基本法はいつから施行されますか?
AI基本法は2024年8月に公布され、2026年2月14日から本格的に施行されました。ただし、高影響AIに指定された場合、最低1年以上の規制猶予期間が設けられます。
Q2. 当社が「AIプロバイダー」に該当するかどうか、どのように確認すればよいですか?
AI技術を活用して最終顧客に直接価値を提供するサービスであれば、「AI提供者」に該当する可能性が高いです。単に外部のAI APIを使用する場合でも、それを自社のサービスに統合して顧客に提供するのであれば、責任主体となる可能性があります。判断が難しい場合は、「人工知能基本法サポートデスク」を通じて専門機関の助言を受けることができます。
Q3. AI生成コンテンツには必ず透かしを入れる必要がありますか?
法律では「AI生成物であることを識別できる措置」が求められており、これには可視的な表示(透かしなど)と不可視的な表示(メタデータなど)の両方が含まれます。デザイン上の理由で透かしを入れることが難しい場合は、ファイルのメタデータに生成情報を記録する方法でも対応可能です。
Q4. 「高影響AI」とは何ですか。また、どのような追加の義務がありますか。
高影響AIとは、人の安全、基本的人権、および重大な社会・経済的利益に直接的な影響を及ぼす可能性のあるAIを指します。採用審査、信用評価、医療診断などがその代表例です。高影響AIに指定されると、リスク管理体制の構築、人的監督手順の策定、および全プロセスの文書化が義務付けられます。
Q5. AI基本法に違反した場合、どのような処罰を受けますか?
現在のAI基本法は、直接的な罰則規定よりも、透明性の確保と自主規制を中心に設計されています。ただし、告知義務や表示義務に違反した場合、将来的に関連法令の改正や消費者保護関連法に基づき制裁を受ける可能性があり、何よりも顧客の信頼を失い、ブランドイメージに打撃を与える恐れがあります。






