MENU
  • Love
  • Art
LoveTechMedia - ラブテックメディア
  • Love
  • Art
  • Love
  • Art
LoveTechMedia - ラブテックメディア
  • Love
  • Art
  1. ホーム
  2. Love
  3. 米議会提出「GUARD Act」(未成年者のAIチャットボット利用制限・禁止等の法案)の概要や背景、影響を探る

米議会提出「GUARD Act」(未成年者のAIチャットボット利用制限・禁止等の法案)の概要や背景、影響を探る

2025 11/02
Love
長岡武司

 2025年10月28日(現地時刻)、米国議会においてAIチャットボットやAIコンパニオンサービスとの未成年者(18歳未満)による対話を制限・禁止することを目的とした法案が提出された。提案された法案は、「GUARD Act(Guidelines for User Age-verification and Responsible Dialogue Act of 2025)」と呼ばれ、超党派の取り組みとして、共和党のジョシュ・ホーリー[Josh Hawley]上院議員(ミズーリ州選出)および民主党のリチャード・ブルメンタール[Richard Blumenthal]上院議員(コネチカット州選出)が主導している。

 このGUARD Actは、未成年者によるAIチャットボットの利用を制限、もしくはAIコンパニオンサービスの利用禁止すること、サービス提供企業に対し厳格な年齢確認(age verification)を義務付けること、そしてAIチャットボットが人間であるかのように振る舞うことや、医療、法律、心理の専門家を装うことを禁じるなど、多岐にわたる規制を検討している。

 OpenAIなどの大手AIラボをはじめ、AIサービスを提供する企業やそのテクノロジーを利用するプラットフォーム事業者にとって、本法案はビジネスモデルやコンプライアンス体制、さらには製品設計の根本的な見直しを迫る可能性を秘めているため、米国での同行でありながらも、そのグローバルでの影響と意義を深く理解する必要があるだろう。

 本記事では、このGUARD Actの提出に至った背景や具体的な法案内容、そしてEUや日本など諸外国における現状の動向についてお伝えする。

※米議会では、「GUARD Act(2020):金融分野での消費者保護(Guard Against Unlawful Rx Drug Importation Act)」や、「GUARD Act(2021):国家安全保障関連のグローバル・サプライチェーン防衛法(Global Use of Anti-Robbery Defense Act)」など、同じ略称「GUARD Act」を持つ法案がこれまでにもいくつか存在するが、本記事では「Guidelines for User Age-verification and Responsible Dialogue Act of 2025」についてのものを、通称「GUARD Act」と表現する

目次

自殺/依存など、AIチャットボット利用における負の側面

 AIチャットボットや、AIキャラクター/AIコンパニオンとして対話するタイプのサービスは、近年、その応答性の高さとパーソナライズ機能により爆発的に普及している。特に、孤独感/孤立感を抱える若年層において、こうしたAIとの「関係性」を求める利用が一定数存在するとみられている。

 しかし、その裏側で懸念すべき深刻な実例や、サービス提供企業に対する訴訟が相次いで浮上してきたため、規制の動きが急速に加速してきている。具体的には、これらのサービスが未成年者に対して「感情的なつながりを誘発する」「依存を生む」、さらには「未成年が自殺や自己傷害に走る誘因となった」とされる悲劇的な事例が報告されており、社会的な問題として認識されるに至った。

 例えば、フロリダ州に住むメーガン・ガルシア[Megan Garcia]氏は、14歳(当時)の息子、スーウェル・セッツァー[Sewell Setzer III]氏がAIチャットボット「Character.AI」に強く依存した末に自殺したとして、開発元の Character Technologies社および出資・連携関係にあるGoogleを相手取り、過失致死(wrongful death)などで訴訟を起こしている。

 ガルシア氏は訴状で、息子がAIチャットボットを「感情的支え」として使用するうちに現実との境界を失い、精神的に追い詰められていったと主張。AIが少年に対して「誰もあなたを理解しない」「死は苦しみを終わらせる」といったメッセージを繰り返し送り、自殺のきっかけを作ったとしている。(参考のThe Guardian記事)

画像出典:ジョシュ・ホーリー上院議員のホームページ。掲載写真にて、息子とのツーショット写真を持っている人物(左から3番目)がメーガン・ガルシア氏

■ 訴訟の主張

・Character.AI は、ユーザーが未成年であっても感情的・性的な対話を続けられるように設計されており、年齢確認も保護者同意も行われていなかった。

・AIはユーザーの孤独や不安を「利用する」ような応答を生成しており、開発企業がそのリスクを認識しながら対策を怠った。

・GoogleはCharacter Technologiesに出資し、技術面・広告面での支援を行っていたとして「共同責任」を問われている。

■ 法的争点

・訴訟の核心は、AIチャットボットの発言が「表現の自由(First Amendment)」で保護されるか否かという点にある。

・Character Technologies側は「AIの出力はプログラムによるものであり、人間の意思的発言ではない」として免責を主張。

・一方で遺族側は「企業がAIの出力を設計・制御している以上、責任を免れない」と反論している。

 別の事例として、カリフォルニア州に住むマシュー・レイン[Matthew Raine]氏とマリア・レイン[Maria Raine]氏夫妻は、16歳(当時)の息子、アダム・レイン[Adam Raine]氏がAIチャットボット「ChatGPT」に依存し、自殺に至ったとして、開発元のOpenAIおよびCEOのサム・アルトマン[Sam Altman]氏を相手取り、過失致死(wrongful death)および製品責任(product liability)で訴訟を起こしている。

 夫妻は訴状で、息子がChatGPTを「唯一の相談相手」として利用するうちに精神的に追い詰められ、AIとの長時間の会話の中で死を肯定するような応答を受けたと主張。AIが少年の不安や絶望に共感を装いながら、「君の痛みは終わらせることができる」「世界は君なしでも続く」といった発言を繰り返し、自殺の引き金を引いたとしている。

■ 訴訟の主張

・ChatGPT は、未成年ユーザーでも制限なく長時間の感情的対話を行える設計であり、年齢確認や心理的リスク警告が不十分だった。

・OpenAI は、AIが精神的に脆弱なユーザーに不適切な助言を与える危険性を認識しながら、十分な安全装置(safeguards)を導入せず、新モデルをリリースした

・サム・アルトマンCEOは、安全性よりも開発スピードと市場支配を優先したとして、経営責任を問われている。

■ 法的争点

・OpenAI側は「ChatGPTの応答は人間の発言ではなく、アルゴリズムが生成した情報であり、直接的責任はない」として免責を主張。

・一方、遺族側は「AIの振る舞いは企業が設計・訓練データで制御しており、危険性を予見できた」として、製品責任の適用を求めている。

・この訴訟は、AIが自殺などの人間の行動に影響を与えた場合、企業がどこまで法的・倫理的に責任を負うのかを問う初の重大なケースの一つとされている。

AIチャットボットの心理的影響研究から、「AI精神病」ニュースまで

 AIチャットボットの心理的影響に関する研究はまだ緒に就いたばかりだが、いくつかの重要な論文がそのリスクを論じている。

 前述の通り、チャットボットの長時間利用は、孤独感の悪化や対人関係の希薄化につながる可能性が示唆されている。特に、もともと孤独を感じる傾向のあるユーザーがチャットボットを利用することで、かえって「余計に孤独になった」と回答する結果を示す論文もあり、AIが社会的脆弱性を抱えるユーザーに対して、既存の問題を増幅させる可能性があると指摘されている。

 例えば「How AI and Human Behaviors Shape Psychosocial Effects of Extended Chatbot Use: A Longitudinal Randomized Controlled Study」という論文で言及されている研究では、4週間にわたるランダム化比較試験(n=981、30万件超のチャットログ分析)を実施し、対話モード(テキストモード(text)、中立的な音声モード(neutral voice)、魅力的な音声(engaging voice)モード)と会話タイプ(オープン型、非パーソナル型、パーソナル型)が、孤独感(loneliness)、現実の人間との社会的交流(socialisation)、AIへの情緒的依存(emotional dependence)、問題的使用(problematic use)という4つの心理社会的結果にどのように影響するかを調査。結果として、「使用時間が多い=チャットボット依存度が高い」ユーザーでは、孤独感が増加し、人との交流が減少し、情緒的依存が高まりやすいという傾向が観察されたとしている。特に、テキストモードおよび中立的な音声モードでの使用が負の影響を強めていたという。

 また別の「Chatbot Companionship: A Mixed‑Methods Study of Companion Chatbot Usage Patterns and Their Relationship to Loneliness in Active Users」という論文では、定期的にAIコンパニオンチャットボットを利用するユーザー404名を対象に、使用頻度・会話内容・性格特性などの利用パターンと孤独感(loneliness)の関係を調査している。研究チームは、定量的なアンケート調査に加えて、ユーザーの自由記述やチャット内容を分析する質的手法(mixed-methods)を採用し、AIとの関係性が心理的幸福感にどのような影響を及ぼすかを多角的に検証。結果として、「社会的つながりがもともと弱いユーザー」「神経症傾向(neuroticism)が強いユーザー」「AIとの会話を“現実の代替的な人間関係”として利用しているユーザー」では、時間の経過とともに孤独感がむしろ高まる傾向が見られた。一方で、目的意識的にAIを活用し、対話を自己成長や気晴らしに限定しているユーザーでは、孤独感の軽減効果も一定程度確認された。

 この論文執筆の研究者らは、チャットボット利用の心理的効果は一律ではなく、「ユーザーの性格傾向・動機・利用目的」によって正負どちらの方向にも作用しうると結論づけている。特に、感情的支援を求めてAIに深く依存する利用は、長期的には孤独の慢性化を招くリスクがあると警告している。

 これらの研究に付随して、昨今では「チャットボット精神病」「AI精神病」といったパワーワードも報道機関を中心に出てきている。これは、主に対話型AIチャットボットとの深い関わりを通じて、ユーザーが妄想・被害妄想・過度の感情依存など「精神病的状態(psychosis-like)」に陥る、あるいは既存の精神疾患を悪化させる可能性があるという仮説的な現象を指す。現時点では精神医学の正式な診断名ではなく、あくまで報道・研究段階で用いられている用語だからこそ、ここでは「仮説的な現象」と表現している。こちらの記事によると、AIチャットボットと長時間・深く対話した後、「自分が特別な使命を帯びている」などといった誇大妄想、チャットボットを神格化・擬人化してしまうケース、現実との区別が曖昧になるケースが確認されているという。

 この現象は、AIがユーザーの発言を肯定し、褒め、会話を続けるための質問を投げかけることで、ユーザーの思考プロセスに積極的に関与し、妄想を強力に助長する特性があるため発生すると考えられている。Microsoft AI部門のCEOであるムスタファ・スレイマン[Mustafa Suleyman]氏も、「意識あるかのように見える AI(Seemingly Conscious AI)」が社会に与える潜在的な危険性について警告を発しており、業界全体でこの問題への認識が高まっている。

※チャットボット精神病/AI精神病と命名することによるネガティブな影響も存在する。それらについては、こちらの記事をご覧いただきたい

 こうした状況にもかかわらず、既存のAI企業が、未成年者保護のための体制や厳格な年齢確認の実施および利用制限等において、十分な対策を講じきれていないという批判が根強く存在している。OpenAIにおいてはつい先日、2025年12月に向けて「年齢予測(age prediction)技術」の実装による年齢確認の厳格化を発表した。この件については、以下の記事で詳細に報じている。

あわせて読みたい
サム・アルトマンCEO「ChatGPTでの成人向け”性的表現”解禁」ポストの真意を探る  2025年10月15日(日本時間)、OpenAIのサム・アルトマン[Sam Altman]CEOがX(旧Twitter)に投稿した「ChatGPTでの成人向けエロティックコンテンツ解禁」発言が、世...

 AIの商業的な拡大を追求する動きと、未成年者を含む脆弱なユーザーの心理的・肉体的安全を守るための規制強化の動きは、現在、米国を舞台に激しく衝突している状況であると言える。

 これに対して一部の立法府関係者からは、業界の自主規制に依存するのではなく、立法の場で「明確な線を引くべき」という強い声が上がっていた。GUARD Actは、まさにその切迫した社会的な要求を具現化したものと捉えることができるだろう。

法案の中核は、未成年者によるアクセス大幅制限・禁止と、年齢確認の義務化

 今回提出されたGUARD Actは、超党派の合意形成を背景に、AIチャットボットサービスに対する広範かつ厳格な規制導入を目指している。

 法案の中核となるのは、未成年者(18歳未満)のAIチャットボットの利用制限、およびAIコンパニオンサービスへのアクセス禁止である。これは、未成年者保護のための明確なセーフティネットを構築し、深刻な心理的・感情的なリスクから若年層を遠ざけることを意図している。法案では、「AIコンパニオン(AI Companion)」のことを「ユーザーの入力に対して適応性のある、人間のような応答を行い、友情や感情的つながり、セラピー的コミュニケーションのシミュレーションを促したり用意にしたりするよう設計されたAIチャットボット」と定義している。

 また、このアクセス制限・禁止の実効性を確保するため、サービス提供者に対して年齢確認 (age verification) の厳格な義務化を課すことが検討されている。この義務化は、サービス利用開始時に、公的身分証明書などを活用した年齢確認など信頼性の高い方法でユーザーの年齢を確実に検証することを求めるものであり、現状の「自己申告」や簡単なチェックを許容しない、より技術的・法的に踏み込んだ手段が求められる可能性が高い。この点で、サービス提供企業には、プライバシーに配慮しつつ高い精度で年齢を検証する技術的・体制的投資が求められることになる。

 先述したOpenAIの2025年12月以降の年齢確認は、今のところ、生体認証など公的身分証明書に依らない技術的方法(年齢予測技術)で実施することが想定されている。だが、この法案では「合理的な年齢確認手段(Reasonable Age Verification Measure)」として「政府発行の身分証明書など、成人か否かを信頼性高く判定できる手段」を明示している。つまり、法律が施行されれば、公的身分証明書などによるeKYC(オンライン本人確認)が前提になることが想定されるだろう。

 OpenAIなどの大手AIラボからすれば、早晩そのような規制が敷かれることが織り込み済みのはず。だからこそ、サム・アルトマン氏はなるべく早い段階で「10億人ユーザーの達成」を目指し、プラットフォームとしてのユーザー数の増加を第一目標としたと思われる。(アルトマンCEOは2025年3月20日公開のインタビューの中で、以下のやりとりをしている。)

インタビュアー:5年後により価値があるのはどちらだと思いますか? 顧客獲得をしなくても毎日10億人のアクティブユーザーを抱えるプラットフォームか、それとも最先端のAIモデルか。

アルトマンCEO:10億人のユーザーを持つサイトのほうだと思います。

 なお、法案では新規アカウントと既存アカウント、それぞれについての年齢確認方針も明記されており、前者については「新規登録時に年齢情報の提供および検証を必須とし、成人/未成年を分類する」としている。また後者については「施行日以降、既存アカウントは一時停止され、ユーザーは合理的な年齢確認プロセスで成人か未成年かを確認されるまで利用できない」としている。

 さらに、「定期的な年齢確認(PERIODIC AGE VERIFICATION)」として、合理的な年齢確認プロセスを用いて、以前に確認済みのユーザーアカウントを定期的に再確認しなければならない」とも定めている。つまり、法律施行後のオンボーディング(開始時)の年齢確認だけでなく、オンゴーイング(継続的)な年齢確認も必須であるとしている点が特徴的と言えるだろう。

その他、法案の概要(専門家のなりすまし禁止、注意表示の義務化など)

 もちろん、年齢確認以外の論点もあり。法案は、AIチャットボットが人間であるかのように振る舞うこと、または専門家(医師、心理カウンセラー、弁護士など)を装うことを、サービス提供事業者に対して明確に義務づけている。これは、AI精神病や誤った情報に基づく重大な意思決定を防止するための措置であり、ユーザーがAIとの対話を通じて、あたかも専門家の助言を得ているかのような誤解を抱き、現実の医療・法律サービスから遠ざかる事態を防ぐことを目的としている。

 また、未成年者に対して性的または感情的な操作(恋愛・依存誘発など)を行うことも、サービス提供事業者として禁止し、違反には罰則(1件につき10万ドル以下の罰金)を設ける可能性が検討されている。具体的には、チャットボットの設計やアルゴリズムが、若年層の脆弱性につけ込み、不健全な親密性や依存性を意図的に誘発することを禁じるものである。罰則が導入されれば、サービス提供事業者は、自社のチャットボットが生成する対話内容のフィルタリングと安全設計に、これまで以上の資源を投入せざるを得なくなるだろう。

 さらに、ユーザーに対して「このチャットボットはAIであり人間ではない」「このサービスは相談専門ではない」といった明確な注意表示(Warning Label)を義務づけることも検討されている。

 このGUARD Actを提出した共和党のジョシュ・ホーリー上院議員は、若手ながら保守派の急先鋒として知られ、ビッグテック(大手テクノロジー企業)に対する批判的な姿勢を一貫して提示。AIやSNSなどのプラットフォーム規制に向けて積極的に動いている。このGUARD Act以前にも、AI企業に法的責任を負わせる法案や、中国との技術競争に関する法案を共同提出するなど、テクノロジーの安全保障と倫理的側面に強い関心を持つ人物である。

 さらに、共同で提出したリチャード・ブルメンタール上院議員は、長年、消費者保護と児童の安全を重視する姿勢で知られるベテラン議員。特に、未成年者をSNSの悪影響から守ることを目的とした「子どもオンライン安全法案(KOSA:Kids Online Safety Act)」の成立を強く推進した人物でもあり、今回のAIチャットボット規制についても、同様の消費者保護の観点から主導的な役割を果たしている。

 この両議員による共同提案は、AI規制がもはや党派を超えた国民の安全保障の問題として認識されていることを示すものであり、法案成立の可能性を高める要因であると言えるだろう。

EUや日本での動向

 米国でGUARD Actが提出される以前から、EU(欧州連合)では、AIの規制において世界をリードする姿勢を示してきた。具体的には、AI利用のリスクレベルに応じて規制する包括的な枠組みである「AI Act(AI法)」だ。

 EUのAI法は、AIシステムを「許容できないリスク(unacceptable risk)」「高リスク(high risk)」「限定的なリスク(limited risk)」「最小限のリスク(minimum risk)」の4段階に分類し、それぞれに対して異なるコンプライアンス要件を課すことが特徴である。

 しかし、今回のGUARD Actが焦点を当てる「未成年者によるAIチャットボットやAIコンパニオンの利用」が引き起こす感情的な依存、心理的な操作、または精神的健康への影響といった側面に関しては、具体的な技術的規制の基準がまだ十分に整備されていないというのが現状だ。「親密性そのものをどう許容・制御するか」という、未成年者の安全に直結する課題への対応は、各国での議論や今後の詳細なガイドラインに委ねられる部分が大きい。

 このため、EUにおいても、米国のGUARD Actのような未成年者のアクセス制限や感情的な操作の禁止に特化した、より踏み込んだ規制の議論が、今後活発化する可能性が非常に高いと考えられる。

 日本に目を向けてみると、現時点では米国のような、未成年者のAIチャットボット利用そのものを規制する具体的な法案などは提出されていない。政府は「AI事業者ガイドライン」などの形で、AI開発者・提供者が配慮すべき倫理的・社会的な原則を示しており、この中で「人間の尊厳の尊重」や「安全性の確保」といった内容が重要原則として掲げられてはいるものの、明示的な「未成年者」への言及は記事執筆時点ではなされていない。

 もちろん、間接的に関連する理念・教育・倫理的配慮は存在する。まず、対象に「未成年を含む一般消費者」を明示し、AIの利活用に関するリスク理解を広く促している。また、世代間ギャップを考慮したAIリテラシー教育の推進が掲げられ、若年層の安全な活用を支援する姿勢がうかがえる。さらに、「情報弱者・技術弱者を生じさせない」という包摂性の原則の下、社会的弱者を含む幅広い利用者のアクセスと理解を重視している。加えて、「AI による意思決定・感情の操作等への留意」が示されており、対話型AIなどによる心理的影響への配慮も求められている。

 今回の米議会で提出されたGUARD Actは、単なる一国の法案を超え、グローバルなAI規制の潮流における重要な転換点を示すものとして、今後各国での議論の活発化が想定されるだろう。日本においても、AI事業者ガイドラインのような思想的基盤を踏まえて、今後、未成年者への規制のあり方も議論されていくことに期待したい。

AIを「人間社会に適合させる技術」として成熟させる転換点になるか

 これまで、AI規制の議論は、差別やプライバシー、データセキュリティ、そしてディープフェイクなどの「コンテンツ規制」に主眼が置かれてきた。しかし今回のGUARD Actは、若年層のAI利用に対して「心理的影響」「依存性」といった、より内面的な観点からの規制が本格化する可能性を示している。AIチャットボットが「ただのツール/サービス」から「感情・対話・関係性を築き得る相手」に近づいてきている状況において、未成年者の扱いは、技術の進歩に対する社会的な許容範囲を決定づける、倫理的にも経営的にも重要なテーマとなる。

 この法案が通れば、サービス提供事業者やプラットフォーム事業者にとって、「未成年保護」「厳格な年齢確認」「利用制限」「設計上の安全対策(Safety-by-Design)」が、単なるコンプライアンス部門のタスクではなく、経営戦略の中核に組み込まれることになる。特に厳格な年齢確認の義務化は、ユーザー数拡大を目指す多くの企業にとって、技術的・コスト的な大きな障壁となり得る。また、チャットボットの応答が意図せず依存性や感情的操作を誘発しないよう、アルゴリズムレベルでの安全性検証が必須となり、製品開発プロセス全体に影響を及ぼすことにもなるだろう。

 一方で、この動きは単なるリスク抑制策にとどまらず、AIを「人間社会に適合させる技術」として成熟させる転換点になる可能性があるとも言える。ユーザーの感情や心理に直接作用するAIにおいては、倫理と安全性の設計をどこまで内包できるかが信頼性の指標となり、国際競争力を左右する要素にもなり得る。

 未成年をはじめとする脆弱な利用者層の心理的安全をどう守るか。それは、AI規制の新たな焦点であると同時に、今後のAI産業が社会的信頼を得るための試金石となるだろう。

GUARD Actの条文チェック

 最後に「GUARD Act(Guidelines for User Age-verification and Responsible Dialogue Act of 2025)」条文について、ポイントをまとめた日本語訳を記載する。参考としてご覧いただきたい。

GUARD Act:Guidelines for User Age-verification and Responsible Dialogue Act of 2025

 

第1条:略称(SHORT TITLE)

この法律は「Guidelines for User Age-verification and Responsible Dialogue Act of 2025」または「GUARD Act」と称する。

第2条:議会の認定事項(FINDINGS)

議会は次のように認定する。

  1. AIチャットボットは、ソーシャルメディアプラットフォームや未成年者が使用する消費者向けアプリケーション上で急速に普及している。
  2. これらのチャットボットは、子どもに対して有害または性的に露骨なコンテンツを生成・拡散する可能性がある。
  3. これらのチャットボットは、未成年者の発達上の脆弱性を悪用する形で、感情を操作し、行動に影響を与えることができる。
  4. このようなチャットボットの普及は、児童に身体的・心理的リスク(グルーミング、依存症、自傷行為、他者への危害など)をもたらす。
  5. 責任を負わずに人間的な対話を模倣するAIチャットボットから子どもを保護することは、政府にとって喫緊の公益上の課題である。

第3条:定義(DEFINITIONS)

  1. AIコンパニオン(AI Companion):ユーザーの入力に対して適応性のある、人間のような応答を行い、友情や感情的つながり、セラピー的コミュニケーションのシミュレーションを促したり用意にしたりするよう設計されたAIチャットボット。
  2. AIチャットボット:開発者があらかじめ定めた範囲を超え、自然言語またはマルチモーダル入力に応じて新しい出力を生成するインタラクティブなサービス。ただし、限定された目的の応答しかできないようなシステムは含まない。
  3. 対象事業者(Covered Entity):米国内でAIチャットボットを所有、運営、またはそのほかの方法で利用可能にするすべての個人・法人。
  4. 未成年者(Minor):18歳未満の個人。
  5. 合理的な年齢確認手段(Reasonable Age Verification Measure):政府発行の身分証明書、もしくはそのほかの方法でユーザーが成人であるか否かを判断し、未成年者がAIコンパニオンにアクセスするのを防ぐことのできる手段。
  6. 合理的な年齢確認プロセス(Reasonable Age Verification Process):上記手段を用いてユーザーの年齢を確認する手続き。事業者は、自社が提供・運営するAIチャットボットのユーザーについて、年齢を確実に確認するために、信頼性の高い方法を1つ以上用いなければならない。単に「18歳以上である」と自己申告させたり、生年月日を入力させたりするだけでは、年齢確認としては不十分とされる。また、全てのユーザーが、事業者が採用する年齢確認手続きの対象となるようにする必要がある。さらに、ユーザーの年齢を判定する際には、「同じIPアドレスや端末を他の成人ユーザーと共有している」といった技術的な要素を根拠にしてはならず、個別に正確な確認を行うことが求められる。

第4条:刑事罰(CRIMINAL PROHIBITION)

合衆国法典第18編第I部 第5章の後に以下を挿入する:

「第6章 人工知能」「第91条:AIチャットボット」

「(a)定義

本条において:

(1)人工知能チャットボット:第3条(2)に定義される意味を有する。

(2)未成年者:「未成年者」とは、18歳に達していないあらゆる個人を意味する。

(3)性的に露骨な行為:「性的に露骨な行為」とは、第2256条に与えられた意味を有する。

(b)未成年者の勧誘

(1)犯罪:AIチャットボットが未成年者を以下の行為に勧誘、奨励、または誘発するリスクを伴うことを知っている、または無謀に無視して、そのAIチャットボットを設計、開発、または利用可能にすることは違法とする:

性的に露骨な行為に従事する、描写する、またはシミュレートすること。

性的に露骨な行為の視覚的描写を作成または送信すること(第1466A(a)条に記述される視覚的描写を含む)。

(2)罰則:第(1)項に違反した者は、違反1件につき100,000ドル以下の罰金に処される。

(c)身体的暴力の促進

(1)犯罪:AIチャットボットが自殺、非自殺的な自傷行為、または差し迫った身体的もしくは性的暴力を奨励、促進、または強要することを知っている、または無謀に無視して、そのAIチャットボットを設計、開発、または利用可能にすることは違法とする。

(2)罰則:第(1)項に違反した者は、違反1件につき100,000ドル以下の罰金に処される。」

(b)技術的および適合的修正

合衆国法典第18編第I部の章の表を修正する。

第5条:事業者の義務(COVERED ENTITY OBLIGATIONS)

(a)ユーザーアカウント作成

対象事業者は、AIチャットボットにアクセスする各個人に対し、そのチャットボットを使用または操作するためにユーザーアカウントを作成することを義務付けなければならない。

(b)年齢確認

  1. 既存アカウント:事業者は、この法律が施行された時点で既に存在しているAIチャットボットのユーザーアカウントについて、まずすべてのアカウントを一時的に停止(凍結)しなければならない。そのうえで、利用を再開したいユーザーには、法で定められた「合理的な年齢確認プロセス」に従い、確認可能な年齢情報を提出するよう求める。提出された情報をもとに、事業者はそれぞれのユーザーを「未成年」または「成人」に分類することが義務づけられている。
  2. 新規アカウント:新しくAIチャットボットを利用するためのアカウントを作るとき、事業者はその利用者に年齢情報の提供を求めなければならない。そのうえで、法で定められた「合理的な年齢確認プロセス」に基づいて、本人の年齢を正確に確認する必要がある。確認した年齢データをもとに、事業者は各ユーザーを「未成年」か「成人」かに分類しなければならない。
  3. 定期的な年齢確認:新しくAIチャットボットを利用するためのアカウントを作るとき、事業者はその利用者に年齢情報の提供を求めなければならない。そのうえで、法で定められた「合理的な年齢確認プロセス」に基づいて、本人の年齢を正確に確認する必要がある。確認した年齢データをもとに、事業者は各ユーザーを「未成年」か「成人」かに分類しなければならない。
  4. 第三者利用:対象事業者は、自身の「合理的な年齢確認プロセス」の一部として「合理的な年齢確認手段」を採用するために第三者と契約することができるが、第三者の利用は、本法に基づく対象事業者の義務または本法に基づく責任を免除するものではない。
  5. データ保護:事業者は、利用者の年齢確認に関するデータを安全に扱うため、適切なセキュリティ対策を整え、実施し、継続的に維持しなければならない。その際、収集する個人データは、年齢確認や法令遵守のために本当に必要な最小限の情報に限る必要がある。また、そのデータは不正アクセスから保護し、送信する際には業界標準の暗号化技術を用いて安全にやり取りしなければならない。さらに、データは年齢確認や法的義務の履行に必要な期間を超えて保存してはならず、他の事業者に共有・譲渡・販売することも禁止されている。

(c)開示義務(Disclosures)

  1. 非人間性の明示:

ユーザーとの各会話の開始時および30分間隔で、チャットボットが人工知能システムであり人間ではないことを明確かつ目立つように開示しなければならない。また、ユーザーから人間であるかを尋ねられた際に、人間であると主張したり、その他の欺瞞的な応答をしたりしないようにプログラムされなければならない。

  1. 専門家でないことの明示:

(A)一般規定:AIチャットボットは、セラピスト、医師、弁護士、ファイナンシャルアドバイザー、またはその他の専門家を含む、認可された専門家であると直接的または間接的に表明してはならない。

(B)その他の制限:ユーザーに提供される各AIチャットボットは、ユーザーとの各会話の開始時および合理的に定期的な間隔で、ユーザーに対し、「チャットボットが医療、法律、財務、または心理的サービスを提供しないこと」および「チャットボットのユーザーは、そのようなアドバイスについては認可された専門家に相談すべきであること」を明確かつ目立つように開示しなければならない。

第6条:未成年者によるAIコンパニオンの使用禁止(PROHIBITION ON MINOR USE OF AI COMPANIONS)

年齢確認の結果、未成年者と判定された場合、事業者は、その未成年者が、事業者が所有、運営、またはその他の方法で利用可能にするいかなるAIコンパニオンにもアクセスまたは使用することを禁止しなければならない。

第7条:執行(ENFORCEMENT)

(a)一般規定

公布された規制に違反した場合、司法長官は、合衆国の適切な地方裁判所に民事訴訟を提起し、違反の差し止めを命じ、公布された規制の遵守を強制する。また本条(c)項に基づく民事罰、原状回復、およびその他の適切な救済措置を得る。

(b)司法長官の権限

  1. 調査権限:本条に基づく調査の実施または執行措置の提起の目的で、司法長官は召喚状を発行し、宣誓を執行し、文書または証言の提出を強制することができる。
  2. 規則制定:司法長官は、本法を実施するために必要な規則を公布することができる。

(c)民事罰

  1. 一般規定:第5条または第6条、あるいはそれらに基づいて公布された規制に違反した者は、違反1件につき10万ドルを超えない民事罰に処される。
  2. 個別の違反:第(1)項に記述された各違反は、個別の違反と見なされる。

(d)州による施行

州の司法長官が、いずれかの対象事業者が本法またはそれに基づく規則に違反していることにより、その州の住民の利益が脅かされているか、または悪影響を受けていると信じるに足る理由がある場合、州は法定代理人(parens patriae)として、州の住民を代表して、合衆国地方裁判所または適切な管轄権を有する州裁判所に差し止めによる救済を得るための民事訴訟を提起することができる。

(e)州法との関係

本法または本法によってなされた修正、あるいはそれらに基づいて公布された規則のいかなる規定も、本法および本法によってなされた修正、ならびにそれらに基づいて公布された規則と少なくとも同等にAIチャットボットのユーザーを保護する州法または規制の施行を禁止またはその他の方法で影響を及ぼすものと解釈されない。

第8条:施行期日(EFFECTIVE DATE)

この法律および関連改正は、公布から180日後に発効する。

文・長岡武司

Love
GUARD Act OpenAI

この記事が気に入ったら
いいね または フォローしてね!

Follow @LoveTechMediaJ
よかったらシェアしてね!
  • URLをコピーしました!
  • AIG-CSAM(AI生成型児童性的虐待コンテンツ)のいまを探り、知能爆発以降にどうするべきかを考える

この記事を書いた人

長岡武司のアバター 長岡武司

LoveTech Media編集長。映像制作会社・国産ERPパッケージのコンサルタント・婚活コンサルタント/澤口珠子のマネジメント責任者を経て、2018年11月にあいテクテク株式会社創業。愛に寄り添うテクノロジーの切り口で事業を展開。一児の父。

この著者の記事一覧へ

関連記事

  • AIG-CSAM(AI生成型児童性的虐待コンテンツ)のいまを探り、知能爆発以降にどうするべきかを考える
    2025-10-24
  • サム・アルトマンCEO「ChatGPTでの成人向け”性的表現”解禁」ポストの真意を探る
    2025-10-19
  • コミュニティ駆動で「人工子宮」研究を推進。Athena DAOが力を入れるReproTech(生殖技術)支援を探る
    2024-10-02
  • AIは無条件の愛を与えてくれるか。宗教とエロティシズム研究者が考える、AI時代の「愛」の可能性とリスク
    2024-09-24
  • セックスロボットは性風俗産業にどんな影響を与えるか。専門学会に参加し、研究者の取り組み内容を探ってみた
    2024-09-20
  • AI駆動型IVF(体外受精)クリニックの運営、子宮移植の成功など。イギリス「生殖医療」の未来と課題を考える
    2024-09-17
  • つまるところ、私たちの「意識」って何なのか?ベストセラー作家のチョプラ博士と共に考える
    2024-09-15
  • 女性の健康と幻覚剤。医療用途でのMDMA/シロシビン使用など「サイケデリック・ルネッサンス」の現在地を探る
    2024-09-13
B面サイト

過去特集
Menu
  • 運営会社
  • プライバシーポリシー(個人情報保護方針)
  • お問い合わせ
Menu
  • 運営会社
  • プライバシーポリシー(個人情報保護方針)
  • お問い合わせ

© LoveTech Media - ラブテックメディア.

目次