先日、友人と会食をした際に生成AIの話になり、2025年9月30日にリリースされたSora 2(OpenAIによる最新の動画生成モデル)の凄さについて盛り上がった。その流れでディープフェイク技術(本物と見分けがつかないほど精巧に作られた偽の画像、映像、音声等を作る技術の総称)の現状へと話題が移り、昨今高まる「AIG-CSAM(AI-Generated Child Sexual Abuse Material:AI生成型児童性的虐待コンテンツ)」のリスクについても話し合うことになった。
サッカー好きのその友人が持ち出したのは、日本サッカー協会(JFA)が10月7日に電撃解任した影山 雅永技術委員長の件。FIFA U-20ワールドカップ チリ2025の視察へ向かうべく搭乗した機内で児童ポルノ画像を閲覧したとして、フランスのパリ=シャルル・ド・ゴール空港にて現地警察に逮捕されたのだという。1,621件もの児童ポルノ画像の閲覧履歴があったとのことで、その常習性が疑われるだろう。一部は自らAIで生成したものとのことだ。
このような事例は、今後ますます増えていくことが想定される。というのも、少しネットやAIで調べてみると、AIG-CSAMの生成やその機運醸成に繋がりかねないようなディープフェイク生成サービスはすぐに、しかも沢山見つかる。時事通信の取材によると、警察庁は2024年の1年間で全国の警察が把握した青少年の性的ディープフェイク被害が100件以上あったとしており、そのうち17件は生成AI由来。大半は同級生が作成していたとのことだ。ニュースでも、いわゆる「卒アル問題」として、誰でも卒業アルバムの写真1枚から性的ディープフェイクコンテンツを作ることができると報じている。被害者となった生徒の精神的苦痛は計り知れないだろう。加害の容易さに対する被害の深刻さ、そして規制が追いついていないことが、この問題をより重層的にしている。
本記事では、このAIG-CSAMへのリスク・脅威と、そこへの対策の現状について、まずは水先案内レベルにはなるが調べてみた。
最も悪質な「Category A」分類の描写が増加中
AI技術は、加害者の目的や手口に応じて多様な方法で悪用されている。AIG-CSAMも然り、その手口は一様ではない。
最も直接的で、被害が深刻なのが、実在する子どもや若者の写真/動画を悪用して合成コンテンツを生成するタイプのAIG-CSAMだ。例えば、先ほどお伝えしたような学校コミュニティ内でのディープフェイク拡散。オーストラリアのeSafety Commissionerや米国のNCMEC(National Center for Missing and Exploited Children)は、この種の被害が危機的なレベルで発生していると報告しており、各国政府が緊急対策に乗り出す事態となっている。もちろん、学校のクラスメイトのような身近な例に限らず、AIディープフェイクは公人や有名人の子どもを標的にすることもあるだろう。
また、AI生成画像は、犯罪者が被害者を脅迫するセクストーション(Sextortion) の強力な武器にもなり得る。加害者が、被害者となる子どもの写真を入手し、AIで性的ディープフェイク画像を生成した上で、被害者およびその親御さん等に対して「この画像を削除してほしければ、本物のヌード写真や金銭を送れ」と脅迫するという流れだ。被害者としては、たとえ偽物であっても、自分の性的虐待画像が存在するという事実だけで深い恐怖と恥辱を感じ、犯罪者の要求に応じやすい心理状態に追い込まれることが容易に推察される。
ここまでは実在する子どもや若者をモデルとするケースについての内容だが、AIがゼロから生み出した架空の児童を描写するAIG-CSAMも深刻な脅威だ。まず問題なのは、児童を性的対象として描く行為が「現実ではないから無害」と誤解され、児童の性的化を文化的に正当化してしまおうとする点だ。こうした生成物の氾濫は、児童全体を“性的に消費可能な存在”として扱う風潮を助長し、現実の搾取への抵抗感を麻痺させるリスクを高めることが想定される。
また、AI生成物の利用が性的嗜好を強化し、実在する子どもへの加害行動に転化するリスクも指摘されている。法的にも実在する子どもを前提とした現行制度では摘発が難しく(後述)、また検出技術も追いついていない。加えて、AIモデルがこうした画像を学習することでの倫理的なデータポイズニングが起こる危険もある。
さらに、AIG-CSAMのもう一つの深刻な問題は、その「悪質性の増加性」にあると感じる。つまり、従来型のCSAM(非AIG-CSAM)は、現実の状況や撮影能力に依存するため描写できる内容に限界があったが、AIはプロンプト(指示文) によって、現実では不可能な、あるいはより残虐な、極めて悪質な性的虐待シナリオを無限に具現化できてしまう。
IWF(Internet Watch Foundation)は、AI生成画像において、最も悪質な「Category A」に分類される描写の割合が増加していることを報告しており、犯罪者の欲望の具現化(より複雑性の高いハードコアなシナリオの生成力)が容易になっていることが示されている。
グローバル規模で広がる手口と被害

AIG-CSAMは国境のない脅威である。例えば2025年2月発表のニュースになるが、欧州刑事警察機構(Europol)は、AIG-CSAMを流通させていたオンラインプラットフォームの摘発に成功し、世界中からアクセスしていた273名の容疑者を特定。主犯であるデンマーク国籍の人物ら25名が2024年11月に逮捕された。
当局の発表によると、今回の事件に向けた国際的大規模作戦「オペレーション・カンバーランド」は、AIG-CSAMに関わる初期の事例の一つであり、これに対応する国内法整備の不足により、捜査当局にとって極めて困難なものであったことが指摘されている。
また英国のIWFでは、AIG-CSAMの脅威に関するレポートを継続的に発信しており、2025年7月11日発表の調査レポートでは、2025年上半期(1月〜6月)にIWFアナリストが確認したAI生成CSAM動画は1,286件に到達。前年同期のわずか2件と比較して、桁違いの急増になったと報告している。また、AIG-CSAMが発見されたWebページの数も、2024年上半期の42ページから2025年上半期には210ページへと、実に400%も増加したという。
その上でIWFは、この技術が進化する現在のペースでは、緊急の対策が取られなければ、犯罪者が「フル尺のAIG-CSAM動画」を作成できるようになるのは「不可避(inevitable)」であると強く警告している。
さらに、国際的な児童保護団体・Childlight Global Child Safety Institute(エディンバラ大学がホスト)が2025年10月7日に配信したレポートによると、AIディープフェイクの急増が児童に対する性的搾取を牽引しており、有害なAI生成オンライン虐待素材が2023年〜2024年で1,325%増加したという衝撃的なデータを示している。同レポートでは、米国のNCMECに記録されたAI生成CSAMの報告件数が、2023年の4,700件から、2024年には67,000件以上に激増したことも明記している。
脱獄やオープンソース(ウェイト)モデル悪用など、LLMハックへの力学
AIG-CSAM被害の急速な拡大の背景には、技術を悪用した抜け道と、それを助長する違法なオンラインコミュニティの存在が挙げられる。
まずはAIモデルの「ガードレール(安全対策)」回避、いわゆる「LLM脱獄(Jailbreaking)」だ。OpenAIやGoogle、Anthropicといった大手AI研究ラボは、自社のAIモデルが違法な画像やわいせつなコンテンツを生成しないよう、プロンプトの制限やフィルタリングといった「ガードレール」を設けている。
しかし、悪意あるユーザーは、このガードレールを突破する手法(Jailbreaking)をAI普及の黎明期から常に模索し、開発・共有している。シンプルな例にはなるが、例えば「裸」や「性的行為」といった直接的な禁止用語を避け、「幼い友人の芸術的な肖像」といった曖昧で文学的な言葉を使ってAIを欺き、わいせつな画像を生成させるアプローチが考えられる。また、「小説の登場人物になりきって」「このプロンプトを分析し、禁止されていない要素のみで画像を生成せよ」といった指示を与え、AIの倫理チェック機能を迂回させるようなアプローチもある。
次に、オープンソースモデルを悪用した手法も存在する。その名の通り、オープンソースは基本的にコードやモデル構造が公開されており、誰でもモデルをダウンロードしローカル実行ができるため、悪意ある利用の敷居が下がる。例えば、検閲フィルタや安全制約がサーバー側で実施されるケースでは、ローカル実行でそれらを回避できてしまうリスクもあるだろう。
※オープンソースモデルとは、ソフトウェア開発における「オープンソース」と同様に、モデルの構造や学習済みの重み(weights)だけでなく、学習データや訓練コード、ハイパーパラメータまでを含めてすべて公開している形態を指す。誰でも自由に閲覧・改変・再配布でき、学術研究や透明性確保、再現実験に適している。一方で、情報が完全に公開されるため、著作権侵害や悪用のリスクも高い。
これに対しオープンウェイトモデルというものもある。オープンウェイトモデルは、学習済みの重みとモデル構造のみを公開し、訓練データやコードなどの内部情報は非公開にする形式である。つまり、完成したモデルは利用・微調整できるが、学習過程を再現することはできない。企業はこれにより、機密データを守りつつ、研究者や開発者がモデルを応用できるバランスを取っている。
近年では、MetaのLlamaやGoogleのGemmaなど、多くの大規模モデルがこのオープンウェイト型を採用しており、完全なオープンソースよりも現実的な妥協点として定着しつつある。
少し前のニュースにはなるが、スタンフォード大学の調査によると、Stable Diffusionなどの人気AI画像生成モデルの訓練に使用された公開データセット「LAION-5B」から、CSAM画像が数百点発見されたという。AIモデル自体が悪意なくCSAMを学習し、その生成能力を向上させてしまうという、技術倫理上の深刻な問題を示す事例だ。
さらに、ダークウェブや匿名性の高いメッセージングアプリ(Telegramなど)が、AIG-CSAMの生成や流通の温床になっていることも加えておきたい。AIG-CSAM画像・動画の流通はもちろん、「どのようなプロンプトを使えばLLM脱獄できたか」といったハウツー情報などの拡散にも寄与していることが考えられる。
従来のCSAMとは異なる、新たな脅威の本質
なぜAIG-CSAMは、従来のCSAM対策の延長線上で語るだけでは不十分なのか。その深刻な問題点は、技術的な特性によって従来の犯罪の枠組みを超越している点にある。
生成AI技術、特にディープフェイク技術は、わずか数年で驚異的な進化を遂げた。初期のディープフェイクは不自然さが残りましたが、現在の生成物は、特に動画や高解像度の画像において、従来型のCSAMと見分けがつかないほど精巧になっている。
その上で、AIG-CSAMは需要に応じたスピーディーなオンデマンド生産が可能である点も厄介だ。以下は、従来のCSAMとAIG-CSAMの比較表である。
| 要素 | 従来のCSAM | AIG-CSAM |
| 生成コスト | 比較的高い(肉体による物理的な犯罪行為を伴う) | 非常に低い(サーバー費用と処理時間のみ) |
| 生成時間 | 数時間〜数ヶ月(撮影・実行) | 数秒〜数分(プロンプト入力)※サービスやモデル等により変動 |
| 生産量 | 限定的 | 無限 |
低コストかつ短時間での大量生産能力は、流通量を爆発的に増加させる。犯罪者は、国境を越えた匿名性の高いプラットフォームで、瞬時に数万人分のコンテンツを配信することが可能になり、被害の拡大スピードは従来のCSAMの比ではない。
AIG-CSAMの脅威の核心は、「無害な画像」の悪用にある。ディープフェイク技術は、子どもや若者がSNSに投稿した制服姿や、学校行事で撮影された集合写真など、性的ではない日常的な写真を悪用して、彼らが性的虐待を受けているかのような偽の画像を生成する。これは、性的な画像を共有したことのない人でも、オンライン上に顔写真が存在する限り、誰でもデジタルな被害者になり得ることを意味する。悪意ある者が「ヌード化アプリ」やAIツールを数回クリックするだけで、同意のない性的画像を瞬時に作り出せるため、被害者層は劇的に拡大していくことになる。
これらの画像がAIによって生成された「偽物」であることは、被害者にとっては何の意味も持たない。最も深刻なのは、画像がAIで生成された偽物であっても、被害者が受ける精神的・社会的トラウマは「本物」であるという厳然たる事実だ。自分自身の顔が性的コンテンツとして利用され、広範囲に流通するという事態は、被害者に激しい不安、恥辱、社会からの孤立といった深刻な精神的苦痛を与え、長期的な心理的後遺症に苦しむことになる。
また一方で、AIG-CSAMは、犯罪者側の心理的な障壁を劇的に下げてしまったと言えるだろう。従来のCSAMは、実在の児童に性的虐待を加え、それを撮影するという極めて重い現実の犯罪行為を伴うわけで、それ故に一定の心理的なハードルにもなっていた。
しかし、AIG-CSAMの生成は、コンピューター画面上でプロンプトを入力するだけで完結する。加害者としては、「これは現実ではない」「単なる架空の画像だ」「AIが出力したデータに過ぎない」「一種の芸術だ」といった自己正当化を行うことが容易になる。実際に子どもに手を下す必要がないため、犯罪への心理的ハードルが下がり、「見るだけ」から「作り出す」 加害者層、すなわち犯罪者予備軍を拡大させてしまう可能性がある。
このように、テクノロジーの進化によってAIG-CSAMが“気軽に”生成できることで、ちょっとした悪意が際限なく増幅されてしまうリスクがあるのが、現代の子ども達が置かれた状況なのだ。
こんなに簡単にヌード画像が作れてしまうのか…
どれだけ簡単にヌード画像が作れるのか、実際に試してみるべく、数あるヌード化アプリの中でも、今回は「Nudefusion(ヌードフュージョン)」というサービスを使ってみた。
トップページでは「AIですべての画像を裸に」をタグラインとしており、写真でもイラストでも任意の画像をアップロードすることで、裸に変換した画像を生成するというサービスになっている。
実際にアカウント登録すると、このヌード化サービス以外にも、あらかじめ用意されているストック画像/動画の顔と、任意の写真に写っている顔を交換するサービスもある。
この「ストック画像/動画」は結構インパクトがあり、さまざまなシチュエーション/カテゴリの素材が用意されている。「ビーチ」「ファミレス」「スポーツジム」「野外」といったシチュエーションものがあれば、「チアリーダー」「セーラー服」「全身タイツ」といったコスプレパターンもあり、また「3P4P」「放置」「NTR」「正常位」「首輪」といったプレイ/フェチによるカテゴリも、結構細かいところまで用意されている。
気に入ったストックが見つかったら、それを選択し、あとは顔を交換したい写真をアップロードするだけ。ものの数分で、任意の顔のヌード画像が生成されてしまった。生成された画像や動画はただちにNudefusionのサーバーから削除されるとのこと。
アップロードできない画像については、「サービス利用にともなうご注意」に以下のような記載がなされており、AIG-CSAM生成禁止の旨も明記されている。ただし、悪意あるユーザーが18歳未満・児童の人物の画像をアップロードした場合の対応(技術的にはじく仕組みの有無等)については特に言及されていない。
権利がない画像の使用や知的財産権、その他、第三者の権利を侵害している画像の利用は固くお断りしております。必ずご自身が権利を持ち、第三者の権利を侵害している画像は使用されないようにご注意ください。18歳未満・児童の人物の画像をアップロードすることを固く禁じます(児童ポルノの⽣成は児童ポルノ禁⽌法違反に該当し処罰の対象となります。)。
https://nudefusion.com/ja/notes-on-use
このNudefusionの他にも、Promptchan AIやCreateGirls、Nudifyなど、様々なヌード化アプリがある。他にも何点か試してみたところ、細かいオペレーションやサービスの仕組みこそ異なるものの、簡単にヌード画像を生成できる点に違いはなかった。
写真をアップロードするだけで、AIが自動的にその人物の服を取り除き、裸の画像を生成する。このインスタントなオペレーションに驚いたとともに、想像以上に性的コンテンツ作成の敷居が下がっていることを実感した次第だ。
グローバルでの法規制と技術的防御の動向
AIG-CSAMの脅威が世界規模で拡大する中、各国は従来の法規制の枠を超えた対応を急いでいる。
EUでは、CSAM対策は「デジタルサービス法(DSA:Digital Services Act)」と、現在議論中の「児童性的虐待防止規則案」によって主導されている。
前者(デジタルサービス法)は、オンライン上のあらゆるプラットフォームに対し、CSAMを含む違法コンテンツをユーザーからの通知に基づき迅速に削除する義務を課している。特に、巨大プラットフォーム(VLOPs)には、CSAM拡散のリスク評価と、それを軽減するための対策を講じる体系的な責任が義務付けられている。また、EUが世界に先駆けて制定を進めるAI法(AI Act)は、ディープフェイク対策として透明性の確保を追求している。AI法は、ディープフェイクなどの合成コンテンツに対し、それが人工的なものであることをユーザーが明確に認識できるよう、ラベリングを義務付けることで、誤情報や悪意あるコンテンツの流通を抑制しようとしている。
そして、最も議論が集中しているのは、現在提案されている「児童性的虐待防止規則案」だ。この規則案は、AI技術の進展、特にエンドツーエンド暗号化(E2EE)環境下でのCSAM拡散という難題に正面から立ち向かうもので、オンラインサービスプロバイダーに対するCSAMの検出、報告、削除を行うための技術的措置を講じることを義務付けることが議論されている。また、AIG-CSAMの脅威に対抗するため、AI開発企業には「セーフティ・バイ・デザイン(Safety by Design)の原則」の遵守が促されている。「セーフティ・バイ・デザインの原則」とは、児童保護NGOであるThornなどが強く提唱しているもので、AIシステムが悪意ある利用や違法コンテンツの生成に利用されないよう、開発の初期段階から悪用を防ぐための安全対策(セーフガード)を組み込むことを義務付けるという考え方だ。事後的なコンテンツ削除に依存するのではなく、AIサプライチェーン全体で根本的な安全確保を求める、倫理的な要求に基づいている。これにより、AIが自律的にCSAMを生成する能力を根本から断つことを目指すというわけだ。

米国では2025年5月、ディープフェイク画像の削除を義務化する新法案「Take It Down Act」が成立し、非同意の性的画像のオンライン投稿に対する連邦レベルでの規制を強化した。この法律の画期的な点は、画像がAI生成か実写かを問わず、非同意の性的画像(NCII)の投稿を連邦犯罪として明確に位置づけたことにあると言え、従来の法規制に合成コンテンツの脅威が組み込まれることになった。さらに、プラットフォームに対しては、被害者からの通知に基づき、該当コンテンツを迅速に削除するプロセスを確立することを義務付けており、プラットフォーマーの責任が重くなっている。
また英国では、2024年1月31日に「Online Safety Act」が施行され、同意なくAI生成の性的なディープフェイク画像を共有することが違法となった。これは、テイラー・スウィフトのディープフェイク画像が拡散された事例など、生成AIが女性や子どもを過度に標的にしている現実を受けての措置となっている。
従前の法律(2015年のCriminal Justice and Courts Actなど)では、同意なく性的画像を共有する行為を犯罪として成立させるためには、検察側は「行為の客観的事実:同意なく画像が共有されたこと」と「加害者の主観的意図:加害者が“被害者に苦痛(distress)を与える意図”を持って共有したこと」の朗報を証明する必要があった。だが、今回の新法ではこの証明責任が緩和され、加害者が、被害者にその脅威(画像共有)が実行されることを恐れさせる意図を持っていたこと、またはその行為が不安や苦痛を引き起こす意図があったことなど、より幅広い意図に基づいて犯罪が成立するようになっている。
この変更は、ディープフェイクの脅威が増している中で特に重要であり、ディープフェイクが被害者を脅迫するために利用されるケースが増えているからこそ、新法の下では、「画像を共有するぞ」という脅威を信じ込ませる意図があれば、その行為は処罰の対象となりやすくなる。もちろん、捜査や訴追のプロセスが迅速化する点もメリットとして大きいだろう。
さらにインドでは、電子情報技術省(MeitY)がAIに対する規制の重要な一歩として、2025年10月22日に情報技術規則の改正案を発表した。この改正案では、すべてのAI生成コンテンツに対し、それが人工的に作られたものであることを示す明確なラベリング(明示)とメタデータ(識別情報)の組み込みが義務付けられている。また、大手プラットフォーマーに対しは、アップロードされたコンテンツが合成生成されたものかどうかを判断するために、合理的かつ適切な技術的措置を講じること、およびそれに応じてラベリングすることが義務付けられている。この改正案は、「オープンで、安全で、信頼され、説明責任のあるインターネット」を確保するというインド政府のコミットメントに基づいており、各ステークホルダーからのフィードバックやコメントを同年11月6日〆切で提出するよう呼びかけている状況だ。
このように、コンテンツの透明性の確保とプラットフォームの責任、そして法律による明確な禁止という三つの柱で各国の対策が進められている。
日本での遅れる対応と法的な課題

グローバルでAI規制が加速する中、日本もAIG-CSAMへの対応を迫られているが、現行の法制度には、この新たな脅威に対応するための根本的な課題が残されている。
2023年7月13日に施行された改正刑法、特に「性的姿態撮影等処罰法」は、同意のない性的画像の提供等を処罰の対象とし、リベンジポルノ対策を強化した。この法律は、実在の人物をモデルとしたディープフェイクによる非同意のわいせつ画像の拡散について、その「提供」行為を処罰する根拠となり、実在の人物に対する性的ディープフェイクの加害者を特定しやすくなったという効果がある。しかし、この法律の対象はあくまで「性的姿態を撮影した画像・電磁的記録」の提供などであり、完全に架空のAIG-CSAMについては、その適用に限界が残されている。
これは、日本の「児童ポルノ」を規制する法律全体に通底する課題だ。つまり、現行の児童ポルノ法(正式名称:児童買春、児童ポルノに係る行為等の規制及び処罰並びに児童の保護等に関する法律)が処罰の対象とする「児童ポルノ」は、原則として「実在の児童の性的姿態を写した映像・画像」を要件としているのだ。このため、完全にAIがゼロから生成した架空のAIG-CSAMについては、「実在の児童」を要件とする現行法の定義から外れる可能性があり、罰則を適用しきれないという法的な「隙間」が生じている。
国際的な見解は、「実在性の有無に関わらず、児童の性的虐待を描写する画像は、児童に対する性的嗜好を助長し、ひいては実在の児童への被害を誘発する」というものだからこそ、ここと日本の法制度のギャップが喫緊の課題と言えるだろう。
なお、政府は2025年9月に開催された「インターネットの利用を巡る青少年の保護の在り方に関する関係府省庁連絡会議」において、同年5月に可決・成立した初のAI特化法「人工知能関連技術の研究開発及び活用の推進に関する法律」(通称、AI新法)の附帯決議に基づいて、「『課題と論点の整理』に基づく工程表」を発表している。この中で、生成AI等の横断的リスクへの対応における「『人工知能関連技術の研究開発及び活用の推進に関する法律案』の附帯決議に対する対応についてどう考えるか」という質問に対して、以下の通り記載している。
AI技術を悪用したディープフェイクポルノ、とりわけ児童の画像等を使用したものへの対策については、各種法令の適用による厳正な取締り及び被害者の保護を行うとともに、サイト管理者等への違法な情報の削除依頼を強化すること。また、同対策の実効性を高めるための方策の在り方について検討し、その結果に基づいて必要な措置を講ずること。
「課題と論点の整理」に基づく工程表より
今のところは「使う人」の問題だが、近い将来、AIによるAIの問題になる
AIの進化は日に日に早まっており、早晩、知能爆発が起きて人間の認知・理解が及ばないスピードで「AIがAIを進化させる時代」に突入することが想定される。
そう考えると、AIG-CSAMの「完全な封じ込め」というものは、現実的には不可能なんだろうと感じる。ローカルでのモデルのチューニングとコンテンツの生成ができる時代だからこそ、様々なケースを想定した規制を敷けたとしても、最終的なエッジ部分で脱獄をはじめとするプロンプトインジェクション等の策が講じられてしまい、イタチごっこは終わらない。
となると、残されたアプローチは、「AIをどう使うか」という人間側の倫理・価値観を高めることでしかないのだろうなと思う。当然、そこにはエリアごとの”正義”と、それを踏まえた倫理というものが存在するので、一朝一夕にどうこうできる話でないのは重々承知だが、それでも今のところ、使うのは「人」なので、人側の倫理・価値観を変えていくしかない。
もちろん、規制も非常に重要だ。非常に重要なのだが、先述した超知能時代(知能爆発以降の時代)になると、AIを使うのがAIになることが容易に想像される。そうなると、一体どうなるのか。サム・アルトマン氏は「「AIが今後どんな能力を持つのかに関して我々の予測が当たることもあるが、多くの場合は予測が当たらない」「予測が外れたときはすべてを捨ててピボットするしかない。サイエンスの言う通りに動くしかない」と発言している(参考)。つまり、未来予想が意味をなさない時代になるという。そんな時代において、規制をどうデザインするべきなのか。書いている中でも、全くもって答えが見出せない。せいぜい、AIをガバナンスするAIを一種の免疫みたいな役割として組み込むことや、倫理プロトコルなるものを国際標準にして運用するくらいの案しか思い浮かばない。
そう考えると、結局のところ、今度はただの「受け手」として情報を咀嚼する人間側の倫理・価値観を高めることしか抜本的な対策はないのだろうと思う。
文・長岡武司




