AI時代――未成年者保護もより「スマート」に

インターネットやデジタル技術の進展は、未成年者に広大な学びの場や成長の機会を提供する一方で、新たなリスクや課題も生んでいる。ネット空間における未成年者保護は、サイバー空間の健全なガバナンスにおいて極めて重要な課題である。この分野を的確に管理・改善することで、デジタル時代に生きる未成年者の健全な成長を支えていく必要がある。

「使う側」と「守る側」

両面の視点が不可欠

AI(人工知能)の急速な発展に伴い、未成年者のネット利用や保護のあり方は新たな局面に直面している。生成AIを活用したさまざまなサービスは、知らぬ間に未成年者の日常生活に深く入り込み、学習の支援や好奇心の広がりを助けるだけでなく、精神的な寄り添い役ともなっている。

しかし、AIとのやり取りは、従来のネット上の公的な情報収集とは異なり、きわめて個人的な領域で行われる。このため、不適切な内容や未成年者に悪影響を与える情報が含まれていても、保護者や監督機関が即座に気づくことは難しく、リスクを正しく評価し管理することも容易ではない。

こうした「チャット型・対話型」のAIには、従来のネットコンテンツを対象とした保護モデルをそのまま適用することはできず、新たなガバナンスの仕組みが求められている。

さらに、未成年者自身がAIを用いた創作や開発に積極的に取り組み、インテリジェントエージェントを自ら作り外部に発信するようになっている。その中には、低俗な表現や不適切な内容が含まれる場合も見られる。

すなわち、未成年者は悪影響を受ける側であると同時に、AIを通じて不適切な情報の発信者・拡散者となるリスクも抱えているのである。

したがって、未成年者を単なる保護の対象として捉えるだけではなく、健全な価値観を育成する指導や教育の重要性に目を向ける必要がある。安全で健全なネット環境を整え、未成年者自身のデジタル・リテラシーを高めることが、根本的な解決策となるのである。

AI時代の有害情報

巧妙化するリスク

AIの進化は、有害情報の形態や出現の仕方も変えつつある。主要なプラットフォームでは、これまでの取り組みにより違法・有害なコンテンツの多くは排除されてきたが、それでも未成年者に悪影響を及ぼす情報は、形を変えてなお出現し続けている。

たとえば、学業を軽視するような言説、いじめの描写、子どもインフルエンサーを通じた過度な富の誇示や悪ふざけ、不適切な宣伝、さらにはAIによって自動生成されたフェイクニュース、グレーゾーン的な表現、誤解を招くコンテンツなどがその例である。これら新たな脅威に対しては、その特性や動向を注視し、精密な対応を講じていく必要がある。

 

未成年者が

「加害者」となるリスク

ネット空間では、未成年者は被害者であると同時に、加害者となるリスクも抱えている。とりわけ「推し活」などファンダム文化の中で、些細な意見の違いから個人情報の晒しや集団での攻撃が行われる事例が目立つ。AIなどの技術を使いこなす力の向上は、学びや成長を後押しする半面、他者を傷つける力をも高める「両刃の剣」となり得るのである。

 

AI時代の未成年者保護

隔離から育成へ

このように、AI時代における未成年者保護は、従来とは異なる新たな課題に直面している。変化する時代や技術に対応するためには、積極的な革新と制度の見直しが不可欠である。

具体的には、AIモデルやアプリの設計段階から未成年者保護の理念を組み込み、データ学習、システムの最適化、利用シーン、サービス運営に至るまで一貫した配慮を行い、事前・運用中の段階で予防と保護を徹底する必要がある。

保護のアプローチは、単なる隔離・統制型から、健全なネット環境を育成し、未成年者を前向きで建設的な価値観へと導く方向へ転換しなければならない。AI技術を積極的に活用し、子どもたちに安心で希望あるデジタル社会を提供することが、私たちに課せられた重要な使命なのである。