
近年、人工知能の発達がオンライン空間を大きく変えた。より多くのコンテンツが人間によってではなく、ニュースやコメント、動画までも作成できるアルゴリズムによって生成されるようになっている。しかし、このテクノロジーの発達は、さまざまな問題を引き起こしている。最大の脅威のひとつは、フェイク情報や真価を発揮しないコンテンツの拡散だ。この記事では、TechnoVisorが、人工知能と自動ボットがどのようにインターネットを支配しているのか、そしてなぜこれがますます深刻な問題になりつつあるのかを見てみる。
AIがインターネットに与える影響
インターネットは常に新しいものを発見する場であり、そこで誰もが有益な情報を見つけたり、意見を交換したり、新しいアイデアを発見することができた。しかし今、AIの台頭により、より多くのコンテンツが自動的に生成されるようになっている。このようなテクノロジーを推進するアルゴリズムは、人間の介入なしに大量のコンテンツを迅速かつ効率的に作成することができる。これらにより、インターネット空間は膨大な情報で埋め尽くされることになるが、これらの情報は付加価値を持たないか、あるいは不正確でさえあることが多い。
問題は、AIが生成する情報の文脈を必ずしも理解できていないことだ。その結果、一見もっともらしく見えるが、実際には意味をなさない、あるいは完全に虚偽のコンテンツが生み出される。
本物のニュースとフェイクニュースの混在
以前は、複数の情報源を使って情報を確認することは簡単だったが、今ではかなり難しくなっている。コンテンツをコピーして共有するボットは、あたかも自分たちの投稿が権威ある情報源であるかのような印象を与えることができる。彼らは特定のテンプレートに従ってすべてのコンテンツを単純に生成しており、一見すると正しいように見えるが、多くの場合、深みや真実味に欠ける。
残念なことに、信頼できる情報源であっても、ネット上でニュースがこれほど速く拡散する場合、必ずしも信頼できるとは限らない。ボットは瞬く間にフェイクニュースを拡散することができ、ソーシャルメディア、ニュースポータル、コメントで見つけることができる。
自動ボット:ユーザーへの影響
ボットは主に作業を自動化するために使われているにもかかわらず、もうひとつ重大な問題を抱えている。いや、単なるコンテンツ配信ではなく、文字通り、アイデアを議論しているように見せかけたり、特定の意見を支持しているように見せかけたりするのだ。彼らは様々なプラットフォーム上で何千もの偽のコメントやレビューを生成し、特定の情報に対する人気や信頼のような錯覚を作り出すことができる。
この種の操作は、虚偽の情報に基づいて意思決定がなされる可能性が高い、選挙や公共問題の文脈において最も危険である。このようなボットとやりとりすることで、ユーザーは歪曲された、まったく信頼できない情報を真実として認識することになる。
創造性への影響
AI技術には、定型的なプロセスを自動化し、最小限の時間で大量のコンテンツを作成するのに役立つなど、一定の利点があることは否定しない。もちろん、ある種のコンテンツの作成や、ブログやウェブサイトの維持に費やす時間を短縮することも可能だ。しかし、何事にも言えることだが、テクノロジーはコントロールする必要がある。人工知能には、コンテンツを作成する際に人間が持つ感情や経験、直感がないことを忘れてはならない。
フェイクニュースとどう戦うか
自動システムによって作られたものも含め、フェイクニュースの問題に立ち向かうためには、情報を批判的に評価する能力を高める必要がある。ユーザーは情報源を確認し、慎重に分析することなく1つの情報を鵜呑みにしないことを学ぶ必要がある。
以下は、人工知能によって作られた偽のコンテンツを見分ける方法についての簡単なヒントである:
- ソースを確認する。 コンテンツに対する信頼は、誰が公開したかを確認することから始まる。有名企業や政府機関、信頼できる専門家の公式サイトであれば、フェイクニュースの可能性は低くなるが、それでもゼロではない。あまり知られていないウェブサイト、新しく作られたグループ、匿名のユーザーによるニュース記事や投稿を見かけたら、特に注意が必要だ。サイトの作成日、連絡先の有無、編集チームや著者に関する情報に注意を払うこと。データが隠されていて、サイトが怪しげ(?)に見える場合は、偽コンテンツの兆候かもしれない。
- ファクトチェック(事実確認)。 あなたが読んだものを信用する前に、同じ情報を複数の独立した情報源で探してみてください。そのニュースや写真が1つの情報源によってのみ発表されたものであれば、それはすでに疑わしい。評判の高いウクライナや世界のメディアでこの出来事について言及されているものを探し、日付、場所、名前などの詳細を確認する。その情報が公式声明や専門家のコメントで確認できればよい。この情報が、フェイクニュースを否定するサイト(StopFake、VoxCheck、Reuters Fact Checkなど)によってすでに反論されているかどうかをチェックするのも有効な場合がある。
- 感情的な影響を分析する。 AIやボットは感情を煽るようなコンテンツを作る。これは彼らが視聴者を操作する方法のひとつだ。あるコンテンツがあなたをすぐに怒らせたり、怖がらせたり、警戒させたりするのであれば、それは立ち止まって考える理由となる。偽物は、再投稿を呼びかけたり、劇的な見出しをつけたり、過度に表現豊かな言葉を使ったりすることがある。感情が誇張されていないか、攻撃やパニック、即座の行動を求めていないか、よく考えてみよう。
- テキストの文体論。 不自然な間違い、繰り返し、不正確な表現、意味をなさない不規則な言い回しなどである。そのようなテキストは定型的すぎたり、他の言語からの引用や非論理的な移行を含んでいたりする。通常、生き生きとした表現が欠けており、これらの間違いや奇妙な文体はすべて、人工的なものであることを物語っている。
- 画像や動画を評価する AIが生成した画像やディープフェイク動画には通常、不自然な顔(奇妙な目、左右非対称、余分な指、歯)、ぼやけたまたは非現実的な詳細な背景、ぼやけた物体間の境界線など、小さいが目立つエラーがある。映像には、奇妙な動き、正しくない表情、光の急激な変化などが含まれることがある。
- 特別なサービスを利用する。 今日、コンテンツ検証のための無料および有料のツールは数多くある。画像であれば、Google Images、TinEye、FotoForensics、動画であればInVIDなどがある。これらのツールは、ウェブ上に似たような画像や動画があるかどうか、あるいはファイルが編集されていないかどうかを示してくれる。この方法を使えば、偽のコンテンツを少し早く見分けることができる。
インターネットの未来とAIの役割
さまざまな問題があるにせよ、AI技術はインターネットの発展において重要な役割を果たし続けるだろう。しかし、こうした変化が社会に良い影響を与えるためには、コンテンツの質を常に監視する必要がある。インターネット空間が偽情報の場になってはならず、そのためにはテクノロジー、ソーシャルメディア、そしてユーザー自身の総力を結集する必要がある。
全体として、テクノロジーは人々に奉仕すべきであり、その逆ではないことを忘れてはならない。これが、インターネットを交流と情報交換のための有用で安全な空間として維持する唯一の方法である。