
仕事と雇用
AIは、現在人が行っている仕事の多くを自動化できるようになるだろう。一部の職業が完全に消滅する可能性がある一方で、AIを制御したり協力したりすることに関連した新しい職業が出現することは明らかだ。 ある研究によると、現代の職業のおよそ3分の2が、人間の代わりにAIが行うことができる少なくとも一部の作業を含んでいるため、強力なAIの普及によって、世界中で最大3億人分の仕事が自動化のリスクにさらされる可能性があるという。しかし、これは完全な失業を意味するものではない。ほとんどの職業は部分的に自動化されるに過ぎず、AIは人間の仕事を完全に置き換えるのではなく、補完するものになると予想される。歴史的に見ても、テクノロジーは新たな職業を生み出してきた。一般的なAIも、我々が予測できない産業全体を生み出す可能性がある。人々は新たなスキルを身につけ、仕事の創造的、管理的、対人的な側面にもっと集中し、ルーチンワークや分析的な部分は機械に任せなければならなくなるかもしれない。おそらく、強力なAIの世界では、人間の労働時間は短縮され、経済の生産性は向上するだろう。
トレーニングと教育
AIチューターとパーソナライズされた教育プログラムは、学習をより個別的で効果的なものにすることができる。強力なAIは、特定の生徒に方法論を適応させ、どんなトピックでもわかりやすく説明する理想的な教師の役割を果たすだろう。今日、人工知能は学習のパーソナライズに使われているが、子どもの教育学と心理学を完全に理解したAIがすべての教室で利用できるようになることを想像してみてほしい。おそらく、カリキュラムは生徒のニーズに合わせてその場で作成され、AIは知識のギャップとそれを埋める最適な方法を即座に分析できるようになるだろう。例えば、(AIが作成した)シミュレーションの助けを借りて、生徒たちは歴史的な出来事を追体験したり、バーチャルな科学実験を行ったりできるようになるだろう。
医学
医療においては、AIは極めて経験豊富な医師であると同時に研究者にもなるだろう。そのようなシステムは、何百万もの症例と比較することで患者の症状を瞬時に分析し、人間以上の精度で診断を下し、個人に最適な治療計画を提案できるようになるだろう。スーパーインテリジェンスは、分子の相互作用や薬物の身体への影響をモデル化することで、新薬や治療法の発見を今よりもずっと早く助けるだろう。タンパク質の構造を明らかにしたアルファフォールドについてはすでに述べたが、将来のシステムは、生物学や化学におけるその他の未解決の問題を解決できるようになるだろう。さらに、AIアシスタントは(ウェアラブルセンサーを介して)24時間365日、人々の健康をモニターし、病気が現れる前に警告を発することができる。
エンターテイメントだ。
エンターテインメント分野も大きく変わることは言うまでもない。第一に、AIが生成したコンテンツが市場に溢れるだろう。人工知能が生成または共同制作した映画、音楽、文学、ビデオゲームが当たり前になる。第二に、強力なAIが新たなレジャー・フォーマットを生み出すだろう。例えば、視聴者の反応にリアルタイムでプロットが適応する、完全インタラクティブな映画やテレビシリーズ。あるいは、超リアルなビデオゲーム/仮想世界(前編で述べたように)、シミュレーションの中で別の人生を生きることができる。エンターテインメントのパーソナライゼーションはピークに達するだろう:AIがあなたの好みを把握し、あなただけのコンテンツを作る。
おわかりのように、どの分野も変わることはない。理想的には、強力なAIが人類に「黄金時代」をもたらし、高い生産性、病気に対する勝利、知的・文化的繁栄をもたらすことだ。しかし、こうした変化は同時に課題ももたらす。
課題
強力な人工知能を作ることは、技術的な課題であると同時に、大きな社会的課題でもある。このテクノロジーは世界を激変させる可能性が高いので、起こりうるリスク/問題について事前に考えておく必要があります。そのうちのいくつかについては、すでに先に述べたとおりだ:
AIに対するセキュリティと制御(制御可能性の問題)。 最も重要な問題のひとつは、超強力なAIが人間の最善の利益のために行動することをどのように保証するかということだ。強力なAIが自ら学習し、自らを再設計した場合、我々とは異なる独自の目標を開発する危険性がある。AIが制御不能になるシナリオはSFの世界ではポピュラーだが、かなり本格的な科学者たちも考えている。例えば、超知能は理論上、与えられた目標を達成するために有害な予期せぬ方法を見つける可能性がある。典型的な例を挙げよう。制限を設けることなくペーパークリップの生産量を最大化するよう求めた場合、超知能はペーパークリップ工場の資源を得るために周囲のすべてを破壊する可能性がある。これは誇張された例だが、AIに我々の真の意図を理解させ、組み込みの制約(主に、人に危害を加えないこと)を持たせることが重要である理由を明確に示している。AIを制御する方法を開発することは優先事項である。専門家の中には、まず簡略化したAIのプロトタイプを作り、安全な環境でテストしてから現実の世界に送り込むべきだと言う人もいる。
乱用と危険な使用。 たとえ強力なAIそのものが制御されたとしても、人々がそれを悪用する危険性はある。どんな強力なテクノロジーでもそうであるように、AIはテロリストや犯罪者、不誠実な国家など、悪意を持った人々の手に渡れば武器になりうる。強力なAIが新型兵器の開発や致命的なウイルスの合成を手助けすることも、その恐れのひとつだ。
守秘義務。 強力なAIは膨大な量のデータにアクセスでき、それを使って何でもできるようになる。これはプライバシーの問題を提起する。例えば、AIがすべての電子メール、監視ビデオ、医療記録を処理するようになれば、それは完全なコントロールに変わるのではないだろうか?また、もうひとつ変わったところでは、AI自身の権利についてである。 いつか意識のある人工知能を作ったとして、それに一定の権利(存在すること、行動を選択すること)を認めるべきなのだろうか?現時点では仮定の話だが、哲学者たちはすでに、意識のある知的機械を奴隷として搾取することが倫理的かどうかを議論している。
そして最後に、 社会的不平等/技術へのアクセス性である。現実的な問題として、強力なAIが1つの国家や少数の企業の手に集中した場合、誰が所有し、管理するのだろうか?AIへの不平等なアクセスは、国家間の経済格差を拡大しかねない。AIを手にした者は、生産性において圧倒的な優位に立ち、文字通りあらゆることに影響力を持つことになる……。