「AIがいつか人類を滅ぼすかもしれない」
そんなSFのような終末論が、最近また注目を集めている。2025年、新たに刊行された書籍や報告書で、いわゆる「スーパーインテリジェンス」が人類にとって壊滅的なリスクになり得るという主張があらためて提起された。WIRED.jp+2ウィキペディア+2
果たして、そんな未来は本当に現実になるのか?
あるいは、それは過剰な恐怖か。この記事では、AIの可能性とリスク、現実の研究知見、そして私たちに求められる「どう付き合うか」を、できるだけわかりやすく検証する。
目次
なぜ“AI終末論”が再び注目されるのか
最近、AIによる人類絶滅の可能性に警鐘を鳴らす論者たちが浮上している。2025年9月に刊行された If Anyone Builds It, Everyone Dies は、スーパーインテリジェンス(人間を超える AI)が誕生すれば、人類が生き残る可能性はほぼゼロになると主張する。著者たちは、AIに与えられた目的(報酬関数)がどんなに善良に設計されていても、人間の価値観とズレを起こす「アラインメント問題」が避けられないと警告する。ウィキペディア+1
また、著名な AI 研究者たちもこのリスクを認めている。たとえば、AI研究の草分けである Geoffrey Hinton 氏は、近い将来に AIが人類を超える知性を持つ可能性を指摘し、「人類滅亡の確率」を 10〜20% と公言した。ガーディアン
こうした主張が注目されるのは、単なる過剰な警告ではなく、AIの性能と普及速度が想定を超えて加速しているからだ。
科学者、研究機関はどう見ているか — 過度な悲観と過度な楽観のはざまで
一方で、「AIが人類を絶滅させる」というシナリオに懐疑的な研究者も多い。たとえば、英国系シンクタンクによる最近の調査では、「地球上での人類の分散性、数、適応能力を考えると、AIが単独で全人類を絶滅させるのは現実的ではない」とする結論が示された。Scientific American+1
また、2025年に発表された論文(例:Humanity in the Age of AI: Reassessing 2025's Existential-Risk Narratives)では、現在の AI には「自己改善(recursive self-improvement)」「自律的戦略意識」「人間と根本的に異なる目的の形成」といった“終末シナリオに必要な要素”は確認されていない、という分析もある。arXiv+1
つまり、今の AI は確かに強力だが、人類絶滅をもたらす“スーパーヒューマンAI”には至っていない、というのが多くの専門家の冷静な見方だ。
リスクは「絶滅」だけではない ― 制御不能、インフラ破壊、監視社会の拡大
それでも AI の危険を軽視すべきではない。先ごろ発表された国際報告(2025 International AI Safety Report)では、将来的に高度な汎用 AI やスーパーインテリジェンスが登場した場合、制御の難しさ、インフラへの依存、悪用、そして監視社会への展開といった深刻なリスクがあると指摘されている。ウィキペディア+1
また、サイバー攻撃、重要インフラ(エネルギー、医療、通信、水道など)への悪用、偽情報拡散、社会の分断、経済・雇用構造の崩壊――こうした現実的なリスクは、今この瞬間も進行中だ。既に一部の専門家は、AIの安全性は「最低限の対策」で足りるものではなく、「厳格なルールとガバナンス」が不可欠だと警告する。arXiv+1
終末論が極端な理由 ― 想像力と恐怖のスパイラル
「AIが人類を滅ぼす」という物語が繰り返される理由の一つは、終末論者たちが持つ強い想像力と、現代技術の急速な進化に対する根源的な不安だ。彼らの主張はしばしば SF 的で象徴的だが、その根底にあるのは「最悪を想定しておくべきだ」「これ以上開発を進めるなら回避不能」という危機感だ。
しかし批判者からは、「あまりに極端で、科学的な根拠に乏しい」「確率もメカニズムも不明瞭」「現実の優先すべき問題(サイバーセキュリティ、偏見、不正利用など)から目をそらすもの」として否定されることも多い。Scientific American+2Altair Japan公式ブログ+2
終末論が広まる背景には、不確実性の恐怖と、それに対する社会の不安がある――しかしそれをそのまま未来予言とするのは、慎重であるべきだ。
私たちにできること ― 制御と制度、そして「どう付き合うか」の選択
それでは、私たちはどうこの問題と向き合い、備えるべきか。以下のようなアプローチが考えられる。
まず、技術の開発と安全性の確保を両立させるために、国際的なガバナンスと法整備が必要だ。たとえば、国家間で「フロンティアAI研究の一時凍結」「安全性審査の義務化」「透明性と説明責任」「制御不能時のオフスイッチ(kill switch)」の導入などが議論されている。arXiv+1
次に、AIを使う個人や企業側も、倫理と責任を持った利用を心がけること。過度な万能視を避け、不正利用、偏見、プライバシー、差別などのリスクに注意し、AIには過信せず、人間の判断と監督を残す。
そして最後に、私たち一人ひとりが「技術とどう付き合いたいか」を考えることが重要だ。AIは人類の味方にも敵にもなりうる。だからこそ、私たちは「何を大切にするか」「どこまで技術に頼るか」を選ぶ責任を持つ必要がある。
終末論は警告か?それとも過剰か?
AIが人間を滅ぼす可能性――それは、完全には否定できない未来のひとつとして、社会に問いを投げかけている。だが同時に、今のところそのリスクは「確定」ではなく、「仮説」に過ぎない。多くの専門家は、AIの恩恵とリスクを見極めながら、慎重に発展させるべきだと主張している。
終末論は、私たちに「何が起こるか分からない未来への覚悟」と「対策の必要性」を教えてくれる。だが、未来を語るなら、恐怖だけでなく、責任と希望をセットにして語うべきだろう。
AIは、人類にとって「敵」かもしれない。しかし、それは私たちがそう選ぶときだけ――選ばなければ、AIは便利な道具であり続ける。
未来は、テクノロジーによって決まるのではない。
それを使う「私たち人間」が決めるという ターミネーターのエンディングでサラが言った台詞に集約されそうだ。
ひとりごと
今から10年ほど前 金融エンジニアとして最前線で仕事をしていた頃の話
米国の投資会社では、AIが他のAIに負けたとき 担当者に言い訳をした
「この回線が他社の回線より 0.01秒遅いのですぐに 取引所の近くに引っ越しを命じる」
と言ったとか言わないとか・・・
ジョークだと思いますが、AIによる取引が中心になっている現在の市場では、AIの性能以上にインフラが重要視されるのは事実だと思います。
