AIが世界を滅ぼす? ジャッジメント・デイ(Judgment Day)はいつなのか?
映画 ターミネーターの第2作は、Terminator 2: Judgment Day
個人的にはターミネーターの作品の中でももっとも完成された作品だと思っています。
※以後の作品は、エイリアンと同じように後になればなるほど微妙となってしまうわけですが。。。
おっとWWE(プロレス)の話でもないですよ
※ブル中野さん WWE殿堂入りおめでとうございます。2024/04/06 ライブ見ます。
ちょっと脱線しましたが
今回は、映画の話でもWWEの話ではなく
AIが世界を滅ぼす? ジャッジメント・デイ(Judgment Day)が来るのだろうか?
つまり 審判の日がやってくるのかどうか? 考えてみよう。
題して
「AIが世界を滅ぼす? ジャッジメント・デイ(Judgment Day)が来るのだろうか?」
について
都市伝説っぽくなりますので 気軽に読んでください。
スポンサーリンク
目次
「カイロス」初号機 爆破
スペースワンの小型ロケット爆発、打ち上げ直後に爆発した。
宇宙スタートアップのスペースワン(東京・港)が13日午前に打ち上げた小型ロケット「カイロス」初号機が、直後に爆発した。日本の民間ロケットで初めて人工衛星を宇宙空間の軌道に投入する計画だった。スペースワンは原因究明を急ぐ。
内閣衛星情報センターの小型衛星を搭載していた。他の民間企業では、インターステラテクノロジズ(北海道大樹町)は2017年から観測ロケット「MOMO」の打ち上げを始めたが人工衛星は搭載していない。
スペースワンにはキヤノン電子やIHI子会社のIHIエアロスペース(IA)、清水建設などが出資する。キヤノン電子はカイロスに駆動系や電子制御に関わる部品の一部を供給し、IAはロケットエンジン部品などを担当した。
続きはこちらから👇
日本経済新聞
https://www.nikkei.com/article/DGXZQOUC06C1P0W4A300C2000000/
2024年3月13日
民間初のロケットは残念なことに失敗してしまいました。
ロケットは、数多くの失敗から成功となるのは常ですから次回はこれを元に成功になればと願います。
あのSpace Xだって初期のころはめちゃくちゃ爆発していますから。。。
問題は、
ニュースでも発表されていましたが、爆発したのは、事故ではなく 自爆ということです。
ロケットに何らかの異常が発見され 「打ち上げ数秒で爆破」されました。
そうです。「故意に爆破」されたものです。
日本の新聞では
安全に飛行できない恐れがあるとロケット搭載のコンピューターが自ら判断し、機体を破壊する措置をとったという。詳しい原因は分かっていない。
朝日新聞
https://www.asahi.com/articles/ASS3F66NJS3FPLBJ005.html
爆破指示を出したのは
「ロケット搭載のコンピューターが自ら判断」
「カイロス」初号機の打ち上げの後、「スペースワン」は13日午後2時から発射場近くのホテルで記者会見を開きました。
この中で、爆発の経緯について打ち上げのおよそ5秒後、ロケットの1段目が燃焼中に機体に備えた装置が作動し、飛行を中断する措置が取られたと明らかにしました。
この措置はロケットの飛行経路や速度、それに、内部の機器などの異常を検知すると、搭載された火薬などを使ってロケット側でみずから機体を破壊し飛行を中断するものです。NHKニュース
https://www3.nhk.or.jp/kansai-news/20240313/2000082710.html
記者会見で爆破指示を出したのは
「この措置はロケットの飛行経路や速度、それに、内部の機器などの異常を検知すると、搭載された火薬などを使ってロケット側でみずから機体を破壊し飛行を中断」
など ロケットが上手くいかなさそうだから コンピューターが自分で判断して自爆した
という感じで報道されています。
実は、爆破の指示をして自爆したのは、「AI」でした。
なぜか「AIが判断」したとは、公式には報道されていませんでした。
「AIが判断した」と書いてしまうと 都合の悪い人がいるんでしょうか?
このあたりに「日本のマスコミの闇」が隠されていそうです。
ともかく ロケットに搭載されていた「AIが、このまま続けても失敗と判断」して自ら自爆したわけです。
AIによる宇宙開発
AIを有効活用して開発コストや期間を短縮するのは、自分も賛成です。
■2013年に宇宙航空研究開発機構(JAXA)が打ち上げたロケット「イプシロン」初号機には、ロケットとしては世界初となるAIを使った自動・自律点検システムが搭載されました。これによって、機体点検の自動化・効率化に成功し、ロケットの「設置→発射」のプロセスを従来の42日間から7日間に短縮できました。
宇宙開発におけるAI活用の現状と新たな宇宙開発ビジネスでのAIの重要性
https://www.ai.u-tokyo.ac.jp/ja/activities/act-archive/act-20211018
すでにマイクロソフト オフィスにもAIが組み込まれ、スマートフォンもAIが組み込まれています。
今やあらゆるところにAIが組み込まれつつあります。
企業のサポートもAIチャットが行っているのが当たり前のようになってきました。
とここまでは、いいんですが、
AIが必ずしも正解を出すとは限りません。
AIだって間違える
例えば
Metaの画像生成AIは「アジア人男性と白人女性のカップル」をイメージできないという報告 - GIGAZINE
https://gigazine.net/news/20240404-meta-imagine-generator-asian-peaple/
イスラエルはAIシステム「Lavender」を用いてハマスなどの標的3万7000人を識別し攻撃している、識別率は90% - GIGAZINE
https://gigazine.net/news/20240404-israel-ai-lavender-identify-hamas-targets/
と言う記事が出ています。
識別率は90%ならいいのか? という問題もありますが、AIを活用している割には、民間人の死傷者が目立つのも気になります。
AIは、ネット上などの情報を収集し学習しています。
学習したモノの中には、間違った情報も含まれているわけです。
極端な例で言えば
AIの多くは、1+1=2 という答えではなく 1+1=2と言っているデータが多いから1
というようなものだと思っています。
AIのトレーニング過程で 間違った情報や恣意的な情報を与えたらどうなるのでしょうか?
はたして学習したAIは正解を導き出すことができるのでしょうか?
先のロケット爆発問題だって 本当は、成功していたかも知れない・・・
しかし、担当しているAIに失敗する可能性に対する情報を誰かが故意に学習させたかも知れません、
ここまでくると都市伝説になりますが、AIという仕組み上あり得る話だと考えても良いのではないでしょうか?
ましてや、今回、搭載していた衛星なんですが
搭載されていた小型衛星は、北朝鮮の軍事施設の動向把握などで使われる情報収集衛星を一部代替する役割がある。情報収集衛星が故障した場合などに備えて機能を検証する計画だった。
ようするにスパイ衛星なわけで これが稼働されては困る国もあるのです。
都市伝説の領域になってしまいますが、故意に失敗させるためにハッキングなんてことも十分あり得るわけです。
まとめ
「AIも間違える」
正確には
「AIを故意に教育することは可能」
ということになりそうです。
現在、AIについては多くの問題が指摘されています。
例えば楽曲作成AIでは、以下の問題が出てきました。
音声を盗んだりアーティストを置き換えたりする「略奪的AI」を非難する書簡にビリー・アイリッシュやスティーヴィー・ワンダーなど200人以上の著名人が署名 - GIGAZINE
https://gigazine.net/news/20240403-200-artists-letter-ai-replace/
ネットに転がっている情報を食い尽くしながら学習しているAI
ターミネーターのように簡単に自我が生まれるとは限りませんが、広大なネットの中を食い尽くすAIにいつ何が起こるかわかりません。
すべてのインフラをAIに任せてしまったタイミングで何かが起きた場合、取り返しのつかない状況に陥る可能性も否定できないと思われます。
そしてもっとも重要なのは、AIに任せることで 人が学ばなくなったり、創造する力を失うことです。
すでにTikTokの動画の世界では、「AIで動画を作成する方法」が紹介されると共にAIによってつくられた似たような動画ばかりになってしまいました。
そこには、オリジナリティーなことはなにもなく
「ただ 再生回数を稼ぐだけ」
という状況に陥っています。
勉強しなくても教えてくれるAIによって 人は退化するかもしれません。