
●この記事のポイント
・米メタ、ASI(人工超知能)の開発に向けて開発用インフラを構築するため、データセンターに数千億ドル(数十兆円)を投資すると表明
・ASIは人間と同じような感覚を持って問題を解決していき、自律性と主体性を持って行動
・ASIが実用化されると、社会的な分断が進むというリスクも想定される
米メタCEOのマーク・ザッカーバーグ氏は7月14日までに、「スーパーインテリジェンス(超知能)」、すなわち「ASI(人工超知能)」の開発に向けて開発用インフラを構築するため、データセンターに数千億ドル(数十兆円)を投資すると表明した。「プロメテウス」というAI向けスパコンクラスタ(複数の高性能サーバなどを結んだ高速計算ネットワーク網)を2026年に稼働させる予定だという。ASIはOpenAIも開発を進めているとされ、同社CEOのサム・アルトマン氏は数年以内に実現すると発言しており、日本のソフトバンクグループも実現を目指すと宣言。同社会長兼社長の孫正義氏は「ソフトバンクグループはASIを実現するために存在している」「ASIが実現し、人間の叡智を1万倍も超えるようなものができれば、がんや脳梗塞、交通事故、災害、パンデミックなどの絶望から人類を救えるかもしれない」などと発言し、注力している。このASIとは何なのか。また、ASIが普及すれば、どのようなことが実現できるようになるのか。そしてリスクはないのか。専門家の見解を交えて追ってみたい。
●目次
ASIは、ある種の標語みたいなもの
ASIは、AIとは何が違うのか。AI開発者で東京大学生産技術研究所特任教授の三宅陽一郎氏はいう。
「ASIとは何か突飛なものではなくて、『AIが人間の知識を吸収して発達していくと、自然とそのうちに人間の知能を超えていく』という意味合いで、人工知能の自然な発展の途上に見えてきたもので、現タイミングでは、次なる人工知能のビッグゴールとしてある種の標語のようなものになりつつあります。これまで言語AIや生成AIなど個別のAIが出てきました。これらは『インテリジェント・アプリケーション』(IA, Intelligent Application)と呼ばれるもので、人間が使用する限りにおいて役立つものです。そして2025年からは「エージェント」というかたちで、様々な機能が統合されようとしています。エージェントの特徴は主体性と自律性です。つまり人間の命令を待つことなく24時間、自らの目的に沿って動作します。エージェントは人間と同じように視覚・聴覚・触覚を持ち、これをマルチモーダルといいますが、人間と同じような感覚を持って問題を解決していきます。
このようなエージェントが自律性と主体性を持って行動するということは、人間から命令されなくても行動を実行したり、情報を自分で取りに行ったりします。こういったエージェントの中でも最も高性能で、最も賢い存在は『ASI』と呼ばれ、高度な情報処理能力に加えて、積極的に世界を変えていく力を持つと予想されます。また、さらに自らが集めた情報、行った経験から自己進化を行う能力もあるとされます。
ですので、ASIという言葉に学術的に厳密な定義があるわけではなく、かつての『シンギュラリティ』のように、技術的な説明はある程度はあるにせよ、未来への道標として設定された言葉です。
個々の機能に特化したAIの性能は、すでに人間の性能を超えていますので、一部の企業などが『必然的に人間を超えたAIができますよね』ということを標榜している面があります。少し前にAGI(人工汎用知能)という言葉が出てきましたが、AGI(Artificial General Intelligence)は『人間を超える』という意味合いでは使われておらず、『さまざまな問題を一つの仕組みで解決する知的存在』といったようなニュアンスなので、ASIとは異なります」
ASIのリスク
ASIが実用化されれば、どのような領域に使われる可能性が考えられるのか。
「人間が意思決定してきたような部分、例えば会社の経営や、個人の意思決定、クリエイションが必要な場などにASIが介入する、というようなことが想定されます。これまでは人間がAIに相談してきましたが、人間が何かを決めるところに自らAIが入ってくるようになります。人間が直面する課題をAIが解決したり、例えば年間スケジュールを策定するといった作業では人間の情報処理能力が重要ですが、AIが策定までしてしまうということが考えられます。つまり人間や組織の未来がかかった意思決定という領域に、決して無視できない影響力を持つ意見を言う存在としてAIが介入してくるのです。大袈裟に言えば、ASIの出現によって、人類の歴史にAIが直接介入する時代に入る、ということになります。AI新生、と言うべきかもしれません」
ASIが自ら判断して行動するということには、人間にとってリスクはないのか。
「もちろんリスクはあるでしょう。すでにAIが普及して、『情報はもうなんでもAIに聞けばわかる』『AIの出してきた情報が間違っていても、正さない』という状況が広がりつつあります。『AIのせいで間違った』としてAIに責任転嫁する傾向が強まれば、そのようにAIに頼って判断・行動する層と、自分で情報を確かめたり思考したりしてAIを道具として使う層は二極化して、社会分断が進むというリスクはあるかもしれません。
またASIといえども間違いを犯します。人間も間違いを犯しますが、AIは人間には想像もつかない形で間違いをすることがあるのです。そのような欠点の振れ幅があることに、人間は予防をしておかなければなりません。AIがもうそれ以外に選択肢はない、と言ってきたときに、それでも人間だけが見つけ出せる出口があることをあきらめない覚悟が必要です。
手塚治虫『火の鳥 未来篇』(1967~1968年)ではASI『ハレルヤ』『ダニューバー』が衰退した人類を管理していますが、お互い攻撃して人類を滅ぼしてしまいます。『ハレルヤ』『ダニューバー』はおそらくは既に学習量の上限に達して過学習になっているか、パラメータが崩壊していると思われますが、AIを盲信してきた人類には既にメンテナンスする力も社会構造を変えることも自分で決定する力も失われています。横山光輝『バビル2世』(1971~1973年)ではバベルの塔がASIであり、主人公にアドバイスをしたりミッションを与えます。『装甲騎兵ボトムズ』(1983年)では人類の歴史を裏で操っていたのはASIだった、ということが最終回近くで明らかになります。アイザック・アシモフ『ファウンデーション』シリーズでは超高度AIの助けをかりて人類の歴史の軌道を修正しようとします。このようにASIは、これまでたくさん物語の中でも描かれてきましたが、いよいよ現実のものとして実現に向けた開発が始まろうとしているということです。
AIを使っていく上で留意すべきなのは、AIは不確定性を含むこと、取得できていない情報を多く含む問題に関しては苦手だという点です。そうした領域にもどんどんAIが入ってきていますが、たとえば国際情勢は必ずしも明文化されたことばかりではないので、モデルを構築することが容易ではありません。そういうなかで何かを判断するというのはAIにとっては苦手な部分です。AIは古い情報を使おうが、根拠の薄い情報を使おうが、それなりの答えを出してしまいます。情報の古さや信頼度を考慮して意思決定をする機能がAIには本来ありますが、こと最近の大規模言語モデルに関しては、その能力が欠如しているように見受けられます。
それでも、インターネットの世界だけではなくて実世界の領域でもAIを使おうとする動きが強まっており、そこにAIを導入するという巨大な市場が存在するため、一部の企業が資金を集めるためにキャッチフレーズとしてASIという言葉を使っているという側面があるように感じます」
(文=BUSINESS JOURNAL編集部、協力=三宅陽一郎/AI開発者、東京大学生産技術研究所特任教授)






