前々回、前回の記事をお読みになった多くの方は、すでに「AI(人工知能)なんて怖くない!」と思われたことと思います。「なるほどー、自意識も意思も責任感も持たず、原則人間の敷いたレール、お手本に従った、トレーニングを施され、入出力の対応関係をキャプチャーするだけなのだな」と。
ただし、従来人間が数式や法則を理解してプログラミングしていたのと違って、人間が把握不能な膨大なパラメータをそのまま扱えるため、人類史上初めて「暗黙知」と呼ばれるタイプの説明不能な知識をキャプチャーできるようになった事実は重要です。多数のまとまった業務について、そのベスト・プラクティス、すなわち、優秀な人間の仕事のインプットとアウトプットをAIにキャプチャーさせる。そうすると、大多数の普通の人はAIにかなわなくなる、という考え方にも説得力があります。この意味でAIが怖いというのはわからなくはない。
でも、正解が毎回違うタイプの仕事や前例のない事態で機転を利かせたり、論理的思考で切り抜けたりしなければならない仕事もたくさんあります。これらは、人間にしかできません。いわゆる雑用といわれる業務をそこそこ適切にいろいろこなせるだけでも、AIに駆逐されることはないのです。
意識さえもたないAIが、自ら殺意や敵意をもつ「怖い」存在になることもありません。この意味でも、AIなんて怖くない! では怖いのは何でしょう? 答えは、「人間」です。
最もたくさんヒトを殺す動物は?
「1年で最もたくさんの人間を殺す動物は?」というクイズがあります。ビル&メリンダ・ゲイツ財団がまとめた驚きの結果には、72.5万人を殺す「蚊」を除けば、人間が突出して多い47.5万人(この数字からは戦争などの武力行為は除かれています!)。蛇の5万人、ワニの1000人、そして恐怖の象徴みたいなライオンが100人、サメにいたってはたったの10人です。びっくりですね! 我々の感覚、印象がいかに誤っているかを見せつけられた気がします。直感、印象に従っていると、大きな間違いを犯し、無駄な対策にコストをかけてしまうのでは、と心配になります。数字や論理で補正しないといけませんね。
AI兵器、兵士を開発する動機
AIが、人間による人間の殺戮を助長するという説があります。AI関連の学会には倫理委員会があり、AI兵器開発の全面禁止を呼び掛けたりしています。この点、徴兵制のある国とない国では少し事情が違います。自分の愛する息子や娘が徴兵されたら、若い彼らは前線へ送られ、意に反して戦場で死んだり敵を殺したりしなければならなくなり得ます。それくらいなら、自国でAIロボットを開発して、息子や娘の身代わりにさせてほしい。そう思う親の気持ちは痛いほどわかります。ですので、徴兵制の国で、ロボット兵器の開発に熱心なのは理解できます。
許せないAI兵器
では、遠隔操作の無人ドローンが、画像認識で人間を見つけるたびに大量殺戮するようになったらどうでしょうか。現実に、安価なベストセラー銃AK-47で有名なカラシニコフ社が、そのようなドローンを、格安で大人数を殺せると宣伝して世界に販売しています。しかも、その自爆ドローンに「カミカゼ」と名付け、日本人の神経を逆撫でしてくれています。
無人ドローンによるソレイマニ司令官の殺害
2020年の新春、ツイッターには、#WW3など、第三次世界大戦を表すハッシュタグが溢れました。トランプ大統領が、「自衛のため」「戦争を止めるため」と称して、無人ドローンを飛ばし、イランの革命防衛隊司令官ソレイマニを殺害したからです。殺害された司令官の所属、革命防衛隊って、国家元首の親衛隊のようです。とすれば、戦前の日本などなら近衛兵。天皇陛下に忠実に仕えた近衛師団のトップを外国政府に殺害されたら、国民はどんな気持ちになったでしょうか?
こういう想像力を働かせると、イランの人々に同情の念を禁じ得ません。報復をエスカレートさせ、旧大日本帝国のように、負け戦とわかっていて戦争を起こすのではないかと危惧した人が #WW3 などを世界中で使い、懸念を表明しました。
これはソレイマニ司令官を殺害したとされる米国の軍事用無人ドローンです。この型以外にも多種多様な無人ドローンを米国は開発しています。AI搭載の完全自律型ドローンに、ターゲットを選ばせることもできるようです。AIの認識精度は 100%ではないので、誤爆で機械に殺される無実の人も将来は出てきてしまうことでしょう。『ドローン情報戦――アメリカ特殊部隊の無人機戦略最前線』(著:ブレット・ヴェリコヴィッチ/原書房)という翻訳書に詳細があるようです(筆者は未読)。
AIに意思決定させたほうがマシ?
これまで米軍は、あり得ない極端な選択肢を混ぜ込んでおいて、軍の思惑通りの選択肢(たとえば今回なら「敵にプレッシャーを与えるため前線へ部隊を投入」など)を歴代大統領に選ばせてきたといいます。官僚主導だった昭和時代の日本でも政治家に対して同様のことが行われ、そこそこ賢い、穏当な政治決断に貢献してきたと思われます。
しかし、今回のように司令官殺害という極端なオプションをトップが選んでしまうなら、いっそ意思決定をAIに任せたほうがいいのでは、という極論も沸き起こってきます。もちろん、責任をとる最終決定者の人間がその意思決定の根拠を理解できるような次世代AIでないとまずいわけですが。
人間の悪意をキャプチャーしてしまったAI
軍事用以外のAIでも、かつてマイクロソフトのTayが差別発言を多発するようになって閉鎖に追い込まれたなど、「邪悪化」するAIの話題があります。この件はもちろん、悪意をもった人間たちが、素直に入出力の対応関係をキャプチャーしてしまうAIに、差別発言をするようにデータを仕込んで学習させたことによります。
「人類を絶滅させるわ」発言のロボットは、開発者のブラック・ジョークだったかもしれないとの説もありますが、いずれにせよ、背後にいる人間の悪意、もしくは悪意をまぶした冗談などの意図が起こした物騒な話題です。人騒がせなジョークで炎上マーケティングを行い、安い宣伝費で有名になりたいベンチャー企業も交じっているかもしれません。
AI開発のハードルが下がると背後の人間の悪意も剥き出しになる
しかし、最近騒がれたように、ツイッター・ボットが切々と、人類滅亡を説いてきて相手を鬱にさせたり、自殺を勧めてくるようですと洒落にならないでしょう。実際にメンタルが悪化したり、最悪、本当に自殺してしまう人が出てきたら、開発者は自殺幇助や、未必の故意による殺人の罪に問われることでしょう。フェイク動画を誰でもつくれるソフトも出てきているように、開発のハードルは下がってきています。政治家や軍人でなくともAIを操ってこのようなことができる時代になってしまいました。やはり、怖いのは人間です。
(文=野村直之/AI開発・研究者、メタデータ株式会社社長、東京大学大学院医学系研究科研究員)
【お知らせ】
『人工知能が変える仕事の未来』、文庫版企画始動
日本経済新聞出版社からロングセラー認定されている、著書『人工知能が変える仕事の未来』の文庫版企画が始動しました。文庫化にあたり、書籍の文字数を半減させなければなりません。そこでこれを機に、皆様からどのネタは残してほしい、あるいは逆にこの部分は削ったほうが良い、内容を更新したほうが良いというコメントを2月中旬まで募集しております。こちらからお寄せください。お早めがありがたいです
・1/31までに頂いたコメントのうちベストコメント上位5名様に、刊行された文庫本を贈呈
・最高のご貢献をされた1名様のお名前は書籍中の謝辞に記載
とさせていただきます。AIブームが落ち着いてきた今こそ、『人工知能が変える仕事の未来』を読んで、AIの全体像を俯瞰してみませんか? 皆様のコメントお待ちしております!