2017年1月8日日曜日

ジェイムズ・バラット「人工知能 人類最悪にして最後の発明」

年末年始は音楽関連の小説を11冊連発しました。そろそろ平常モードに戻ります。…という訳で、表紙もタイトルもちょっと毒々しい本:


ジェイムズ・バラット(著), 水谷 淳(翻訳)「人工知能 人類最悪にして最後の発明」
<https://www.amazon.co.jp/dp/4478065756/>
単行本: 408ページ
出版社: ダイヤモンド社 (2015/6/19)
言語: 日本語
ISBN-10: 4478065756
ISBN-13: 978-4478065754
発売日: 2015/6/19

[書評] ★★★★☆

もし、人工知能(AI)が自身を人間より偉いと思ったり、人間を邪魔だと考えたら、世界はどうなるのか? 古くからSF作品等で取り上げられてきたテーマを、AI研究者へのインタビューを通じて正面から考察した本。このテーマについては、よく知られるところでは、理論物理学者のスティーヴン・ホーキング氏が「完全な人工知能を開発できたら、それは人類の終焉を意味するかもしれない」、「人工知能の発明は人類史上最大の出来事だった。だが同時に、『最後』の出来事になってしまう可能性もある」と危惧を示し、サン・マイクロシステムズで首席研究員を務めたビル・ジョイ氏が「ロボット工学や遺伝子工学、ナノテクノロジーといった21世紀の強力なテクノロジーが、人類の存在を脅かす」という警鐘を鳴らした。

本書は、人工知能(AI)を脅威とみなす側で書かれた書籍。AIが賢くなればなるほど、その行動原理は人間の理解の及ばないものになる。人間のような倫理観、フレンドリーさを持っていないAIが作られてしまった場合、そのAIは自身の目的を果たすため、我々人間から資源を奪って活動する可能性がある。人類は滅びる可能性が非常に高くなる。…という内容。特にカーツワイル一派に対する批判が度々出て来る(カーツワイルらの人工知能・ナノテクノロジー・ゲノム技術の展望は楽観に過ぎる、AI (を含むテクノロジー)を人工生命や人間の生死に結び付けてしまっている点は「科学」ではなく最早「宗教」だ、とする点は同意出来る;が、この批判姿勢はかなり強硬だ)
非専門家が書いた本としては良くまとまっていると思うが(著者はドキュメンタリー作家)、AIの脅威に関する本質をちょっと外していると思える点もあり、いたずらに非専門家の読者層の危機感を煽るような書き方が多い点は×。

ただ、コンピュータ(AI)が「意識」「感情」を持つと仮定した場合、人間や社会に関する重要な判断を全てコンピュータに任せてしまうと、古くはG・オーウェル(著)『1984年』や、竹宮惠子(著)『地球(テラ)へ…』などのSF作品に描かれているようなディストピア(暗黒郷)を作りかねない、という懸念はおそらく正当だ。本書では、AIの能力が一定以上に高まると、AIは管理区域(スパコンの中)から「逃げ出し」、自発的に「情報収集・学習を重ね」て加速度的に賢くなり、自らの目的を達成するために「地球や宇宙の資源を奪い尽くし」、いずれ人間(そしてあらゆる生命)を滅ぼすと言っている。これは極論にも思えるが、万が一にもこのような事態が起こるのを防ぐ為に、最終的には人間の判断が優先するとAIに教える必要があるだろう。また、本書に示された「アポトーシス」プログラムのように、人間側から定期的に「死刑執行猶予期間延長」を与えられたAIのみ生き永らえさせる(この「恩赦」を得られなかったAIは消去され、研究者は「セーブポイントからやり直す」ことが出来るようにする)という仕組みも有効かも知れない(pp. 316-318)。が、いずれも100%安全とは言い切れないのが頭の痛い所ではある。

まとめると、非専門家に対してAIへの恐怖感を必要以上に煽るような書き方はイタダケナイ。が、AI研究とその発展が伴う危険性について広く知らしめる書籍、また今後のAIが持つ危険性・安全性を考える資料として、一定の価値はあると思う。個人的にも結構興味深く読むことが出来た。

・  ・  ・  ・  ・

以下各論(PRO/CONリスト)。

◆PRO (同意できる点、参考になる点)
  • 1950年代からのAI研究の概要と、最近のブレークスルー(ディープラーニングによる認知能力の向上)等に関する記述はよくわかる。
  • AI研究のメインがニューラルネットワーク(ディープラーニングも多階層のニューラルネットワーク)や進化的アルゴリズムに移ってきているという話はよくわかる。これらのアルゴリズムは必然的に「ブラックボックス化」してAIの行動原理が分からなくなり、本質的に安全性が検証されることが不可能であるという意見(第7章)は説得力が高い(脳の神経細胞の結合がわかったところで、その人の性格や行動までは理解できないのと同様)
  • AI開発を強く推し進めるのは、軍事用途(米国ではDARPA=国防高等研究計画局=が多額に出資している)・金融市場(特にHFT=高頻度取引=)とされる。国家の存亡、あるいは組織や個人の富の創出のため、無尽蔵とも思える資金が充てられるのは理解できる。前者(軍事用途)は、たとえば湾岸戦争で戦力配置と物資供給の最適化にAIを用いることで軍事費が大幅に削減できたという実績があり、AI研究にDARPAから多額の出資がされるようになったという。金融用途にはもしかしたらDARPAをも超える資金が充てられているのではないかという分析はおそらく正しい(しかもこれらは特定の個人・組織が秘密裡に開発・運用する/している可能性が高い)。が、ここで開発されるのは金融取引に特化したAIであり、即AGI (汎用AI)に結びつくとは考えにくいが…。
◆CON (同意しかねる点)
  • 突き放した言い方をすると、本書は、未検証の技術が持つかもしれない、未検証の危険性について論じているだけに過ぎないと言える。また、未検証の恩恵と、未検証の危険性とを天秤にかけようとしているとも言える。このような議論にどれ程の意味があるかは、少なくとも現段階では何とも言えない。が、本書(に代表されるAI脅威論)は、AIそのものの研究・開発については勿論、AIの安全性確保に取り組んでいる人・組織に対する研究開発予算をも削減させかねない点が気になる。
  • 人工知能のこれまでのブレークスルーと、AIが「意識」「衝動」を持つようになる可能性、AIが人間の設計や指示とは関係なく勝手に学習進化して「超知能」を持つ可能性、をごっちゃに論じている箇所がある。そもそも人間や動物の「意識」についても解っていないことが多い上に、現在のAI研究の延長上に「コンピュータが意識を持つ可能性」があるかどうかも解っていないのに、無駄に危機感を煽っている感さえある。人間をはじめとする動物の認知モデルにヒントを得たシステムでは(近年話題のディープラーニングもこの範疇)、最終的に人間の脳がおこなっていることを達成するには不十分かもしれない、と本文中にも書かれている(p. 267)。
    • 人間の脳が、多くのサブシステムからなる高度に並列化されたシステムであり、「本能」(闘争/逃走)や「無意識」が非常に重要な役割を担っていることががわかっているが、まだ理解できていない点は非常に多い。参考書籍→マイケル・S・ガザニガ『〈わたし〉はどこにあるのか: ガザニガ脳科学講義』(紀伊國屋書店、2014) <https://www.amazon.co.jp/dp/4314011211/>
  • コンピュータが本当に思考しているかどうかについて、IBMの主任科学者D・フェルッチ(人工知能「ワトソン」の開発者の1人)が引用した言葉「潜水艦は泳ぐことができるのか?」を引いているのはある意味面白い(オランダ人コンピュータ科学者エドガー・ダイクストラの言葉、p. 295)。が、現在人間にしか任せられない重要な判断をコンピュータに任せるか、それとも最終的な判断の権利を人間に残すのかは、別の問題だと考えるべきではないのか。
  • サイバー犯罪やマルウェアの脅威(AI的な「賢さ」を持つものが出てきているのは事実)とAIの脅威をごっちゃに論じている部分も多く見られる。勿論、AIがその目的によってはマルウェアを利用したりボットネットを構築したり、サイバー犯罪を行う可能性は充分に考えられるし、サイバー戦争ではそのようなAIが用いられる可能性はある為、注意する必要はある。が、そのようなAIも自らの創造主(設計者)を滅ぼさないように作られるであろうから、人類全体を滅亡させることを過剰に心配する必要は無いのではないか(もっとも、核兵器や生物兵器等とはと異なって、高度に管理されていない環境でもAIは設計・作成可能である為、設計者が不注意で大ポカをする可能性は核兵器・生物兵器等と比べて高いと考えるのは正当だろう。また実際に、AIによる複数のHFT (高頻度取引)システムが金融不安をもたらしたり、イランの核開発設備のみを攻撃するはずだったスタックスネットが外部に漏れたという悪しき先例があるので、充分な用心と対策が必要である点は否定しない)

0 件のコメント:

コメントを投稿