人工知能 人類最悪にして最後の発明 (ジェイムズ・バラット)

 

人工知能 人類最悪にして最後の発明

人工知能 人類最悪にして最後の発明

 

  人類の生活の根本を変えるのではないかと期待されている人工知能の技術の発達であるが、スティーブン・ホーキングやイーロン・マスクなどを始めとして、人工知能に対して警鐘を鳴らす人々も多い。著者もその一人で、人工知能に対して懐疑的な人物である。”懐疑的”といっても、人工知能が発達して汎用人工知能(Artificial General Intelligence:AGI)が実現された時、AGIは自己進化を続けるだろう。ムーアの法則に代表されるようにテクノロジーの世界は指数関数的な成長を遂げるものであるから、AGIが一度動き出せば高速で自己進化を続け、すぐに人間の知性の及ばない存在となる。設計段階で悪意がなかったとしても(世界の一部の開発者の中には意図的な悪意をもって開発するチームもいるだろうが)、完璧にリスクを取り除けなければ人工知能は人類の存亡に大きく影響を与えかねない脅威になるだろう。しかし世界的にAGIを作る試みは必ずどこかで展開されており、軍事的、経済的インセンティブが働き続ける限り開発を止めることはできない。原爆のように、人類は自ら作り出した技術で自らの存在を脅かすことになるのだ、というのが本書の趣旨。

 
 IBMのワトソンやAppleのSIRI、GoogleFacebookなど、テクノロジー界の巨人たちはこぞって人工知能関連の企業を買収して、その技術を自社のサービスに役立てようとしている。軍事関連の技術開発でも盛んにAIの開発を行っているという。これらの開発はあくまで自社の利益、自国の利益を目指して開発するものでビッグパワーを持った組織は悪意を持って開発を行っているわけではないと信じている。本書では技術が自律的に暴走を始めることを懸念している。他のAI関連のテクノロジーについて述べた本は機械学習が〜、ディープラーニングが〜といった事を語った本が多い中、本書はさらにその先の先の未来の事を見ている。インタビューにおいてもAIの信頼性に対する懐疑論者中心の意見がまとめられており、その将来について確かに脅威を読者に覚えさせる内容であった。確かにAIの発展を止めるすべは無いし、客観的にみてもそういった脅威は存在しうるだろう。ターミネーターの世界のスカイネットは現実になるのか、それとも開発者の人類の知能が上回り暴走を完璧に制御したシステムを作ることができるのか。後者の未来が来て素晴らしい生活を手に入れることを望むばかりである。
 
以下あらすじ
===
第1章人類はこうして絶滅する
自己成長する人工知能を作る事は人工知能研究の一つの目標である。しかし、その存在は自己成長を始めた途端に指数関数的な成長を遂げて、人間の理解の及ばない存在になり制御不能になるだろう。ヨーロッパ人が新大陸に上陸した時のように、AGIにとって人間の尊重は優先すべき事態ではなく、脅威になりうる。
 
第2章 一度起こればもはや手遅れ
一度AGIが作られればそれは核兵器と同じようなもので脅威になりうる。成長した知能を人間が完璧にコントロールするのは困難だ。
 
第3章 グーグルXとアルカイダに共通する怖さ
人工知能研究は必ずしも大規模な組織でないと進められないというわけではないだろう。悪意を持った組織が開発する恐れもある。IBMのディープブルーはチェスにおいてチャンピオンを破った事は有名だが、その思考アルゴリズムは人間とは異なるものである。人間の知性を再現しようという試みは模倣品を作るに終わる。
 
第4章 チューリングテストとAIボックス実験
AIが抱える人類に対して有害な行動を起こすというリスクを抑えたAI、すなわち、フレンドリーAIを実現すれば人類はAIからメリットだけを享受できる可能性がある。しかし発展したAIがどうして必ずしもフレンドリーAIのプログラムを棄却しないと言い切れるだろうか。ユドカウスキー氏などのようなフレンドリーAIの提案者と、筆者ではその立場に相違がある。
 
第5章 遺伝的プログラミングの落とし穴
プログラムを他のプログラムと自動的に補完しあって機械学習を洗練していく自己学習プログラムは、個々のプログラムの意義がよく分からなくても元々のプログラムよりも優れている事が十分ありうる。自己意識をして進化するソフトも自己を考えたときに有害な事を考えつくかもしれない。
 
第6章 人工知能の四つの衝動
 
我々をはるかに超える人工知能は我々の想像を超える挙動を示すだろう。四つの衝動、すなわち、効率性、自己保存、資源獲得、創造性といった性質は機械が飛躍的に成長する手出けをするだろう。これらは一度回り始めれば我々が止める事はできないものになる。
 
第7章 数学者グッドの予言
チューリングとともに第二次世界大戦において暗号解読に尽力し、初期のコンピュータを設計することに携わったI.J. グッドは、超知能の誕生に当たって初期段階での介入が人類の生存に関わるという考え方であった。しかし晩年には人工知能の誕生には超知能は人類を絶滅させるという考え方に傾いていたと考えられる記載があった。
 
第8章 金融マーケットで人知れず進化するAI
金融マーケットでブラックスワンと呼ばれる急激な予測不可能な値段の変化が自動取引システムから起こるという事例が何回かあった。新しく生み出されたAIはまず金融マーケットで試される。クオンツたちはそのためのAIを常に研究しており、そこからAGIが生まれる可能性もある。
 
第10章 カーツワイルのシンギュラリティー 再考
AGIはそれまでのテクノロジー同様良い目的、悪い目的に使われる可能性がある。当然国防の分野でもAGIは大規模な投資を受けて開発されており、超知能が兵士に使用される可能性がある。これは先行者利益がある事であり、最初の開発者、使用者がその恩恵を受けるだろう。善悪二面性のどちらにも対応できるよう、我々みんなが一緒に立ち向かわなければならない。
 
第11章 膨大な資金はだれが出しているのか?
AI研究は軍事組織から巨額の支援をこれまで受けてきた。アップルに買収されたSIRIの発端もそこにある。また、経済学的なインセンティブもAIへの投資の動機となっている。
 
第12章 あまりにも、あまりにも複雑
AGIはあまりに複雑で実現しないと考える人がいる。しかし、我々の知能はAGIであり、自然が数百万年かけて作る事ができた。賢い人間であればそれよりも短い期間で作り上げる可能性がある。かつて公式なく微積分をしようものならば膨大な計算量が必要であった。しかし知識が体系化されたことで現代では容易に計算が可能になった。今後人工知能の分野でも同様のことが実現されるだろう。
 
第13章 超知能を生む脳のリバースエンジニアリング
人間の知能を再現するのに最も可能性が高い手法は人間のシナプスの動きをまねる、リバースエンジニアリングだろう。シナプスと同様に働く並列のシステムは効率的に動作した。人口の知能が人間と同様の知的活動を行う事を、思考している、と定義するのは難しいだろうが、同様の事を効率的に行っているだけであり、本質的に同様だろう。
 
第14章 AI研究にルールを作れるか
ガイドラインを作成したり、AIに自殺コードを埋め込むことなど、対策は考えられるが、100%トラブルを防ぐと言い切れる方法は存在しない。
 
第15章 もし社会インフラを人工知能に乗っ取られたら
情報技術の世界では攻撃側が何千回もチャンスがある一方で防御側は100%のセキュリティを、大量の情報を用いて目指す必要がある点で攻撃側に圧倒的に有利である。マルウェアは世の中に大量に存在し、その動作も軽快である。一部のマルウェアは軍事目的に利用されたことがある。
===
 

コメント