地元の中学生、藤井聡太棋士の連勝がストップ。残念でしたが、名人目指して頑張ってほしいと思います。藤井棋士の話題で盛り上がっていた先週、人工知能に関するNHK特集に偶然遭遇。人間と人工知能による将棋の勝負がメインストーリーでしたが、いろいろ考えさせられる点の多い番組でした。
1.ポナンザ
舞台は将棋電王戦。佐藤天彦名人(最高位)とAI(人工知能)ポナンザの対戦。佐藤名人は昨年5月の名人戦で羽生善治名人に勝利した将棋界のエースです。
ポナンザは自分自身で学ぶ「機械学習」によって過去20年分の対局棋譜を解析し、あらゆる局面で「最善手」を見つけ出すようプログラムされています。
電王戦第1局の終盤戦、ポナンザは佐藤名人の予想外の差し手を展開。ポナンザをプログラムした開発者の理解をも超えた高度な「機械学習」が行われており、AIの思考過程はブラックボックス化しています。
第2局では、ポナンザは第1手から人間は絶対に指さない奇手を差し、9時間の激戦の末、佐藤名人が完敗。6年続いてきた電王戦はこれで一区切りだそうです。
ポナンザはAI同士の対局(言わば練習試合)を700万局差しました。人間が1年に3000局(1日約10局)しても2000年を要する対局数です。
佐藤名人曰く「AIは人間同士の対局では気づかない差し手を学習しているのかもしれない」。佐藤名人自身もその後の人間との対局で今までとは異なる棋風で勝利。佐藤名人もAIとの対局で新たな学習をしていたのかもしれません。
AIとの対局は、将棋に先立ち、チェス、オセロ、囲碁でも行われてきました。
世界で最初のチェスによる人間と機械の対局は1912年。もちろんAIと呼べるものではなく、計算機の類との対局でした。
第2次世界大戦後の1967年、ボストンで開催されたチェス選手権に初めてコンピューターが参加。実力はアマチュア上位レベルだったと言われています。
その後、コンピューターに改良が加えられ、1988年、初期AIの「ディープ・ソート」が初めて人間の強豪に勝利。
1996年、「ディープ・ソート」にさらに改良を加えた「ディープ・ブルー」が、世界チャンピオン、ガルリ・カスパロフ(ロシア人)に勝利しました。
同年の対局は6回行われ、「ディープ・ブルー」の1勝2敗3分でしたが、翌1997年は2勝1敗3分。チェスにおいて、AIが人間を超えた年として歴史に刻まれました。
同時期、オセロでもAIと人間の対局が行われていました。1980年、AI「ムーア」が世界チャンピオン、井上博(日本人)との6番勝負で初めて1勝。
「ディープ・ブルー」がチェスでカスパロフに勝ち越した1997年、オセロのAI「ロジステロ」も世界チャンピオン、村上健(日本人)との6番勝負に全勝。1997年は、チェスとオセロでAIと人間の勝負に決着がついた年となりました。
囲碁AIの開発は1980年代以降。アマチュア上位程度の実力で足踏みし、当時、AIは人間の初段には勝てないと言われていたそうです。
しかし、2000年代に入って開発が進み、アマチュア有段者程度の実力に向上。2012年にはアマチュア6段程度と認定されました。
そして、その後登場したのはグーグルが出資する英国ディープマインド社が開発したAI「アルファ碁」。2015年にプロ棋士と対局して勝利。
2016年、「アルファ碁」は世界トップレベルの棋士、李昌鎬(韓国)に勝利。囲碁AIが人間を超えた年となりました。
昨年末、インターネット上に突然登場した囲碁アカウント「マスター」。インターネット上での強豪棋士との対局で60連勝以上を重ねて話題となっていますが、正体は「アルファ碁」の新バージョンと判明しました。
チェス、オセロが1997年、囲碁は2016年、そして将棋は2017年。それぞれAIが人間を超えた年として語られ続けます。
番組に戻ります。番組ではAIが現実社会でも実用に供され始めている事例を紹介していました。
例えば、タクシー会社の走行ルート指示AI。指示どおりに走ることによって実車率(客に遭遇して乗車させる確率)が高まっているそうです。
今や東京株式市場の売買の8割がコンピューター取引。大手証券会社でも大口顧客の運用にAIを導入。勝負の鍵はトレーダーの腕ではなく、優れたAIの開発にかかっています。
米国裁判所ではAIによる再犯予測システムを実用化。過去の膨大な裁判記録等から被告の再犯確率を予測し、判決内容の検討や仮釈放の可否判断に用いられているのには驚きました。再犯率は10%低下したそうです。
日本の医療スタッフ派遣会社では、AIによる人事管理を開始。具体的には、人事面談記録から社員の離職可能性を予測する業務に活用。記録の文章(社員の発言内容)から離職の潜在的可能性を予測します。
AIと人間との共存。政策的な課題として取り組まなくてはなりません。
2.正義論
番組の最後では、AI政治家を開発する韓国のプロジェクトを紹介していました。汚職疑惑で前大統領が逮捕された韓国。不正や汚職が後を絶たないことから、このプロジェクトが始まったそうです。
開発を請け負ったのはAIの世界的権威ベン・ゲーツェル。法律、経済政策、国際関係等の情報を記憶、学習させ、5年後の実用化を目指しているそうです。
1989年に米テンプル大学の数学博士号を取得したゲーツェル。数年前から、社会的、政治的な意思決定を合理的に行うAI「ロバマ」の開発を進めています。2025年までに完全に意思決定を下すことができる「ロバマ」を開発することが目標だそうです。
この名称は「ロボット」と「バラク・オバマ大統領」の名前を合体したもので、「ロボット大統領」という含意です。「ロバマ」を装填したAI政治家は女性。「ソフィア」と命名されています。
ゲーツェルは、非理性的な感情に支配される人間の脳の欠点を補うAIを開発できれば、正しい判断を行うことができ、不正、腐敗もなくなると主張しています。
「正しい判断を行うことができる」と聞き、深く考えざるを得ません。「正しい」とは何か。「正義」とは何か。
「ロバマ」が、法律、許認可等、基準の明確な事案について判断する場合には懸念はありませんが、総合的に何かの意思決定をする時には、「正しい」「正義」「公正」等の判断が求められます。
「正しい」とは何か。「正義」とは何か。「公正」とは何か。これは、古代ギリシャ時代から2500年にわたって多くの哲学者や思想家が考え、論争し続けている問題です。
古代ギリシャの哲学者ソクラテスは著作を残していませんが、ソクラテスの考えは弟子のプラトンが記録しています。
ソクラテスは「正義」を「熟慮及び検討の結果として最善と思える考え」と定義しました。社会は多数の人間で構成されており、全員の意見が一意することはありません。熟慮及び検討には議論が必要で、議論の結果としての合意が「正義」であり、議論を超越した絶対的な「正義」は存在しないと考えました。
アテナイがペロポネソス戦争でスパルタに敗北後の紀元前404年、アテナイでは親スパルタの30人政権が成立。
1年後、30人政権が崩壊。新政権は敗戦や失政の責任追及のため、前政権の後ろ盾となっていた哲学者等を糾弾。ソクラテスもその1人となり、糾弾に対して反論し、全く妥協せず、死刑が宣告されます。
ソクラテスは、「正義」に反することは自分にとって死よりも悲惨な禍であると考えました。裁判や刑罰も法によって定められており、法は議論の結果としての合意です。
つまり「正義」。悪法だという理由で法を守らなければ民主主義が崩壊する。法を破って好き勝手にすることが自由ではなく、好き勝手にしたいエゴや執着から解放されることこそが自由である。ソクラテスはそう考えたそうです。
「正義」は法に準ずること。ソクラテスは合意を受け入れ、「悪法も法なり」と言い、判決に従って毒を飲んで死にました。
ソクラテスの弟子プラトンは、「正義」とは個人あるいは共同体の中で調和が完成されていることである。1人であれば自己の中で調和を完成すればよいが、多数による調和は議論の結果として完成する、と考えました。
アリストテレスはプラトンの弟子。「正義」を「広義の正義」と「狭義の正義」に分け、前者は人間の徳全体を意味するとしました。
後者をさらに「配分的正義」と「矯正的正義」に区別。前者は、利得であれ罰であれ、個々人に相応しい禍福を受けること、後者は不平等や不公正がある時に、それを補正することを意味すると考えました。
選挙権を例に取ると、財産や納税額に応じた選挙権は「配分的正義」。しかし、今日では財産や納税額によって選挙権に制限を加える民主主義国家はありません。1人1票が原則であり、「矯正的正義」の典型例と言えます。
アリストテレスの正義論は近代に至るまで強い影響を与えていましたが、近世に入り、ホッブズ、ロック、ルソー、カント、ヘーゲル等が思索を続けます。
そして、20世紀になって登場したのがジョン・ロールズ、マイケル・サンデル。さらに、アジア人で唯一のノーベル経済学賞受賞者であるアマルティア・センも哲学の領域に参入。
彼らは、「正しい」とは何か、「正義」とは何か、「公正」とは何か、ということを考え続けています。しかし、絶対的な結論は出ていません。
3.汎用人工知能(AGI)
直近の最も参考にすべき示唆は、アマルティア・センの2009年の著書「正義のアイディア」(日本語訳は2011年出版)。現在83歳のセンの思索の集大成です。
センは、絶対的に「正しい」ことは現実には存在し得ない、特定の「正義」に正当性を与えることはできない、としています。
しかし、絶対的に「正しい」ことを決めることができないとしても、様々な意見や考えを最大限客観的に比較することで、相対的に「正しい」ことを追求可能としています。つまり、熟議の重要性を説いています。
人間の歴史に誇る知性が2500年も考え続けて結論の出ない「正しい」ということに関し、果たしてAIは本当に判断を下せるのでしょうか。
「AIは正しい判断ができる」とするゲーツェルは如何にも自然科学者らしいですが、それは単純に肯定できない難問です。
AIが参考として判断を示し、人間が総合的に最終判断する関係はイメージできます。もっとも、熟議もなく、合意に基づく民主主義的手続も無視し、自分の判断こそが「正しい」とする独善的な指導者よりは、AIの方がよほど「正しい」判断をしてくれることでしょう。
ゲーツェルによれば、「ロバマ」は「アルファ碁」のような特定分野に特化したAIではなく、総合判断のできる「汎用人工知能(AGI)」と定義しています。
「汎用人工知能」は「Artificial General Intelligence」の訳。は直訳すれば「人工一般知能」ですが、「特化型AI(Narrow AI)」の対語であることを考慮し、2013年、専門家の議論の結果として「汎用人工知能」と定訳が決まったそうです。
「特化型AI」は、例えば質問応答、ゲームプレイ、株価予測、自動運転、医療診断、商品推薦等々、特定の用途、応用に供する AI であり、既に相当数が実用化されています。
一方、「AGI」は人間のように広範な適応能力、多角的な問題解決能力を有し、設計時の想定を超えた能力を発揮するAIです。
さらに「弱いAI」と「強いAI」というカテゴリー分けもあります。メルマガ377号(2017年2月10日号)でもお伝えしたとおり、「強いAI」とは米国の哲学者ジョン・サールによって提唱された概念です。
意識や自我を持つのが「強いAI」。しかし、AGIはそこまでは想定していません。したがって、AIは3段階、すなわち「特化型AI(NAIまたは弱いAI)」「汎用AI(AGI)」「強いAI」の3つに類型化できます。
AIは黎明期から漠然と人間と同等レベルに達することを目標としています。「特化型AI」は特定分野で人間の能力を超えつつあります。そうした中で「汎用」という性質は、引き続き総合的にはAIは人間に劣っているという前提で定義された目標水準と言えます。
「AGI」は最初からあらゆる問題に対応できるわけではありません。人間同様に幅広い領域の情報を吸収し、それに対応する知能を学習するのであり、人間が初期情報や経験値を入力していく必要があります。その実現は既に視野に入り始めています。
前述の番組の中で、将棋の羽生善治名人は「AIは人間よりも優れた判断をするかもしれないが、それが絶対的に正しいとも限らない。そのようなAIが登場したとしても、それを取り入れるか否か、受け入れるか否かは、人間の判断次第」と語っていました。賛成です。
AIの利活用に関しても、ソクラテス以来の歴代の哲学者が推奨する熟議が必要です。しかし、熟議をしない、あるいはその能力のない指導者が君臨する社会では、AIの利活用に関しても浅薄な独断で決定を行い、結果的に人間を滅ぼすことになりかねません。
そういう社会はデストピア(暗黒郷)です。デストピアについては、メルマガ333号(2015年4月15日号)、382号(2017年4月25日号)をご参照ください。
AIの開発や利活用の前に、人間自身、とくに指導者の内省が必要です。(了)