【Vol.522】生成AIの衝撃①

11月に入り、今年もあと2ヶ月弱。「今年の流行語」の話題を新聞やTV等で見かける時期になりました。「Chat GPT」とか「生成AI」も有力候補ですが「大谷翔平」君や「パレスチナ紛争」「ガザ地区」等には勝てないかもしれません。しかし、毎年年初にイアン・ブレマーが公表する来年の「世界10大リスク」には必ず入ってくるでしょう。来年の「世界10大リスク」のひとつは「テクノロジー」、さらに「ウクライナ」「パレスチナ」「米大統領選挙」の4つは当確です。日本の政官財学各界リーダー達の生成AIに対する関心が相対的に低く、世界と技術の変化からどんどん取り残されている気がします。

1.AI規制法

2022年11月末にOpen AIが公開した生成AI(Generative Artificial Intelligence)「Chat GPT」利用者は2ヶ月で1億人を突破。その衝撃はシンギュラリティ(技術的特異点)を想起させ、Google CEOは「インターネットより大きな存在になる」と述べています。

主要国は生成AIの規制を検討し、野放図な開発競争とサービス提供に歯止めをかけることを企図。国際標準となるルールづくりで主導権争いが始まっています。

EU(欧州連合)は元来、様々な分野におけるルール形成主導を国際戦略としており、AIに関しても2021年に規制案を発表していました。

昨年11月、Open AIがChat GPTをリリースすると、EU内閣に当たるEC(欧州委員会)は生成AIを含む包括的AI規制案を提示。今年6月14日、「AI規制法(AI Act)」が欧州議会で採択されました。現在、各国閣僚理事会で協議中ですが、早ければ年内合意、最速で2025年末に発効します。

AI規制法は個人情報保護のみならず、産業分野のリスク回避義務を明示。生成AIに対する考え方、要求、監督、規制が盛り込まれています。

AI規制法は「AIは人間が豊かで幸福な生活を実現するためのツール」と規定し、AIのリスクを「容認できない」「高い」「限定的」「最小限」の4段階に分け、リスクレベルに応じて規制や開発・提供企業の義務等を定めています。

「容認できない」に分類される潜在意識操作や子供の権利侵害につながるAIを禁止。具体的には、資産や収入等の金銭的階層や個人の特徴を基準に人をカテゴライズする「ソーシャル・スコアリング」、音声コマンドで動作するAI搭載玩具等の「認知行動操作」、顔認証技術を用いた「リモート生体認証システム」等はEU圏内での利用禁止を明記しています。

また、一般論として生体認証、教育、労務管理、法体系、法執行等に関するAIリスクは「高い」に分類され、全てのAIはリリース前の評価と当局による承認を義務づけました。

さらに、AIによって生成されたコンテンツについては「AI作成」であることを明示することを義務づけるとともに、生成AI開発企業はリリース前に法的リスクを軽減する努力をしたことを証明しなければなりません。

加えて、生成AI開発企業に対してAI学習用のFM(Foundation Model、基盤モデル)やLLM(Large Language Model、大規模言語モデル)を公開し、ECが管理するデータベースに登録することを義務付けました。この点に関する実効性と公開内容の正確性は今後の論点になるでしょう。

EU域外企業が提供するAIも規制対象となり、違反時には最大で「4000万ユーロ(約64億円、1ユーロ160円換算)」か「全世界売上高の7%」の高い方が過料されます。

生成AI開発企業の間では「EUの規制は厳しすぎる」という意見が出ており、AI規制法施行までには紆余曲折があることが予想されます。

AI規制に関して米国はEUの後塵を拝しています。結論的に言えば、次項で説明する米大統領令では企業への罰則導入を見送り。EUが厳しい規制で先行したのに対し、米国は技術革新支援に軸足を置きました。

生成AI規制の国際ルールで主導権を握れるか否かはAI覇権争いに直結します。もっとも規制を実際に守らせる気があるか否か、本気度は不明。EUも開発は野放しにする意図かもしれません。以下、今夏以降の米国の急転直下の動きを整理します。

7月、ホワイトハウスは「AIに関する大統領令を準備中」と発表し「超党派の法整備」を求める意向を明かにしました。

以後、ホワイトハウスが業界専門家から助言を得る一方、上院も大手テック企業トップを招致した公聴会と非公開の「AIフォーラム」を開催。

連邦議会議員の過半は法的なAI規制を行うことに賛成しているほか、8月には著作権局が生成AIに関連して連邦レベルの著作権法改正を検討していることを公表しました。

9月に開催された上記公聴会ではMeta社マーク・ザッカーバーグCEOが同社開発の生成AI学習用に使用しているLLM「Llama2」が炭疽菌生物兵器の作成方法も含んでいた事実を突きつけられ、答えに窮した場面もありました。

こうした動きを経て、同月にはOpen AIを含む大手テック企業15社のトップが連邦議会に集まり、生成AIの安全性確保のための自主規制及び政府による規制導入に賛同しました。

2.大統領令

10月30日、バイデン大統領は生成AIを含むAIの安全性確保やプライバシー保護に関する規制とともに、技術革新を支援する大統領令に署名。国防関連事業に関して大統領権限で国内産業を統制できる「国防生産法」に基づく法的措置と位置づけ、法的拘束力を持つAI規制が米国で初めて導入されました。

大統領令では、開発企業に対してサービス提供前の安全性評価義務付け、AI作成の事実の明示、ディープフェイク判別用のウォーターマーク(電子透かし)設定、コンテンツ認証制度等を規定。安全性評価の仕組みは国立標準技術研究所(NIST)が構築するそうです。

大統領令の内容は、上記主要15社と合意した自主ルール項目が中心であり、開発企業が制度設計に加わり、現時点で対応可能な項目を積み上げた内容です。米政府及び米企業がAI分野で覇権を握り続けるために、官民で連携する戦略が鮮明になりました。

その証左に、上述のとおり大統領令は生成AIの技術革新も支援します。海外のAI関連人材に対するビザ発給要件を緩和するほか、米国での就学・就労・滞在に関する支援を強化。既に入国管理当局が対応を始めました。

スタートアップ企業や研究者向けに国のAI関連データの利用も容易にするほか、助成金も増額。先行する大手テック企業が新規参入を妨害しないよう、競争環境維持のために連邦取引委員会(FTC)が監視します。

防衛分野にも配意しており、AI関連企業と協力してサイバー攻撃の察知や対処等の先進技術開発に注力することを明示。大統領報道官は「サイバーセキュリティーにおいてAIがゲームチェンジャー的な能力を持つ」と発言しています。

大統領令は、上記のザーカーバークの公聴会も踏まえ、生成AIのFMやLLMが化学・生物・核兵器によるリスクを引き起こさないよう万全の対策を講じることを国防総省・国土安全保障省・エネルギー省等に求め、コンピューターと重要インフラの安全性強化を図るサイバーセキュリティー対策強化を促しています。

医療分野、教育分野にも言及。AIが関わり得る危険な医療行為の事例を収集したうえでの安全性指針策定、AIを活用した個別指導等の教育プログラム開発等を例示しています。

労働分野ではAIがもたらす労働市場への影響調査、労働者支援策にも付言。「AIに仕事が奪われる」として映画関係者等が大規模ストライキを行ったこと等を受け、労働者保護の観点から厳しい規制を課すべきとの世論に対応しました。

著作権局を含む関係当局は規制に対するパブリックコメントを募集。11月初旬の期限までに著作権局に寄せられたコメント数は1万件以上に達しています。

EUと米国の規制の方向性は、安全性の事前評価、偽情報拡散防止等の点は共通していますが、後塵を拝した米国はEUよりも広範な内容と技術革新支援を含んでいる点が異なります。AI覇権(AI技術とAI規制に関する主導権)をEUから取り戻し、米国の方針を多国間ルールに反映させる戦略が明々白々です。

EU・米国以外の主要国では、英国が今年2月に新設された科学・イノベーション・技術省(DSIT)が翌3月に「AI超大国を目指す」と明言したリポートを公表。AI規制に関する「サンドボックス(実証実験場)」を創設し、担当大臣が「AIに対する包括的規制を導入するつもりはない」と表明。軸足をAIの進歩、技術革新支援に置いているようです。

日本は5月に開催されたG7広島サミットで、G7が生成AIについて議論するための「広島AIプロセス」を立ち上げ。10月9日に岸田首相が「生成AIの開発者向けの国際的な指針や行動規範」策定を表明。これを受け、G7首脳は10月30日に行動規範策定に合意。G7議長国として今年中にG7各国への最終報告を予定しています。

日本は独自ルールを策定するというよりG7各国の状況を整理したということ。それも宜なるかな。AI開発企業の質と量において世界の先端とは言えない状況です。

その他の国で特異な動きを示しているのはブラジル。AI規制を急ピッチで進めており、その内容はEUと類似しています。既に法律も策定しており、生成AIによって被害が生じた場合、LLM開発元の責任を問うとしています。

世界に先駆けて生成AIに対する規制を始めたのは中国。生成AIの全面禁止に近い厳しい制約を課しています。

中国では元々政府による国民監視用に顔認識等の技術が使用されていますが、2年前から民間利用に関する規制を強化。昨年、AIの主要用途であるレコメンデーション(推薦)アルゴリズムも規制。その後、「深度合成」(いわゆるディープフェイク)技術の使用も規制。

さらに今年7月、生成AI学習用LLMの「真実性」と「正確性」を義務付け。この規制は運用次第で生成AIの一般利用を中国から完全に締め出すことにもつながります。エンジニアの中には「乗り越えられないハードル」と表現する人もいます。

しかし中国のスタンスは、生成AIのリスクを国民のために規制するというより、生成AIの使用を「当局に限定」「民間には開放しない」「外国製生成AIを国内では使用させない」という戦略であることは容易に想像できます。

3.教師なし学習

AIの歴史は過去に何回か取り上げていますが、少し再レビューします。世界最初の電子コンピュータはENIAC。1946年に公開されました。

翌1947年、天才アラン・チューリングが人工知能の概念を発表。1956年、科学者ジョン・マッカーシーが米国ダートマス大学で開催された会議でAI(Artificial Intelligence)という言葉を生み出しました。

その後、実際にAI開発が始まり、「特化型AI」と「汎用型AI」あるいは「弱いAI」と「強いAI」という分類が登場します。

「特化型AI」「弱いAI」は特定の分野や領域を得意とするAI。自動運転システムやiPhoneに搭載されている顔認証、Shiri等の音声認識はこの分類に属し、現在身近で使用されているAIは「特化型AI」が過半です。

「汎用型AI」「強いAI」は特定の分野や領域の機能に限定されず、自ら学習し、応用力を発揮するAIです。多くの情報を理解するプログラムが必要であり、実用化は遠いと思われていましたが、技術革新の加速や生成AIの登場で現実化。

過去に3度のAIブームがありました。第1次ブームは1950~60年代。一定のルール下で推論を行い、特定の問題に対して回答を導き出すことができるようになりました。この時代には、医師・看護師・心理療法士的な問答ができる対話型AIチャットボット「ELIZA(イライザ)」が開発され、早くも生成AIの研究も始まりました。

第2次ブームは1980~90年代。AIに広範な情報やデータを与え、一定のルールに基づいて推論し、特定分野の専門家のように振る舞うAIが登場。世界初のニューラルネットワークを利用した生成AI「Backpropagation(バックプロパゲーション)」が開発されました。

第3次ブームは2000年代以降、現在に至ります。ビックデータを用いてAIが自ら学ぶ機械学習が実用化され、学習量が飛躍的に増大し、アウトプットの精度やスピードも向上。Chat GPTのような生成AIが誕生しました。

従来のAIと生成AIの違いは「オリジナルコンテンツ創造の可否」にあります。生成AIは人間の質問に単に答えるだけでなく、AIが創造した新たな情報やコンテンツを人間が受け取る仕組みです。

生成AIは「プロンプト」と呼ばれる指示や質問を投げかけると、その内容を理解し、自ら文章や画像等の新しいコンテンツを生み出します。

AIは機械学習の機能が登場して以来、データをモデル化して予測を行うようになりました。2000年代以降、ディープラーニング(深層学習)の登場によってさらに進化し、モデル化ではない方法によって文章や画像を創造する研究が進んできました。

2014年、画像のような複雑なデータを学習し、自ら生成することが可能なディープニューラルネットワークが登場。

2017年に開発されたトランスフォーマー(Transformer)ネットワークは生成機能を大規模化し、2018年に最初のGPTが完成。

「GPT」は「Generative Pre-trained Transformer(生成的事前学習トランスフォーマー)」の略。「生成的」とはコンピュータが自分で新しい文章や文書を作り出すこと。「事前学習」とはコンピュータが大量の情報やデータを学習して生成能力を蓄積すること。例えば、インターネット上にある大量の情報を読み込み、AI自身が言語のパターンやルールを覚えます。「トランスフォーマー」とはコンピュータが言語や画像を理解及び生成するための仕組み。GPTはこれら3つの機能を組み合わせた技術です。

当初のGPTは自分で考えたり判断したりすることができず、単にデータから学んだパターンやルールに従って文章を生成するだけでした。

2019年、GPT2が開発され、FMやLLMを使った「教師なし学習」が可能となり、多様なプロンプト(多様な質問や要求)に対応できる汎用能力を実証。

その結果、2020年代入り後に生成AIへの投資が急増。Open AI等の新興企業のみならず、Microsoft、Google、Baidu等の大企業も開発に参入。

2022年、GPT3開発。11月、とうとうChat GPTの公開に至ります。GPT3は1750億個の単語や記号から学習しているそうです。そしてほどなくGPT4が登場。

GPT4とGPT3の違いは2点あります。第1はパラメーター数が異なること。パラメーターとは、コンピュータが言語を理解したり、生成するために使う数字や記号のこと。パラメーター数が多いほど、コンピュータはより正確に言語を処理できます。

GPT4はGPT3の571倍となる100兆個のパラメーター数を誇り、GPT3より高度な言語処理能力を獲得しました。

第2は画像入力・生成の可否。画像入力とは、コンピュータが文章だけでなく画像の特徴も読み込むこと。その結果、自らも描画が可能となりました。つまりGPT4は画像入力と画像生成が可能であり GPT3より遙かに豊かな表現力を身に付けました。

Open AIがGPT3やGPT4のLLMを使用して構築したチャットボットがChat GPT(及び別形のBing Chat)です。GoogleがLaMDAというFMをもとに構築したチャットボットBardもあります。その他の生成AIとしてStable DiffusionやDALL-E等のアートシステムも普及しつつあります。

次回もこの話題を続けます。FMやLLMについてもう少し深掘りし、生成AIの種類や用途について整理します。

(了)