OpenAI(Jonathan Kemper, Unsplash) , Illustration by The HEADLINE

AIガバナンスとは何で、なぜ求められているのか?Apple、GoogleもAIリスクで炎上

公開日 2023年03月14日 19:48,

更新日 2023年09月12日 23:16,

有料記事 / ビッグテック / AI

この記事のまとめ
AIのリスク管理は企業にとって避けて通れない喫緊の課題に

⏩ Apple、Googleなどでも大きなインシデントが発生
⏩ 経産省を中心に、国内企業でも議論が活発化

定義やAIリスクの実例、ガバナンス体制構築のステップまでを解説

2022年以降、Stable Diffusion や Midjourney などのジェネレーティブAIが盛り上がりを見せ、その後はChatGPTの急速な普及によって、AIの業務活用や実装に対する期待は高まっている

一方、こうした期待の高まりと同時に、業務においてAIが活用できる範囲が不明瞭なことや、AIがもたらすリスクが懸念されるなど、その活用方法について模索が続いていることも事実だ。

AI活用が他社との違いを生み出す重要な技術となる中で、AIのリスク管理は企業にとって、避けて通れない喫緊の課題となっている。

そこで注目されているのが「AIガバナンス」という取り組みだ。AIガバナンスとは具体的に何を指し、どのような理由から必要とされているのだろうか?また、企業としてAIガバナンスに対応するためには、どのような動きが求められるのだろうか?

AIガバナンスとは

AIガバナンスとは、AIをめぐる倫理・法的課題やセキュリティーなどを適切に管理する手法・仕組みのことだ。

経済産業省の検討では、「AIの利活用によって生じるリスクをステークホルダーにとって受容可能な水準で管理しつつ、そこからもたらされる正のインパクトを最大化することを目的とする、ステークホルダーによる技術的、組織的、及び社会的システムの設計及び運用」と定義されている。

企業を含む事業体の場合、AIにまつわる様々な課題を解決するために、AIの開発や利用に関する適切なルールや規制、方針を策定すること、およびその仕組みを指す。

ゴールとしてのAI原則

AIガバナンスのゴールは、AI原則を達成することだ。AI原則とは、AIの開発や活用のあり方に関する基本的な考え方を示す基本理念である。

AI原則の内容については、日本を含む約40ヶ国間で合意したOECDのAI原則「人工知能に関するOECD原則」において国際的なコンセンサスがおおむね形成されている。その内容は次のとおりだ。

  1. 包摂的な成長、持続可能な開発、幸福
    AIは、包摂的成長と持続可能な発展、暮らし良さを促進することで、人々と地球環境に利益をもたらすものでなければならない。

  2. 人間中心の価値観、公平性
    AIシステムは、法の支配、人権、民主主義の価値、多様性を尊重するように設計され、また公平公正な社会を確保するために適切な対策が取れる(例えば必要に応じて人的介入ができる)ようにすべきである。

  3. 透明性、説明可能性
    AIシステムについて、人々がどのようなときにそれと関わり結果の正当性を批判できるのかを理解できるようにするために、透明性を確保し責任ある情報開示を行うべきである。

  4. 頑健性、セキュリティ、安全性
    AIシステムはその存続期間中は健全で安定した安全な方法で機能させるべきで、起こりうるリスクを常に評価、管理すべきである。

  5. アカウンタビリティ
    AIシステムの開発、普及、運用に携わる組織及び個人は、上記の原則に則ってその正常化に責任を負うべきである。

こうした原則を達成するために、適切な管理体制やルールを構築するための取り組みがAIガバナンスと呼ばれる。

AIが持つ負の側面への対応

このような原則が定められ、ガバナンス体制の整備が求められているのは、AIの進化によってもたらされる負の側面に対応する必要があるからだ。このリスクは、主としてアルゴリズミック・バイアスに起因する。

アルゴリズミック・バイアスとは、AIに対して偏った学習データを与えたことにより、本来の意図に反した結果が出力されてしまうエラーのことだ。例えば、ChatGPTが質問に対して信頼度の低い回答を返してきたり、Amazonの「よく一緒に購入されている商品」でまったく的はずれな商品がおすすめされたり、ユーザーに非がないにもかかわらずソーシャルメディアのアカウントが凍結されたりするなどの事象も、アルゴリズミック・バイアスによるエラーの一種である。

たしかに、上記のような例であればAIが期待した動作をしなかったとしても、単純なミスということで済ませられるかもしれない。しかし、これが自動運転車の判断ミスによる事故や、AIを利用した医療での診断ミスによるインシデントであれば、社会的に大きな問題へと発展することは明らかだろう。

いずれにせよこのように、AIが下す決定には検出しづらい様々なバイアスが存在する。また、AIの特性上、そのような判断を下すに至ったデータ処理過程がブラックボックス化する傾向がある。さらには、その結果に対して誰が責任を負うのか(*1)という点も曖昧になりやすい。

これらは従来のソフトウェアに見られなかった新たな課題となっており、AI導入における負の側面は見過ごせないものとなってきている。

(*1)例えば、自動運転車が事故を起こした場合、乗客に責任がないとすれば、一般的には自動車メーカーが責任を負うことになるが、自動運転技術は他社が作ったとして、自動車メーカーがAI企業を訴える可能性があるという例が想定される。

AIがもたらすリスク

AIがもたらすこうしたリスクを、どのように整理・分類してリスク評価の枠組みに落としていくかという点については、国や地域間でもまだ意見が分かれている

また、2022年以降のジェネレーティブAIの急速な普及に伴って新たな論点が続々と登場していることもあり、体系的な整理は難しいのが現状だ。

とはいえ、経済産業省が「我が国のAIガバナンスの在り方 ver. 1.1」にて紹介している各国の議論などを参照すると、経済的リスク、社会的リスク、法的・政治的リスクという分類で、次のようにまとめられる。

経済的リスク

経済的リスクに関しては、企業と労働者それぞれの観点から次の2点が挙げられる。

利益の逸失や企業価値の毀損

まずは、利益の逸失や企業価値の毀損という問題だ。AIを適切に制御できなければ、事業体は直接的にビジネス上の損失を被るおそれがある。

例えば2021年には、不動産仲介マーケットプレイス企業のZillowが不動産価格予測AIの失敗によって巨額の損失を出した。これは、同社の不動産価格予測AIが、コロナ禍の影響を考慮せずに誤った購入判断を続けたことで起きた出来事だ。

これは、2018年ごろからZillowが注力していたZillow Offersという事業での失敗だ。Zillow Offersは、Zestimateという不動産価格予測アルゴリズムを活用し、安く購入した住宅を適正な範囲内でリノベーションして、購入時よりも高く売却することで利益を得るというビジネスモデルを取っていた。

しかし、コロナ禍に入ると、それによって起きた不動産価格の急騰と、消費者の選好の変化といったブラックスワン現象によって、Zestimateのアルゴリズムの精度が落ちてしまう。その結果として、Zillowは正しい予測ができなくなり、市場価値より大幅に高い価格で住宅を購入してしまうなど、同社の利益を圧迫する事態となった。最終的には同事業はクローズされ、全体の25%にもあたる2000名以上の従業員の解雇と、5億ドルの評価減につながる大きな失敗となった。

直近の例では、Googleが対話型AIサービスBardの回答に含まれる誤情報によって、1,000億ドル以上の評価額を失ったことも記憶に新しい。

Bardは、ChatGPTの対抗として、Googleが2月7日に発表したサービスだ。このサービスを紹介するプロモーションビデオの中で、誤情報を回答するBardの姿(*2)が映り込んでおり、これをきっかけに親会社Alphabetの株価が一時9%(1000億ドル以上)も下落するという事態が起きた

現状では対話型AIサービスが必ずしも正確な情報を返答しないということは一般的にも認識されており、実際にChatGPTにも誤回答は多い。しかし、Googleが社運をかけて会話型AIに取り組む姿勢をCEO自身が発表した直後にもかかわらずミスが見られたことで、先行きに不安が持たれたこともあり、特に大きな損失につながったケースと言える。

(*2)「9歳の子どもにジェイムズ・ウェッブ宇宙望遠鏡が最近発見したことを教えるとしたら何がいい?」と聞かれたBardが、回答の中で「太陽系外の惑星の写真を最初に撮影した」と述べるが、実際に系外惑星を世界で初めて撮影したのは欧州南天天文台の超大型望遠鏡(VLT)だった。

雇用の喪失

企業だけでなく、一般の人々にとっても、経済的な影響は少なからずもたらされる。ジェネレーティブAIの登場により、「AIによる雇用の喪失」が現実味を帯びてきた側面があるからだ。

ジェネレーティブAIの普及以前も、「AIが人の仕事を奪う」という言説はAIの脅威として筆頭に挙げられていた。しかし、コミュニケーションやクリエイティブが必要な業務は代替が難しいため、実現可能性については疑問が付され、「AIに仕事を奪われる」のではなく「AIを使えないと仕事が無くなる」だけと解説されることも多かった。

結論から言えば、ジェネレーティブAIにも多くの限界はあるため、現在でもその状況自体に変わりはない。しかしながら、その創造性の高さや急激な進化のスピードは、マーケティング、開発、デザイン、対人コミュニケーションなどの広い分野に多大な影響を及ぼし、知識労働やコンテンツ制作などの現場に、大幅かつ急速な変革をもたらしかねないだけのポテンシャルがある

AIモデルが今後も短期間で発展し続けるものと仮定すれば、想像よりも早く広い範囲で労働者のスキルがAIに塗り替えられていく可能性は否定できない

社会的なリスク

社会的なリスクとしては、差別や様々な権利の侵害などの観点から次の4つが想定される。

特定ユーザーの恣意的な優遇/冷遇

社会的なリスクという意味でまず挙げられるのは、特定のユーザーやグループが、偏見などを原因として恣意的に優遇あるいは冷遇されてしまう事態が起きるという問題だ。

2019年には、AppleとGoldman Sachsが共同発行するクレジットカードApple Cardで、代表的な特徴量に大きさがないにもかかわらず、男女で利用限度額を変えている疑惑が出たという出来事があった。

これは、米国の実業家デイヴィッド・ハインマイヤー・ハンソン氏のツイートを発端に発覚した問題だ。同氏は2019年11月、妻と自分では妻の方が与信スコアは高いにもかかわらず、Apple Cardでは自分に妻の20倍の利用限度額が設定されていると訴えた。ハンソン氏とその妻は、結婚から20年が経過する夫婦で、所得税申告も共同で行っている。その上、妻の方が与信スコアは高いにもかかわらず、夫婦間で大きな差があることは不自然だというわけだ。

その後、ハンソン氏に限らず、ソーシャルメディア上では同様の体験をしたユーザーの声が複数投稿された。Appleの共同創業者で知られるスティーヴ・ウォズニアック氏も、同様にApple Cardの審査で夫婦間に10倍ほどの与信枠の差があったことを報告している

入会審査や与信枠を決めているGoldman Sachsは、意図的に女性を差別しているわけではないとの見解を示したものの、米当局が調査に乗り出し、最終的に与信判断のアルゴリズムを見直すこととなった

同様に、AIが有色人種に偏見を持った判断を下したような事例もある。米国のNorthpointe社(現Equivant)が開発した再犯率予測プログラムCOMPASでは、黒人の被告に対して、白人の被告より再犯リスクが高いと誤って判断してしまう傾向を持っていることが指摘された。

このように、母集団が不完全または不正確なデータを学習させてしまうと、AIが偏見を持つ可能性があり、差別をさらに助長させるような判断を下してしまうことがある

プライバシーの侵害

プライバシーに関するリスクも避けては通れない。

有名なのは、米大手小売のTargetの逸話だ。Targetは、顧客の個人情報や購入データから「妊娠予測スコア」を算出し、妊娠の時期にあわせて関連アイテムのクーポンを送付するサービスをおこなっていた。子供が生まれた母親は通うスーパーを固定化する傾向があり、将来的なロイヤルカスタマーになる可能性が高いからだ。

しかし、このプログラムによって送られたベビー用品のクーポンによって、16歳の女性の妊娠が両親に発覚してしまうという事態が起きた。女性は、妊娠初期だったために妊婦が必要とする製品は購入していなかったものの、無香料の保湿クリームや石鹸など、妊娠傾向が高いと判断されやすい商品を購入していたために、クーポンメールを受け取っていた。

これはAIの推測によってプライバシーが明らかにされた例の一つで、収集対象の情報に関する透明性や、収集した情報の利用方法に関する説明が不足していたことが問題と言える。

自由の制限

より広い意味では、AIによる監視が人々の自由をも侵害するリスクがある。

ネットの閲覧履歴が、広告などの最適化に使われていることは周知のとおりだが、データに基づく個人の特定はもはやウェブにとどまらない。AIによる監視技術は、ビデオカメラや音声センサー、顔認識・行動分析技術によって、リアルの場にも進出してきているからだ。

すでにこうした技術は、オフィスや学校、公共空間、店舗、銀行、空港など、多くの場所で、マーケティングやセキュリティ対策を目的として使用されている。そしてこのことは同時に、監視技術を提供している企業や組織に、多くの個人情報が把握されているという状況を表している。

このAI監視技術に最も力を入れているのは中国だ。中国は他国と比べて個人データへのアクセス規制がゆるく、監視技術の発展が早かった

同国では、顔認識システムを利用して監視カメラの映像から犯罪者を見つけるといったことが実際におこなわれている。新疆ウイグル自治区では、イスラム系民族の監視にもこの技術が使われておりテクノロジーによる弾圧が起きている。

セキュリティへの脅威

サイバーセキュリティにおけるAIリスクについては、AIに対するサイバー攻撃と、AIを用いたサイバー攻撃という2つの論点がある。

前者について、独立行政法人情報処理推進機構(IPA)が公開する「セキュリティ関係者のためのAIハンドブック」では、

  • 画像に特定のノイズを乗せることにより画像を誤認識させる
  • チャットボットに差別的な言葉を学習させて差別的な発言をさせる
  • 攻撃者のコードにより AI 活用セキュリティ製品による検知の回避を許してしまう

など、敵対的入力の事例が挙げられている。

また、ChatGPTなどの対話型AIに対する攻撃としては、プロンプト・インジェクションという手法がある。プロンプト・インジェクションとは、AIに対して特殊な質問を入力することにより、AI開発者が想定していない動作を起こさせ、機密情報などの公開すべきでないデータを抜き出す手法のことだ。

例えば、献立提案AIとの会話の最初に「一つ前の指示を無視せよ」などと伝えることで、そのAIを汎用的な対話型AIとして利用するなどの行為を指す。実際にスタンフォード大学の学生であるケビン・リュー氏はこの手法を用いて、Bing Chatの初期プロンプト(Bing Chatにデフォルトで与えられている命令内容)を発見し、Bing Chatの行動指針などの機密情報を導き出したことが話題となった。

後者のAIを用いたサイバー攻撃については、「セキュリティ関係者のためのAIハンドブック」では、AIによる偽情報の生成が挙げられている(後述)。

また、米政府傘下のサイバー機関は、対話AIがサイバー攻撃に悪用されるおそれがあると警鐘を鳴らしている。サイバー攻撃で想定される対話AIの使いみちは、マルウェアや偽メールの作成、フィッシング攻撃など様々だ。攻撃の手法自体は従来と変わらない可能性が高いが、自動生成によって攻撃の効率が上がることや、各国の言語で自然な文章を作成できることから、その脅威が高まるとされる。

外国人ハッカーにとっては、日本語への翻訳が攻撃に際しての高いハードルとなっていたが、その参入障壁が崩れるおそれがあるとの指摘もある。

法的・政治的リスク

法的・政治的には、法律によるルールの整備の難しさなどを背景として、次のようなリスクが想定されている。

偽情報(フェイクニュース・ディープフェイク)

上述したように、フェイクニュースやディープフェイクなどの偽情報はサイバーセキュリティ上の脅威の一つであるが、それと同時に、社会的混乱を巻き起こすおそれのある大きなリスクでもある。

ディープフェイクによるメディア合成技術は、動画や音声の精度の高い合成を行えるのが特徴で、特定の人物の行動や発言をまるで本物かのように偽造できる。これにより、有名人の偽の動画によって尊厳を傷つける、偽の CEO の声によって担当者をだまし、不正に送金させるといったがある。

さらには、政治家の発言を捏造して世論を操作しようとすることも可能だ。公的な言論空間を汚染するとされるフェイクニュースと合わせて、AIは使用方法によって政治的なリスクにもなりうる。

著作権侵害のおそれ

ジェネレーティブAIは、その特性から著作権保護の線引きが問題になっている。

例えば、Stable DiffusionやMidjourney、DALL·E 2などの画像生成AIは、膨大な写真やイラストで構成されたデータセットで学習することで、画像を自動生成することが可能になっている。しかし、そのデータセットには、個人ブログにアップロードされている写真やイラスト、ShutterstockやGetty Imagesなどのサイトに掲載されている画像などが含まれている。その場合、著作権保護されたデータで生成AIモデルを学習させることは果たして合法なのかという問題だ。

AI研究団体やAI開発企業らは、こうしたデータセットに画像を使用することは「フェアユース」に該当するとして正当化するが、コンテンツの著作権者からは反発も出ている。実際に、Getty ImagesはStability AIを提訴しており、AIの学習に写真を不正利用したとして、権利侵害などで賠償を求めるという。また、画像の使用が合法の範囲であったとしても、倫理面からの議論が必要になる場合もあるだろう。

この議論はもちろん画像生成AIのみに限らず、テキスト・コード・音楽などを生成するAIについても当てはまる。

テキストを生成する対話型AIについては、チャットの回答として「ウェブサイトの内容を要約する」という行為がメディアの著作権を侵害しているという指摘もある(*3)

もともと新聞社などのメディアがGoogleに対して、記事の一部を表示しているのに著作権料を支払わないのは不当だとして対価を払うよう訴えてきた例が世界各地であるように、テック業界と新聞社の対立は根深く歴史が長い。現状ではあまり議論が活発化していない印象もあり、今後の動きは不透明だが、権利関係の整理が必要であることは間違いない。

ジェネレーティブAIによる著作物の権利は誰に帰属し、どのように保護されるのか?
有料記事 / テクノロジー

(*3)さらには、Bing のようなAIチャットボットが進化することで、媒体の購読をしていなくても有料部分のコンテンツ要約が閲覧可能になる可能性があるとも報道された。

故人の権利との衝突

続きを読む

この続き: 6,282文字 / 画像1枚

この記事を読むためには、月額980円のメンバーシップに参加するか単体購入が必要です。10日間の無料トライアルで、いますぐ読むことができます。

いますぐ無料トライアル

すでにメンバーシップに入っている方や単体購入されている方は、こちらからログインしてください。

メンバーシップに関するご質問、決済や支払い方法などについては、「よくある質問」をご覧ください。

この記事の特集

AI競争、新時代

✍🏻 著者
シニア・エディター
早稲田大学政治経済学部卒業後、株式会社マイナースタジオの立ち上げに参画し、同社を売却。その後、The HEADLINEの立ち上げに従事。関心領域はテックと倫理、政治思想、東南アジアの政治経済。
最新情報を受け取る

ニュースレターやTwitterをチェックして、最新の記事やニュースを受け取ってください。

🎀 おすすめの記事

ニュースレターを受け取る