コンテンツに移動
AI & 機械学習

AI を正しい方向に導くために

2018年11月19日
https://storage.googleapis.com/gweb-cloudblog-publish/images/10_31_18_BlogHeader_ResponsibleAI_2_JR8yBA.max-2200x2200.PNG
Google Cloud Japan Team

※この投稿は米国時間 2018 年 11 月 6 日に Google Cloud blog に投稿されたものの抄訳です。

この 1 年間、私は数百人ものお客様にお会いして、「AI にできること」に対するお客様の印象がどう変わったのかについて話をしてきました。インテリジェントな患者のトリアージによって医師や看護師の作業量が減ったこと、正確な機械翻訳によってジャーナリストが世界中の読者とつながりを持てるようになったこと、よくある問い合わせを AI に任せられるようになって顧客サービスの待ち時間が減ったことなどが話題に上りました。お客様が抱えるビジネス上の問題解決に AI が役立つことには本当に感心させられます。ただし、その一方で同じお客様が、AI に対して一定の疑念や懸念を持たれていることも事実です。

このテクノロジーは、多くの素晴らしいことを実現する一方で、意図せぬ結果を引き起こす危険性も秘めています。そのため多くのお客様は、AI が抱える問題点を回避しながらメリットを手に入れるにはどうすればよいのか、という問いの答えを求めています。

https://storage.googleapis.com/gweb-cloudblog-publish/images/Mosaic497b.max-600x600.PNG
1993 年にリリースされた NCSA Mosaic ウェブ ブラウザ

この問題を広い視野から捉えるため、私はよく、1993 年に登場した Mosaic ウェブ ブラウザの画面をお見せするところから話を始めます。これは、2018 年時点において AI の適切な比喩になっていると思うからです。今日の AI は、90 年代半ばのウェブと同様に、細々と研究されていた学術的分野から主流のテクノロジーへと急速に変貌を遂げつつあります。

インターネット革命は、メリットとともにリスクも生み出してきました。AI に関しても、私たちは善悪両方のさまざまな可能性について考えなければなりません。Mosaic のときは、メールやテキスト メッセージなどによって人とつながりやすくなることは容易に想像がつきましたが、ウイルスなどの悪質なソフトウェアやネットでのいじめが広がることを予見するのは困難でした。

これからの 10 年は、初期のウェブで見られたものよりもずっと複雑な問題が出てくるでしょう。しかし、多くのお客様がそうした難題に積極的に立ち向かう熱意を持っておられることには励まされます。実際、多くの人々が同じ課題を共有しているのです。

  • 公正性の担保 : 機械学習モデルがすべてのユーザーを平等かつ公正に扱うことをどのようにして保証するか。
  • 解釈可能性 : AI の透明性を高め、AI の選択理由をより良く理解できるようにするにはどうすればよいか。
  • 変化するマンパワー : 明日の変化に対処できる力を社員が身につけられるようにしつつ、自動化のパワーを適切に活用するにはどうすればよいか。
  • 良いことに使う : AI が正しく使われることを保証するにはどうすればよいか。

公正性の担保

アルゴリズムは絶対に正しく客観的なものと思いがちですが、実際には、機械学習モデルの信頼性は訓練に使ったデータ以上にはなりません。そして、そのデータを見つけて整理し、ラベルを付けるのは人間なので、ほんのわずかな偏りによって結果に目に見えるような違いが生じるようなことは簡単に起きます。しかも、アルゴリズムは超人間的なスピードと規模で実行されるため、人間のバイアスはただ繰り返されるだけでは済みません。増幅されるのです。

不公正なバイアスは意図的な偏見のために起きることもありますが、意識の盲点のほうがずっと大きな影響を及ぼします。たとえば私たちには、自分が正しいと思うことを裏付ける人や考え方に引きつけられ、反証を突きつけてくる人や考え方に対しては避けるという、ごく自然な傾向があります。これは確証バイアスと呼ばれているもので、誰よりもまっすぐな気持ちを持つ開発者でも、これのために認識が歪むことがあります。

しかも、私たちを取り巻く世界には不公正なバイアスがすでに存在し、誠実に集められたデータでもそれを反映することがあります。たとえば、自然言語処理や翻訳の機械学習モデルを訓練するために使われる過去の膨大なテキストの中には、有害なバイアスが未修整のまま残されている可能性があります。Bolukbasi 氏らの優れた研究は、この現象をぞっとするほど明確に計量化し、統計学的言語モデルが「医師は男性、看護師は女性」といったジェンダーに関する時代遅れの思い込みをいかに簡単に学習するかを示しました。人種に関しても、同じようなバイアス(embedded biases)が現れることが実証されています。

こうした問題に対して私たちはさまざまな角度からアプローチしていますが、最も大切なのは意識することです。機械学習などのテクノロジーで公正性が必要とされることを広く理解していただくため、私たちは公正性の推奨行動規範や、機械学習特訓コース用の公正性モジュール(最近発表しました)などを作成しました。

また、機械学習ソリューションの中で行われていることをより良く理解するための手段として、ドキュメント化に向けた意欲的な動きも生まれてきています。今年初めには、研究者たちがデータセット(特に人間中心の情報や、人口統計学的にセンシティブな情報を含むもの)のドキュメント化に関する公式的なアプローチを提案しました。この考え方を基に、Google の研究者は、機械学習モデルの目標、前提条件、パフォーマンス指標、倫理的な考慮点を記述するための標準フォーマットであるモデル カードを提案しています。モデル カードは、機械学習に関する専門能力の有無にかかわらず、対象コンポーネントの使用を開発者が責任を持って判断できるようにすることを目的としています。

もちろん、私たちは信頼できるツールの提供という形で開発者の支援に常に力を注いでおり、バイアスの克服という課題においてもそれは同じです。AutoML 全体を貫くインクルーシブ ML ガイドなどのドキュメントを整備するとともに、モデルがすべてのユーザーを公正に扱っているかどうかをアナリティクスで明らかにする TFMA(TensorFlow Model Analysis)や What-If Tool といったツールも用意しています。

TFMA は、ユーザー集団の状況、特徴、サブセットにわたってモデルのパフォーマンスを簡単に可視化します。反事実を簡単に実行できる What-If Tool は、与えられたユーザーの人口統計学的属性などの重要な性質を逆のものにした場合に何が起きるかを教えてくれます。どちらのツールも、機械学習モデルのふるまいを没入型で対話的に掘り下げていくことができるため、公正性や表現に欠けるものを見つけ出すのに役に立ちます。

最後になりますが、私たちはデータ サイエンス プラットフォームの Kaggle を通じて、コミュニティの力も活用しています。先ごろ発表した Inclusive Images Challenge は、地理的多様性という観点から見た画像訓練セットの歪みという問題に取り組んでいます。そのような歪みは、取り上げられることの少ない地域に住む人々の特徴をうまく示せないことが多い分類器を生み出します。そうしたことから、Inclusive Images Challenge の参加者に対しては、新しいデータを追加せずに地理的な違いを超えてうまく汎化するモデルを作ることが求められます。それを通じて、グローバルなユーザー ベースのために役立つ、インクルーシブ(少数者を排除せずに包み込む)で堅牢なツールを作ろうということです。私たちは、この分野での進歩にはさまざまな応用があると考えており、2018 年の NIPS(Neural Information Processing Systems)カンファレンスでの結果発表に期待しています。

私は自分たちの取り組みに誇りを持っており、現在開発しているナレッジやツールは、AI をより公正なものにするうえで大きな役割を果たすと考えています。とはいえ、この世に複雑な問題を単独で解決できる会社などありません。不公正なバイアスとの闘いは、さまざまな関係者からのインプットによって初めて可能になる集合的な作業であり、それゆえ私たちは皆さんの声に耳を傾けることに努めています。世界が変わり続ける限り、私たちは学ぶことを止めません。

解釈可能性

バイアスとの闘いは差し迫った問題ですが、AI が人々から真の信頼を獲得するにはどうすればよいかという、より根本的な問題の一部にすぎません。意思決定はかつて人間が独占的に行っていたことですが、そのような意思決定において機械学習が果たす役割が大きくなればなるほど、信頼獲得のために解釈可能性が持つ意味は大きくなります。

ディープ ラーニング アルゴリズムの多くは、最初から今に至るまでブラックボックスのように扱われ、製作者でさえ入力と出力の間で何が起きているのかを正確に説明することは容易ではありませんでした。しかし、信頼は理解によって得られるものであり、AI をブラックボックスとして扱う限り、人々から信頼を勝ち取ることはできません。従来のソフトウェアのロジックはソースコードを 1 行ずつ精査すれば明らかになりますが、ニューラル ネットワークは数千、いや数百万の訓練サンプルに触れることによって得られる高密度の接続網です。結果として、柔軟性を得るために解釈可能性を犠牲にしていました。

現在は、ベスト プラクティスの確立、ツールの整備、開発サイクルの冒頭から解釈可能な結果を目指す集合的な取り組みにより、進歩が見られるようになってきています。実際、責任ある AI システムの構築に向けて私たちが今年初めに基本理念を発表したとき、解釈可能性は 4 本柱の 1 つでした。

すでに、実世界の問題に解釈可能性を導入する素晴らしい取り組みが生まれています。たとえば画像分類の場合、Google AI の最近の研究では、縞模様や巻き毛というように、人間にとってわかりやすい概念を表現し、画像内でその概念が占める割合を定量的に示すという手法が紹介されています。この手法に基づく分類器は、人間のユーザーにとって最も大きな意味のある特徴について、その理由を明確に示すことができます。たとえば、大きなウェイトを占める「縞模様」と、それよりもウェイトの軽い「水玉模様」を含む画像は「シマウマ」に分類されることがあります。実際、研究者はこのテクニックを糖尿病性網膜症の診断に応用して、従来よりも診断結果の透明性を高め、専門家が理由付けに反対するときにはモデルを修正できるようにもする実験を進めています。

変化するマンパワー

人間と仕事の関係が AI によって変化することは否定できません。私たちのお客様の多くは、自動化の潜在能力と既存のマンパワーとのバランスについて悩んでいます。

私は、自動化の未来がゼロサム ゲームだとは思っていません。PwC による最近の調査によると、経営者の 67 % は、AI の発展により、人間と機械が人工と自然の両方の知能を使用して、より強力に仕事を進められるようになると考えています。

仕事がモノリシックになることはまずないということも、覚えておくべき大切なことです。ほとんどの仕事は無数の異なる作業(高い水準の創造性を必要とする作業や単純な反復作業など)によって構成されています。たとえば放射線医学の分野では、アルゴリズムは単純でよく知られた症状の診断を自動化するというサポート的な役割を果たすため、人間の専門家は難しい作業に集中でき、結果として仕事は迅速かつ安定したものになります。

ただし、一部の仕事は他の仕事よりも急激な変化にさらされており、移行を容易にするための取り組みが求められています。そこで Google.org は、将来への備えを進めている NPO を次の 3 つを通じて支援するため、5,000 万ドルの基金を設立しました。

  • 人々が働き続けられるようにするための研修および教育制度を生涯にわたって提供
  • スキルと経験に基づいた形での求職者と理想の就職先とのマッチング
  • 低賃金労働に従事する人々の支援

もちろん、これは第一歩にすぎず、今後も同様の取り組みを広く支援していきます。

良いことに使う

最後は、すべてを超越する問いです。人々の暮らしを良くするために AI を使っているという確証は、どうすれば得られるのでしょうか。

これは答えるのが難しい質問です。私たちが AI の役割をとかく極端な形で考えがちな分、余計に難しくなっています。たとえばロンドン動物学会が実施した、AutoML による絶滅危惧種の低コストでの保護が明らかに良いことだということを否定する人はいないでしょう。Google のオープンソース機械学習フレームワークである TensorFlow が、Rainforest Connection違法伐採との闘いや、病気にかかった作物の農家による特定山火事の徴候の予測などに使われていることについても同様です。また、私たちの AI for Social Good プログラムは、人道主義と環境保護の課題に挑戦する AI 研究の資金援助のために 2,500 万ドルの助成金を提供することを発表しました。さらに、Data Solutions for Change プログラムは、失業対策アルツハイマー病の発見持続可能なフード システムの構築コミュニティ プログラミングの最適化のために NPO や NGO が目的主導型アナリティクスを活用することを継続的に支援しています。

一方で、白黒がはっきりしない分野もあります。特に兵器用 AI など論争を呼ぶ分野です。私たちは、AI の基本理念を述べた文書で明記したように、AI の代表的な活用分野の 1 つである兵器への応用は追求しません。私たちのお客様は、論争を呼ぶユース ケースに踏み込む可能性という点でさまざまな位置に立っており、ビジネスにとって AI が持つ意味を考えるために私たちの支援を期待しています。

私たちはお客様と社内製品チームの両方と協力して、これらの分野に取り組んでいます。また、この問題に関して社外有識者の意見を取り入れるため、科学技術倫理学者である Shannon Vallor 氏の支援を仰いでいます。同氏は、Cloud AI 全体の顧問として、拡大を続けるグレーの領域と、そのような環境下での仕事の位置づけを、私たちがきちんと理解できるよう力を与えてくれます。さらに、AI 倫理のベスト プラクティスに関する社内教育プログラムの監修から AI 基本理念を実世界で実現するための相談に至るまで、このテクノロジーをどのような方向に導いていくかについて、倫理的な設計 / 分析 / 意思決定を駆使し、専門家の立場から助言を行います。

たとえば倫理的設計の原則は、より公正な機械学習モデルの構築に役立ちます。綿密な倫理的分析は、ビジョン技術の潜在的な使い方のうち、不適切なもの、有害なもの、押し付けがましいものを把握するうえで有用です。倫理的意思決定の実践は、透明性とプライバシーのように片方を重視すればもう片方がおざなりになるようなジレンマや、価値の複雑な絡み合いを理性的に解きほぐすのに役立ちます。

AI の未来を協力して築く

AI の未来には不確実なことがたくさんあります。ただ、1 つだけはっきりしていることは、AI の未来を築くためには技術以上の多くのものが必要だということです。これは集合的な取り組みになるはずであり、ツールや情報に加えて、世界にプラスの影響を与えたいという共通の思いが必要です。

だから、宣言ではなく対話なのです。私たちは、このテクノロジーの最前線で長年にわたり学んできたことをぜひシェアしたいと思っていますが、皆さんの顧客が求めるものを皆さん以上に知っている人はいません。公正で信頼できる、責任ある AI を構築するためには、両方の視点が重要な役割を果たします。

結局のところ、すべての産業がそれぞれの AI 革命を推し進めていかなければなりません。それゆえ、すべての産業が AI の舵取りで一定の役割を果たす資格を持っているのです。では、具体的にどうすればこの約束を現実のものにすることができるのでしょうか。それについて皆さんと継続的に対話することを、私たちは楽しみにしています。

- By Rajen Sheth, Director of Product Management, Cloud AI

投稿先