Thursday, April 11, 2019 9:58 AM

EY、AI機能の評価ツールを発表

 コンサルティング大手アーンスト&ヤング(Ernst & Young=EY)は9日、各種の人工知能(AI)の信用性を数値化するトラステッドAI(Trusted AI)という新たなサービス・プラットフォームを発表した。

 ベンチャービート誌によると、ウェブ・インターフェイスでアクセスできる同プラットフォームは、AIモデルの目的や、人がシステム内に介在するかどうかどうか、モデル構築に使われている技術といったさまざまの要素を分析し、それぞれのAIモデルの信用性を評価する。

 同プラットフォームは2019年内に提供開始される見通し。

 同プラットフォームは、同社が2018年に発表したAI概念枠組みの一環。同社のAI概念枠組みは、偏見や倫理、社会責任に関する認識や見方を明示できるようにするシステムの設計を目指すもの。それによって法人向けAI機能の公正性を評価できるようにし、各社が採用するAI機能に倫理的な問題がどのくらい潜んでいるかを数値化する。

 近年、数えきれない数のAI機能が商業化されている。過去1年には、AI機能に偏見があることも問題視されている。IBMでは、解析や分析に偏見が含まれるAI機能を特定して偏見を弱めるクラウド・サービスを発表。また、新興企業のパイメトリックス(Pymetrics)でも類似のオーディットAI(Audit AI)というプラットフォームを市場投入している。マサチューセッツ工科大学の研究班も、解析精度を損なうことなくAI偏見を自動的に特定して排除するシステムを開発している。

 人工知能は種々のデータを解析することで洞察を導き出すが、解析結果は、膨大な量のデータの学習内容に大きく左右されるため、それらのデータのなかに偏ったものが含まれていると解析結果にもそれが反映され、偏見や非倫理的材料がはじき出される。

 単純な例では、人材採用過程を機械学習によって自動化するために、任意の会社で成功する可能性の高い候補者を絞り込んだ際、ゴルフを趣味とする白人男性ばかりが候補に残ったという事例がある。当該会社の幹部や成功した社員らのあらゆるデータを学習した結果、当該会社ではゴルフ好きの白人男性がその企業文化にあうという偏見に満ちたデータが機械学習アルゴリズムにそういった判断を算出させた。

https://venturebeat.com/2019/04/09/ernst-young-introduce-ai-trust-measurement-tool/