2019年03月01日

AI意思決定プロセスの問題

こんにちは。ナレッジリング開発担当の鈴木です。

3月ですね。日ごと暖かく感じる日も多くなって来ました。
ちまたではインフルエンザの流行も落ち着いてました。
そうなると今度は花粉がその存在感を主張して来ます。
大手気象予報会社ウェザーニュースによると、
2019年の花粉の飛散量は前年の5倍になる可能性があるそうです。
(「来春の花粉、首都圏で6年ぶり大量飛散か 今夏の記録的猛暑で」)
私も花粉症なのですが花粉症の人間には厳しい春となりそうです。
目の痒み、鼻のムズムズに負けず頑張って行きたいと思います。

さて今回もAIネタです。
最近では概念実証が完了し実用化のフェーズに入っているAIが本当に増えて来ましたね。
これは学習済みの機械学習モデルが増えてきたことも影響があるのではないでしょうか?
学習済みの機械学習モデルを利用すると、ある程度事前に学習済みなので

  • 追加データを投入するだけですぐに使えるようになる
  • 開発コストが抑えられる

など非常に大きなメリットがあります。
その代償として「AI意思決定のプロセスのブラックボックス化」といった問題が残ります。
意思決定のプロセスがブラックボックス状態で
AIが差別的な意思決定をしてしまったら…考えただけで怖いですよね…。
先日AI関連の情報を物色していた時に
こうした問題を解決できそうな面白そうなソフトウェアサービスを見つけましたので
ご紹介させていただこうと思います。
そのサービスとはIBMが提供する「AI OpenScale」です。
このサービスを使うと複数のAIモデルを統合管理、監視する事が出来、
AIがバイアスが掛かった判定をしている場合にはアラートを検出、
検出したバイアスを軽減したAIモデルを作成し
判断の公平性を保つ助けまでしてくれるそうです。
対応フレームワークはWatson はもちろん、TensorFlow、Spark ML、
Amazon SageMaker、Azure MLなど守備範囲が本当に広いです。
AIを導入したいけどチャットボットがヘイト発言をし始めたら・・・」
などとご心配されている場合はこうしたサービスの導入も
あわせて検討すると良いかも知れませんね。

それでは今回はこのへんで。



posted by CBIT鈴木 at 17:28 | Comment(0) | その他 | このブログの読者になる | 更新情報をチェックする
この記事へのコメント
コメントを書く
お名前:

メールアドレス:

ホームページアドレス:

コメント: