2019年03月01日

AI意思決定プロセスの問題

こんにちは。ナレッジリング開発担当の鈴木です。

3月ですね。日ごと暖かく感じる日も多くなって来ました。
ちまたではインフルエンザの流行も落ち着いてました。
そうなると今度は花粉がその存在感を主張して来ます。
大手気象予報会社ウェザーニュースによると、
2019年の花粉の飛散量は前年の5倍になる可能性があるそうです。
(「来春の花粉、首都圏で6年ぶり大量飛散か 今夏の記録的猛暑で」)
私も花粉症なのですが花粉症の人間には厳しい春となりそうです。
目の痒み、鼻のムズムズに負けず頑張って行きたいと思います。

さて今回もAIネタです。
最近では概念実証が完了し実用化のフェーズに入っているAIが本当に増えて来ましたね。
これは学習済みの機械学習モデルが増えてきたことも影響があるのではないでしょうか?
学習済みの機械学習モデルを利用すると、ある程度事前に学習済みなので

  • 追加データを投入するだけですぐに使えるようになる
  • 開発コストが抑えられる

など非常に大きなメリットがあります。
その代償として「AI意思決定のプロセスのブラックボックス化」といった問題が残ります。
意思決定のプロセスがブラックボックス状態で
AIが差別的な意思決定をしてしまったら…考えただけで怖いですよね…。
先日AI関連の情報を物色していた時に
こうした問題を解決できそうな面白そうなソフトウェアサービスを見つけましたので
ご紹介させていただこうと思います。
そのサービスとはIBMが提供する「AI OpenScale」です。
このサービスを使うと複数のAIモデルを統合管理、監視する事が出来、
AIがバイアスが掛かった判定をしている場合にはアラートを検出、
検出したバイアスを軽減したAIモデルを作成し
判断の公平性を保つ助けまでしてくれるそうです。
対応フレームワークはWatson はもちろん、TensorFlow、Spark ML、
Amazon SageMaker、Azure MLなど守備範囲が本当に広いです。
AIを導入したいけどチャットボットがヘイト発言をし始めたら・・・」
などとご心配されている場合はこうしたサービスの導入も
あわせて検討すると良いかも知れませんね。

それでは今回はこのへんで。



posted by CBIT鈴木 at 17:28 | Comment(0) | その他 | このブログの読者になる | 更新情報をチェックする

2019年02月01日

説明責任を果たせなければ、AIを使うべからず!?

こんにちは。
マーケティング・営業担当の池田です。

2019年、AI分野にとってはどんな年になるのか・・・
とかなんとか言っているうちに、早くも1ヶ月が過ぎてしまいました(汗)
遅ればせながら、今回の内容は「2019年のAI」をテーマに取り上げてみようと思います。

その前に、昨年2018年はどんな年だったかというと、
一言で言えば「ようやく企業でのAI活用が本格化した年」と言えるのではないでしょうか。
しかし、世界から見れば日本企業のAI活用はまだまだ序の口。
それについては、以前、このブログでも触れている通りです。

このように「AI後進国」と言われてきた我が日本ですが、
政府もいよいよ本格的に法整備に乗り出したようです。
昨年12月、AIの活用に関する7つの基本原則を定めました。

1人間中心基本的人権を侵さない
2教育・リテラシー正しい利用のための教育環境提供
3プライバシー確保望まない形での個人情報流出防止
4セキュリティー確保安全上の取り組み推進
5公正競争確保特定の国・企業にAI資源の集中をさせない
6公平性・説明責任・透明性AI利用で国籍や性別などの差別を作らせない
7イノベーション国境を超えたデータ利用へ環境整備

ポイントは
AIは人間の基本的な人権を侵さない」(原則1)
AIを利用した企業に決定過程の説明責任」(原則6)

AIの導入が積極的に進められている分野と言えば、金融や人事採用。
フィンテック」「HRテック」という言葉がそれを示していますよね。
これらの分野でAIを使ったサービスをよく見聞きするようになりました。
実際には、金融機関の融資や就職採用時の合否にAIが活用されたりしています。
しかし、AIどのような基準でその判断を下したのか明確にはわからないという側面も。
実際に、以下のような問題も起こっています。


AIがここまで発展してきたのはディープラーニングという技術が飛躍的に進化したから。
特に金融や人事採用の分野にはビッグデータが存在するので、
ディープラーニングによるビッグデータの解析が進んだことにより業界が発展してきました。
しかし、アマゾンの事例は、それが裏目に出た結果と言えるかもしれません。

そこで、企業がAIに対して説明責任を果たさなければならないという原則です。
つまり「人間がAIを充分理解して運用すべき」というわけです。
しかし、ある意味、人間が説明しきれないようなロジックで結果を出すのがディープラーニング
言ってみれば、天才(ディープラーニング=AI)の発言が凡人(人間)にとっては
「何を言っているかさっぱりわからない」と感じるのと同じ状態なわけですよね?
天才の頭の中は凡人では理解し難いように、人間がAIを理解するのはかなり困難です。
となると、説明責任の原則は、企業がAIを導入したり活用したりする場合の弊害になるのでは?
とも思ったりしてしまいます。

冒頭の草案については、今後国内外から広く意見を募った上で今年3月に策定するとのことなので、
今後の動向を見守りましょう。
さて、AIに関する法整備が進み、2019年、AIの活用はようやく安定期に入るのでしょうか・・・?



posted by CBIT池田 at 09:51 | Comment(0) | その他 | このブログの読者になる | 更新情報をチェックする

2019年01月18日

ツールとしての人工知能(AI)の可能性

 こんにちは。ナレッジリング開発担当の鈴木です。
早いもので1月も既に半ばですね。
2019年の干支は亥(イノシシ)です。亥年は十二支の一番最後の年にあたり
動物の猪のイメージから万病を予防する「無病息災の年」とされているそうです。
亥(イノシシ)年にあやかり一年間無病息災で過ごしたいものです。

 さて、突然ですが「アルファ碁」を憶えておられますでしょうか?
そう。2015年にコンピュター囲碁として初めてプロ棋士(樊麾)に
勝利をおさめたコンピュータ囲碁プログラムです。
当時は「とうとうこの時が来たのか…」など言われて
機械学習、ディープラーニングという単語と共に
現在の人工知能ブームの火付け役にもなりました。記事一覧183
あの「アルファ碁」です。ご存じの方も多いかと思いますが
アルファ碁は正式名称は「AlphaGo」といいまして
Google傘下DeepMind社によって現在も開発が続けられています。
少し前のお話しですが2018年12月6日に「アルファ碁」を改良した「アルファゼロ」が
碁の他にもチェスと囲碁にも対応し最強ソフトとなったと報道され
再び耳目を集める事になりました

 将棋では2017年の世界コンピュータ選手権で優勝したソフトである「エルモ」と対戦して
90勝8敗2分けという事なので圧倒的な強さですよね。
このアルファゼロですが特徴はその強さだけでなく学習方法も進化していて、
以前は人間の棋士の指した棋譜を大量に学習して強化される「教師あり学習」
を行っていましたが、AlphaZeroは簡単なルールだけ学習させた後は
自己対局によって強化される「教師なし学習」になりました。※注1

※注1…正確にはAlphaZeroの先輩にあたるAlphaGoZeroから強化学習方式に変更となっています。

AlphaZeroがもたらした今回の成果は
過去のデータやシナリオに頼らない新たな人工知能(AI)のあり方を知らしめた点が
特徴的だったように思います。
今回の公開されたAlphaZeroの100局分の棋譜を見たプロ棋士の羽生善治九段は

「王将を中段に動かすことをいとわないのは今までの将棋理論にはなく、新たな可能性を示している」

とコメントしています。
この事からもAlphaZeroのような教師なし学習によって強化された人工知能(AI)
人間には到底考えつかない手順やセオリーを見つけ出す能力が印象づけられます。
人工知能(AI)が人間に取って代わる不利益に目が向けられる場合も多いですが、
AlphaZeroのように人間では考えつかない気づきを得られるというメリットにも注目したいところです。

人工知能(AI)の 便利なツール としての今後の発展に期待したいと思います。

それでは今回はこのへんで。



posted by CBIT鈴木 at 17:02 | Comment(0) | その他 | このブログの読者になる | 更新情報をチェックする