2019年03月01日

AI意思決定プロセスの問題

こんにちは。ナレッジリング開発担当の鈴木です。

3月ですね。日ごと暖かく感じる日も多くなって来ました。
ちまたではインフルエンザの流行も落ち着いてました。
そうなると今度は花粉がその存在感を主張して来ます。
大手気象予報会社ウェザーニュースによると、
2019年の花粉の飛散量は前年の5倍になる可能性があるそうです。
(「来春の花粉、首都圏で6年ぶり大量飛散か 今夏の記録的猛暑で」)
私も花粉症なのですが花粉症の人間には厳しい春となりそうです。
目の痒み、鼻のムズムズに負けず頑張って行きたいと思います。

さて今回もAIネタです。
最近では概念実証が完了し実用化のフェーズに入っているAIが本当に増えて来ましたね。
これは学習済みの機械学習モデルが増えてきたことも影響があるのではないでしょうか?
学習済みの機械学習モデルを利用すると、ある程度事前に学習済みなので

  • 追加データを投入するだけですぐに使えるようになる
  • 開発コストが抑えられる

など非常に大きなメリットがあります。
その代償として「AI意思決定のプロセスのブラックボックス化」といった問題が残ります。
意思決定のプロセスがブラックボックス状態で
AIが差別的な意思決定をしてしまったら…考えただけで怖いですよね…。
先日AI関連の情報を物色していた時に
こうした問題を解決できそうな面白そうなソフトウェアサービスを見つけましたので
ご紹介させていただこうと思います。
そのサービスとはIBMが提供する「AI OpenScale」です。
このサービスを使うと複数のAIモデルを統合管理、監視する事が出来、
AIがバイアスが掛かった判定をしている場合にはアラートを検出、
検出したバイアスを軽減したAIモデルを作成し
判断の公平性を保つ助けまでしてくれるそうです。
対応フレームワークはWatson はもちろん、TensorFlow、Spark ML、
Amazon SageMaker、Azure MLなど守備範囲が本当に広いです。
AIを導入したいけどチャットボットがヘイト発言をし始めたら・・・」
などとご心配されている場合はこうしたサービスの導入も
あわせて検討すると良いかも知れませんね。

それでは今回はこのへんで。



posted by CBIT鈴木 at 17:28 | Comment(0) | その他 | このブログの読者になる | 更新情報をチェックする

2019年02月15日

ナレッジマネジメントの始め方

はいどうも!
営業担当の宮澤です。

私にとっては新年一発目のブログなのですが、
早いもので2019年もあっという間に2ヵ月が過ぎようとしています。

年末年始は割と体調よかったのに、つい先日久しぶりに体調崩してしまい、
色々な方々に迷惑を掛けてしまいました・・・。体調管理気を付けます(-_-;)

ということで今年一発目のブログ内容どうしようかなー、
と寝込みながらも考えていたのですが、
最近このブログはもはやAIブログみたいになっていたので、
初心に帰って今回は「ナレッジマネジメント」系のお話をしようと思います!

お時間ある方は、3 分 だ け お 付 き 合 い く だ さ い。


さてさて、まずは「ナレッジマネジメント」という言葉のおさらいからです。
ナレッジマネジメントとは、社内で個人が持っている知識・経験・ノウハウ
(総称して暗黙知)を資料や報告書等、目に見える形(総称して形式知)に変換し、
それらを社内で共有することで、企業の生産性向上・業務改革・業績向上につなげる
マネジメント手法のことです。

最近ではこのナレッジマネジメントを実践している企業様も多く、
弊社のサービスもおかげ様で多くの引き合いを頂戴しているのですが、
本ブログではナレッジマネジメントを成功に導く為の“始め方”をお伝えしていきます。

STEP1
ナレッジマネジメント本格導入の“目的”と“時期”を明らかにする。

これ、一番重要だと思います。
現状は何が課題で、ナレッジマネジメントによって何の情報を誰がどのように共有するのか、
それによってどんな効果が期待できるのか、を明確にすることです。
また、その目的を“いつまでに達成するのか”を設定することもとても重要です。
期限を設けないプロジェクトは間延びしがちで中々進捗しません。
「○月○日までに本格導入する」と決めたらあとは逆算して計画を立てると良いでしょう。


STEP2
ナレッジマネジメントの目的を社内に広報して“共通認識”を持つ。

どんなに担当者レベルで「ナレッジマネジメント頑張りましょう!」と声を挙げても、
他のメンバーが全くその価値を感じていなかったり、非協力的だった場合、
ナレッジマネジメントは間違いなくうまくいきません。
その為にもまずはナレッジマネジメントの“目的”を実施するメンバー全員で理解し、
全員がその目的達成のために進んでいくんだ!という“共通認識”を持つことが重要です。


STEP3
ナレッジマネジメントを“仕組化”する。

STEP2まではどちらかというと本格導入に向けた“準備”の部分でしたが、
ここからいよいよ本格的にナレッジマネジメントに着手していくことになります。
ここで検討すべきなのが社内にあるナレッジを誰がどのように整理・管理して、
それをどのように社内のメンバーに届けるか、です。

その手段の1つとして社内イントラやグループウェアを用いたり、
もしくは、ナレッジマネジメントに特化したシステムを導入してもいいと思いますが、
大切なことはツールやシステムの導入はあくまでも“手段”の1つであり、
それらを導入したからといって全てがうまくいくわけではありません。

繰り返しになりますが、ナレッジマネジメントを始めるにあたって、
その“目的”が社内で“共通認識”として捉えられているという前提条件と、
どの情報を誰がどのように整理・管理して社内に届けるのかという“仕組化”の部分が、
とても重要になってきます。


STEP4
“トライ&エラー”を繰り返しながら啓蒙活動を実行する。

ここまできたらあとは日々トライ&エラーをひたすら繰り返すといいと思います。

・どうやったら常に最新の情報をメンバーに届けられるのか
・どうやったらメンバーがより効率よく必要な情報を見つけられるようになるのか
・どうやったらメンバーがツールやシステムをもっと使うようになってくれるのか

などは実際に運用しながら、時にメンバーへのヒアリングも実施しつつ、
“草の根”的な啓蒙活動をしていくしか方法がありません。
ナレッジマネジメントは1日にしてならず、ということですね。


と、今回はここまでです。
他にもナレッジマネジメントを成功に導くTIPSはありますが、
それはまたの機会にでも。

もし弊社の情報共有システム「ナレッジリング」にご興味あれば、
HPからお問い合わせいただくか、直接私までご連絡くださいませ!ではまた。



posted by CBIT宮澤 at 12:59 | Comment(0) | コンサルティング | このブログの読者になる | 更新情報をチェックする

2019年02月01日

説明責任を果たせなければ、AIを使うべからず!?

こんにちは。
マーケティング・営業担当の池田です。

2019年、AI分野にとってはどんな年になるのか・・・
とかなんとか言っているうちに、早くも1ヶ月が過ぎてしまいました(汗)
遅ればせながら、今回の内容は「2019年のAI」をテーマに取り上げてみようと思います。

その前に、昨年2018年はどんな年だったかというと、
一言で言えば「ようやく企業でのAI活用が本格化した年」と言えるのではないでしょうか。
しかし、世界から見れば日本企業のAI活用はまだまだ序の口。
それについては、以前、このブログでも触れている通りです。

このように「AI後進国」と言われてきた我が日本ですが、
政府もいよいよ本格的に法整備に乗り出したようです。
昨年12月、AIの活用に関する7つの基本原則を定めました。

1人間中心基本的人権を侵さない
2教育・リテラシー正しい利用のための教育環境提供
3プライバシー確保望まない形での個人情報流出防止
4セキュリティー確保安全上の取り組み推進
5公正競争確保特定の国・企業にAI資源の集中をさせない
6公平性・説明責任・透明性AI利用で国籍や性別などの差別を作らせない
7イノベーション国境を超えたデータ利用へ環境整備

ポイントは
AIは人間の基本的な人権を侵さない」(原則1)
AIを利用した企業に決定過程の説明責任」(原則6)

AIの導入が積極的に進められている分野と言えば、金融や人事採用。
フィンテック」「HRテック」という言葉がそれを示していますよね。
これらの分野でAIを使ったサービスをよく見聞きするようになりました。
実際には、金融機関の融資や就職採用時の合否にAIが活用されたりしています。
しかし、AIどのような基準でその判断を下したのか明確にはわからないという側面も。
実際に、以下のような問題も起こっています。


AIがここまで発展してきたのはディープラーニングという技術が飛躍的に進化したから。
特に金融や人事採用の分野にはビッグデータが存在するので、
ディープラーニングによるビッグデータの解析が進んだことにより業界が発展してきました。
しかし、アマゾンの事例は、それが裏目に出た結果と言えるかもしれません。

そこで、企業がAIに対して説明責任を果たさなければならないという原則です。
つまり「人間がAIを充分理解して運用すべき」というわけです。
しかし、ある意味、人間が説明しきれないようなロジックで結果を出すのがディープラーニング
言ってみれば、天才(ディープラーニング=AI)の発言が凡人(人間)にとっては
「何を言っているかさっぱりわからない」と感じるのと同じ状態なわけですよね?
天才の頭の中は凡人では理解し難いように、人間がAIを理解するのはかなり困難です。
となると、説明責任の原則は、企業がAIを導入したり活用したりする場合の弊害になるのでは?
とも思ったりしてしまいます。

冒頭の草案については、今後国内外から広く意見を募った上で今年3月に策定するとのことなので、
今後の動向を見守りましょう。
さて、AIに関する法整備が進み、2019年、AIの活用はようやく安定期に入るのでしょうか・・・?



posted by CBIT池田 at 09:51 | Comment(0) | その他 | このブログの読者になる | 更新情報をチェックする