†でおきしブログ†

ウナギ食べたいヽ(•̀ω•́ )ゝ✧

AI(機械学習やディープラーニング)に懐疑的な事と不勉強な自分

☆TL;DR

AIは予測不能な挙動を許容するいわゆるエンタメ系にフィットする。

政府が推すほどの価値はないのでは?

☆なんか政府レベルで盛り上がりはじめてるAI

一時期のバズ具合からは落ち着いてきた「AI(機械学習ディープラーニング)」。

テック界隈では沈静化し始めたAIが、2019年初頭より政府レベルで盛り上がりを見せはじめています。

☆日本政府

www.nikkei.com

★「人工知能(AI)の活用に関する7つの基本原則」なるものも掲げています

www.sankei.com

アメリカも

japan.cnet.com


ところで政府が動くほどのインパクトがAIにあるのでしょうか?
実際政府が動きはじめているので「AIって凄いのね」という印象を抱きますけれど、僕は懐疑的です。

何故なら大事な事を誰も語っていないから。

  • 具体的にAIに何を期待しているのか?
  • AIは何ができるのか?

個人的にはビッグデータ以来のバズワードじゃないかな?と思っています。
言葉ばかり先行して、具体的な事はあまり述べられないでいる。

☆エンドユーザーの立場から

AIで作られた何某が凄いなと感じたら「AIすっごーい!」と言っていれば良い。
全く使い物にならないAIで作られた何某を見かけたら「AIダメじゃね?」と言っていれば良い。

エンドユーザーはブラックボックス化されたプログラムの処理部分(AI)は見えない。あくまでアウトプットで良し悪しを判断する。

どれだけ素晴らしいAIを使ったシステムでも、アウトプットでしか評価できない。消費者はそういうものだ。

原発が事故れば「原発反対」となるわけだ。

システム開発サイドの立場から

タイトルにあるように私は不勉強なのでAIを使って何かを作った事がありません。私は具体的にAIで何ができて、何が素晴らしいかを実体験できていません。

なので、いわゆるシステム開発屋の視点で書いてます。

★人知を超えたアウトプットの危険性

通常のシステム同様に、AIはINPUTに対してOUTPUTを出します。

INPUT → AI → OUTPUT

通常のシステムと異なる点は、AIが何故そのOUTPUTを出したのか?その理由を人間は知らない。分からない。*1


人知を超えたOUTPUTをする所がAIの良さでもあり、危険性でもあります。
顧客やユーザーの意図にそぐわないOUTPUTだった場合、どのように保証するのか?

通常のシステム開発ですら大炎上や訴訟問題がある中、予測不能なAIは危険だと思うわけです。

★ゆえに予測不能な挙動を許容する案件にフィットする

ある程度の間違いを許してくれる案件にAIはフィットすると思います。
チャットボットやエンタメ向けのロボットとかアキネイターみたいな判定サービス。

いわゆるエンタメ系。

厳格なシステムにAIは不要だと思うわけです。

そうした時、AIって政府を上げてまで推進するほど使える現場ってあるんですかね?
f:id:deokisikun:20190412041544p:plain

*1:AIの実装にもよる