COLUMN経営コラム

AIは万能ではない!知っておきたい不得意な分野とは

AIは万能ではない!知っておきたい不得意な分野とは

AIという言葉がビジネスの場でも聞かれるようになって久しいが、その性能について聞かれたとき「知ってるよ、人工知能のことでしょ」と誰もが答えることだろう。

文部科学省が公表しているAIとは「人工知能(Artificial Intelligence)の略称であり、コンピューターの性能が大きく向上したことにより、機械であるコンピューターが『学ぶ』ことができるようになった、いわゆる“機械学習”を備えた技術」だと定義づけている。

参考;文部科学省「科学技術 AIって何?」
https://www.mext.go.jp/kids/find/kagaku/mext_0008.html

さて、2023年10月に施行されるインボイス制度に向けて、社内システムのデジタル化を図っている企業も多いことだろうが、AIプロジェクトを推進していくうえで、知っておくべきことがある。

それは、「必ずしもAIは万能ではない」ということだ。

時間やコストを無駄にしないためにも、AIの不得意なことを理解したうえで業務効率化を図っていく必要があるだろう。

この記事では、そのAIの不得意とすることが何かについて解説していくので、AIプロジェクト推進の参考にして頂きたい。

少ないデータで推理するのが不得意

AIはたくさんのデータをもとに学習する。

機械学習の方法によって必要とするデータ数も異なるが、最低でも1,000個のデータがなければ学習できないと考えるのが通常である。

たとえば、パンダを見たことがない子どもにパンダを教えるとき、パンダの写真が5枚ほどあれば事足りるはずだ。

写真を見て特徴を読み取り、自然にイヌやウシやブタと「パンダ」を見分けられるようになる。

一方でAIでは写真5枚では、どうすることもできない。

一般的にデータ量がたくさんあればあるほど、AI精度は上がる。

反対にデータ量が少なければ、満足できる結果を得ることが難しくなる。

不合理な判断を下すのが苦手


AIは「合理的な判断」を下すのが得意である。

人と違い、その日の天候や体調に左右されず、常に最も合理的で効率のよい方法を選択できる。

逆に言えば、合理的でない判断を下すことがとても苦手だ。

あらかじめ「こういう場合は、合理的でなくても〇〇を選択する」という例外的なルールを教えない限り、合理的でない判断を下すことはない。

ここで一つ心理学で有名な「ビュリダンのロバ」の話を紹介する。

ある日、腹を空かせたロバが、2つに分かれた道の真ん中に立っていた。

それぞれの道の先には、まったく同じ量の干し草A・Bが置いてある。

ロバから干し草までの距離は完全に同じである。

つまり、右の道を選んでも左の道を選んでも結果はまったく同じということになる。

このとき、賢い合理的なロバは、どちらの干し草も選べずに餓死してしまう。

この話は、意思決定について論じるときに引き合いに出されるたとえ話だが、AIもこのロバと同じように、合理的な判断が難しい状況になると、「判断不能」という状態に陥ってしまうのだ。

文脈から意味を読み取るのが不得意

AIは文脈から意味を読み取るようなことも苦手である。

たとえば、公園のベンチで2人の女の子がおしゃべりをしていたとする。

10分ほど話をした後、女の子がもう一人の女の子に向かって「もう、いいよ」と言った。

このとき彼女はどういう意味で「もう、いいよ」と言ったのだろうか。

「もう十分だよ」という意味なのか、それともイライラして「しつこいから、もういい」という気持ちで拒絶したのだろうか。

人間であれば、それ以前に展開された会話の内容から、どんな「いいよ」なのかを容易に判断できる。

しかし、AIの場合は文脈から意味を読み取るのは非常に苦手である。

直前の会話の内容をインプットしても、「もう、いいよ」にどんな意味が含まれているのか推理することが難しいのだ。

臨機応変に対応できない

人間なら、相手の表情を見たり、声の調子を読んだり、場の空気を読んだりしながら、対応を変えることができるが、AIに臨機応変の対応を教え込むのは困難である。

すべての可能性を想定して、その状況に最もふさわしい対応を具体的にすべて教える必要があるからだ。

アメリカの哲学者ダニエル・デネット氏は、「AIの限られた処理能力で、現実に起こりうるすべてのことに対処することは困難である問題」を「フレーム問題」として、やはりたとえ話として説明している。

ある洞窟の部屋の中にロボットを動かすバッテリーがあり、その上に時限爆弾が仕掛けられている。

このままでは爆弾が爆発し、バッテリーが壊れてしまう。

そこで、科学者はAIを搭載したロボット1号に「洞窟の中にある部屋からバッテリーを運び出す」ことを命令した。

ロボット1号は難なくバッテリーを運び出すことができたが、バッテリーを運ぶと爆弾も一緒に運んでしまうことに気づかなかったため、洞窟から出た直後に爆弾が爆発してしまった。

失敗したのは、ロボット1号が「バッテリーを運ぶことで副次的に発生すること」、つまりこの場合は爆弾を運んでしまうことを予測できなかったことである。

次に科学者は、ある行動に対して「副次的に発生することをすべて予測する能力」があるロボット2号を開発し、洞窟の中に送り込んだ。

ところが、このロボット2号はバッテリーの前で停止したまま動かなくなり、時限爆弾が爆発してしまう。

これは、バッテリーを動かすことで「天井が落ちないか」「部屋の電源が切れないか」「壁の色が変わらないか」など、副次的に発生することを無限に考え続けてしまったからである。

そこで、科学者は目的と無関係な事項を考慮しないように改良したロボット3号を開発した。

しかし、このロボット3号は洞窟に入る前に動かなくなってしまった。

目的と無関係な事項をすべて洗い出そうとして、無限に思考し続けたからである。

つまり、関係にあることを推測しても、関係のないことを推測しても、ロボットは無限ループに陥ってしまう可能性があるのだ。

人間なら、関係があることとないことを一瞬で判断できることが、AIは苦手なのである。

まとめ

AIプロジェクトでは、AIが不得意なことを効果的に回避する必要がある。

「自社の業務をデジタル化に移行したいが手順がわからない」「自社サイトでの成約が伸びない」などでお悩みの経営者の方、またはWeb運用担当者の方は、是非一度未来マーケティングの相談して頂きたい。

Webマーケティング全般に熟知した専門スタッフが、御社の課題解決に全力でサポートする。

PAGE TOP