私の部署は、AI変革(AX)に力を入れている。その中で最近特に見えるようになってきたものがある。
それは、AIについて知ってる人と試してる人との圧倒的な差だ。
「知ってる(=試さない)人」とは
ChatGPTで調べ物をする。意見をブラッシュアップする。一種の「賢い辞書」として、AIを消費しているだけ。 そして、「AIは信用できない」「結局人がやった方がいい」と言う人が多い。そのせいなのか、自分たちの業務にAIをどう活かすか、考えていない。業務の中で、「ここはAIで改善できるんじゃないか」と気づけず試せない。
「試してる人」とは
自分たちの業務を構造化・言語化し「ここはAIで変えられるんじゃないか」と気づく。 そしてAIを活用してみようと試す。試すと決めたら、失敗も想定して、実装する。 試行錯誤の中で、AIと人間の最適な組み合わせを見つけていく。AIを『仕事の道具』として、自分たちの業務に活かす人だ。
適切に分けられているかどうかは置いておいて、AI活用に対してこの2者間の差は開いていく一方だ。
では、試している人と試さない人間では、実際に何が起きるのか。海外向けテキストの製作プロジェクトで、その差を見ることができた。
『AIは信用できない』という判断は、試していない人間の言葉である
「AIは信用できない」という主張がある。
その発言の根底にあるのは、AIの精度についての実際の評価ではなく、試したことがないことだ。
試した経験がなければ、AIが何ができるのか、何ができないのか判断することができない。判断できないから、不信が生まれる。不信があるから、試さない。自己完結した負のループだ。
試した人間は異なる前提で行動する。「確認してみないと実態はわからない」という判断で、AIを使っている。
例えば「テキストが写った画像を読み込んで、そこに何が書かれているか説明できるか」ということができれば業務にとても役に立つのに!と期待していたとしよう。
試していない人間は、「そんなことはできないはずだ」あるいは「精度が悪いに違いない」と判断している。その判断は確認なしの仮説に過ぎない。
試す人間は、できるかどうかわからないけどやってみよう!と手を動かしてみる。実際に試すと、想定以上に高い精度で処理できるケースが多い。「そんなこともできるのか」という認識が更新される。
『知ってる人』と『試してる人』の差は、『試すか試さないか』という判断の違いだ。
試さない人間は、AIができることの範囲を知らない。知らないものに対して、人間は信用できないという判断を下しやすい。この構造は、AIの問題ではなく、試すという行動を選択していない人間側の問題である。
既存業務フローへのAI導入 —反対から納得へ
海外向けのテキスト製作プロジェクトがあった。誰も経験したことがない新規事業だ。
必要な作業は、テキストの英訳と品質管理(校正)である。
社内に「校正業務」という仕組み化されたフローが既に存在している。紙の出版物でもデジタルコンテンツでも、テキストは必ず校正を通す。品質を担保するための必須ステップだ。
新しい英訳プロジェクトでも、この校正ステップを外すことはできない。
しかし、校正工程へのAI導入には反対の声が上がった。
「校正は完全性が必要だから、AIは使えない。」
この論理は、一見妥当に見える。医療文書や法的責任を伴う契約書では、100%の正確性が求められる。だが、教科書の場合、完全性は必要だが、100%の完璧性までは求められない。ここに試してみるべき根拠があった。
NotebookLMを使って、英訳のワークフローを構築した。最初のプロンプト設計では、期待する結果が得られなかった。そこで諦めずにプロンプトや使用するソースの見直しを何度も行い、初めて一定の品質に達した。設計上の工夫は、「Human in the loop」という構成にすることだ。
AIが生成した英訳を、必ず人間が校正する。AIが間違えることもあり、見落とすこともある。だが、人間がそこに介在することで、AI単独では達成できない品質を実現できる。
実際の結果は、以下の通りだ。
AIが生成した英訳を人間が校正する場合、AIが間違える確率は1割から2割。その誤りの大半は「別の表現の方が適している」という程度のもので、完全な誤訳はほぼない。
その1割から2割を人間が見直すことで、校正に必要な時間は従来比で約半分まで削減できた。
反対派の評価も変わった。試してみたことで、「これなら運用できる」という判断に至ったのだ。
試さなければ、「AIは使えない」という評価に終わっていた。試すことで初めて、「AIと人間の組み合わせで、効率と品質を両立させる」という選択肢が生まれたのだ。
試した人間は、AIの限界を理解する。そしてAIの限界を知るからこそ、「どこまでAIに任せて、どこから人間が介在するか」を設計できるようになるのだ。
『試さない理由』は、試す前の防衛機制に過ぎない
「AIは信用できない」「完全性が必要だから無理」「精度が悪いだろう」。
これらの声は、すべて『試す前の言い訳』だ。
試す前に、AIの精度を知らない。試す前に、AIができることの範囲を知らない。試す前に、AIと人間をどう組み合わせるかも知らない。
それなのに、試す前から「できない」と決めつけている。
試す人間は異なる思考をしている。「できるかどうか、試してみないとわからない。」
英訳プロジェクトで「校正は完全性が必要だから、AIは使えない」と主張していた人も、試した結果納得した。試したことで、『完全性』と『効率』が同時に実現できることを知ったからだ。
100%の精度をAIに求める必要はない。80%の精度で十分だ。残りの20%を人間が補う。その方が、トータルの処理時間は短くなる。
試す人間と試さない人間の、数年後
『知ってる(試さない)人』は、永遠に「AIは信用できない」「結局人がやった方がいい」という主張を繰り返すだろう。
ChatGPTで調べ物をする程度の使い方しか知らない。だから、業務に活かせるAIの可能性が目の前にあっても、気づかない。気づかないから、試さない。試さないから、AIができることを知らない。知らないから、信用できないと判断する。
これは自己強化する負のループだ。
『試してる人』は、どんどん新しい世界を発見する。
AIに「これできるか」と問い合わせる習慣が、新しいアイデアを生む。「このタスク、AIでできるんじゃないか」という想像力が働くようになる。試してみたら成功することもあれば、失敗することもある。だが、失敗からも学ぶ。
プロンプト設計を複数回繰り返すことで、「こういう指示の工夫が必要」という知識が蓄積される。失敗経験が、次の試行に活きる。
英訳プロジェクトで「校正にAIは使えない」という反対意見も、試してみた結果払拭された。反対派も「これなら使える」と納得した。
試す人間が増えると、その知識や工夫が組織内で共有される。プロンプトのテンプレートも、Human in the loopの設計パターンも、次の人に伝わる。
その時点で、AI活用は「個人の工夫」から「組織の資産」へ変わる。
『知ってる人』は、その流れに取り残される。試さないから、新しい選択肢が見えない。見えないから、判断もできない。判断できないから、決めつける。
変化の激しいこの時代、2〜3年後にはこの差は埋められないものになるだろう。
それはAIの進化の速度の問題ではなく、人間が『試す勇気』と『試す習慣』を持つかどうかという問題だ。