AI時代の仕事論:試す勇気が次の競争力

私の部署は、AI変革(AX)に力を入れている。その中で最近特に見えるようになってきたものがある。

それは、AIについて知ってる人と試してる人との圧倒的な差だ。

「知ってる(=試さない)人」とは
ChatGPTで調べ物をする。意見をブラッシュアップする。一種の「賢い辞書」として、AIを消費しているだけ。 そして、「AIは信用できない」「結局人がやった方がいい」と言う人が多い。そのせいなのか、自分たちの業務にAIをどう活かすか、考えていない。業務の中で、「ここはAIで改善できるんじゃないか」と気づけず試せない。

「試してる人」とは
自分たちの業務を構造化・言語化し「ここはAIで変えられるんじゃないか」と気づく。 そしてAIを活用してみようと試す。試すと決めたら、失敗も想定して、実装する。 試行錯誤の中で、AIと人間の最適な組み合わせを見つけていく。AIを『仕事の道具』として、自分たちの業務に活かす人だ。

適切に分けられているかどうかは置いておいて、AI活用に対してこの2者間の差は開いていく一方だ。

では、試している人と試さない人間では、実際に何が起きるのか。海外向けテキストの製作プロジェクトで、その差を見ることができた。

『AIは信用できない』という判断は、試していない人間の言葉である

「AIは信用できない」という主張がある。

その発言の根底にあるのは、AIの精度についての実際の評価ではなく、試したことがないことだ。

試した経験がなければ、AIが何ができるのか、何ができないのか判断することができない。判断できないから、不信が生まれる。不信があるから、試さない。自己完結した負のループだ。

試した人間は異なる前提で行動する。「確認してみないと実態はわからない」という判断で、AIを使っている。

例えば「テキストが写った画像を読み込んで、そこに何が書かれているか説明できるか」ということができれば業務にとても役に立つのに!と期待していたとしよう。

試していない人間は、「そんなことはできないはずだ」あるいは「精度が悪いに違いない」と判断している。その判断は確認なしの仮説に過ぎない。

試す人間は、できるかどうかわからないけどやってみよう!と手を動かしてみる。実際に試すと、想定以上に高い精度で処理できるケースが多い。「そんなこともできるのか」という認識が更新される。

『知ってる人』と『試してる人』の差は、『試すか試さないか』という判断の違いだ。

試さない人間は、AIができることの範囲を知らない。知らないものに対して、人間は信用できないという判断を下しやすい。この構造は、AIの問題ではなく、試すという行動を選択していない人間側の問題である。

既存業務フローへのAI導入 —反対から納得へ

海外向けのテキスト製作プロジェクトがあった。誰も経験したことがない新規事業だ。

必要な作業は、テキストの英訳と品質管理(校正)である。

社内に「校正業務」という仕組み化されたフローが既に存在している。紙の出版物でもデジタルコンテンツでも、テキストは必ず校正を通す。品質を担保するための必須ステップだ。

新しい英訳プロジェクトでも、この校正ステップを外すことはできない。

しかし、校正工程へのAI導入には反対の声が上がった。

「校正は完全性が必要だから、AIは使えない。」

この論理は、一見妥当に見える。医療文書や法的責任を伴う契約書では、100%の正確性が求められる。だが、教科書の場合、完全性は必要だが、100%の完璧性までは求められない。ここに試してみるべき根拠があった。

NotebookLMを使って、英訳のワークフローを構築した。最初のプロンプト設計では、期待する結果が得られなかった。そこで諦めずにプロンプトや使用するソースの見直しを何度も行い、初めて一定の品質に達した。設計上の工夫は、「Human in the loop」という構成にすることだ。

AIが生成した英訳を、必ず人間が校正する。AIが間違えることもあり、見落とすこともある。だが、人間がそこに介在することで、AI単独では達成できない品質を実現できる。

実際の結果は、以下の通りだ。

AIが生成した英訳を人間が校正する場合、AIが間違える確率は1割から2割。その誤りの大半は「別の表現の方が適している」という程度のもので、完全な誤訳はほぼない。

その1割から2割を人間が見直すことで、校正に必要な時間は従来比で約半分まで削減できた。

反対派の評価も変わった。試してみたことで、「これなら運用できる」という判断に至ったのだ。

試さなければ、「AIは使えない」という評価に終わっていた。試すことで初めて、「AIと人間の組み合わせで、効率と品質を両立させる」という選択肢が生まれたのだ。

試した人間は、AIの限界を理解する。そしてAIの限界を知るからこそ、「どこまでAIに任せて、どこから人間が介在するか」を設計できるようになるのだ。

『試さない理由』は、試す前の防衛機制に過ぎない

「AIは信用できない」「完全性が必要だから無理」「精度が悪いだろう」。

これらの声は、すべて『試す前の言い訳』だ。

試す前に、AIの精度を知らない。試す前に、AIができることの範囲を知らない。試す前に、AIと人間をどう組み合わせるかも知らない。

それなのに、試す前から「できない」と決めつけている。

試す人間は異なる思考をしている。「できるかどうか、試してみないとわからない。」

英訳プロジェクトで「校正は完全性が必要だから、AIは使えない」と主張していた人も、試した結果納得した。試したことで、『完全性』と『効率』が同時に実現できることを知ったからだ。

100%の精度をAIに求める必要はない。80%の精度で十分だ。残りの20%を人間が補う。その方が、トータルの処理時間は短くなる。

試す人間と試さない人間の、数年後

『知ってる(試さない)人』は、永遠に「AIは信用できない」「結局人がやった方がいい」という主張を繰り返すだろう。

ChatGPTで調べ物をする程度の使い方しか知らない。だから、業務に活かせるAIの可能性が目の前にあっても、気づかない。気づかないから、試さない。試さないから、AIができることを知らない。知らないから、信用できないと判断する。

これは自己強化する負のループだ。

『試してる人』は、どんどん新しい世界を発見する。

AIに「これできるか」と問い合わせる習慣が、新しいアイデアを生む。「このタスク、AIでできるんじゃないか」という想像力が働くようになる。試してみたら成功することもあれば、失敗することもある。だが、失敗からも学ぶ。

プロンプト設計を複数回繰り返すことで、「こういう指示の工夫が必要」という知識が蓄積される。失敗経験が、次の試行に活きる。

英訳プロジェクトで「校正にAIは使えない」という反対意見も、試してみた結果払拭された。反対派も「これなら使える」と納得した。

試す人間が増えると、その知識や工夫が組織内で共有される。プロンプトのテンプレートも、Human in the loopの設計パターンも、次の人に伝わる。

その時点で、AI活用は「個人の工夫」から「組織の資産」へ変わる。

『知ってる人』は、その流れに取り残される。試さないから、新しい選択肢が見えない。見えないから、判断もできない。判断できないから、決めつける。

変化の激しいこの時代、2〜3年後にはこの差は埋められないものになるだろう。

それはAIの進化の速度の問題ではなく、人間が『試す勇気』と『試す習慣』を持つかどうかという問題だ。

よかったらシェアしてね!
  • URLをコピーしました!
目次