図1: 二十七の僕には誰にも話せない悩みの種があるのです

図1: 二十七の僕には誰にも話せない悩みの種があるのです

はじめに

ここ数年、専門的なホワイトカラーの仕事がAIに奪われるという話を至る所で耳にします。

私自身学部時代から、仕事でも研究でも趣味でもデータサイエンス(以下、DS)にどっぷり浸かってきたのですが、 最近ではテクノロジーに疎い母親や、プログラミング経験のない友人からすら、「まだプログラミングやってるの?」「AIで全部できるんじゃない?」と、悪気なく言われるようになりました。

こうした声は身内だけにとどまりません。 驚くべきことに、名だたる大企業のマネージャーや、コンサルティング業界で長年活躍されてきたような、いわゆるエリートの方々からも、

『DS領域でやっていこうとするのは勧めない』

『データサイエンティストが一番最初にAI に代替される職業なのではないか』

と言われてしまいました。

正直、この状況にちょっとうんざりしています。

彼らはAIが私の仕事を奪う未来を、まるで抗うことのできない「必然」であるかのように語ります1。 しかし、その主張を支える明確な根拠や、自分の経験に基づいた洞察があるわけではありません。 生成AIの最新動向に詳しいわけでもなければ、「なくなる」と言っている職種の中身を理解しているわけでもありません。 大抵ただ、テレビやSNSで聞いた耳障りの良い言葉を、まるで自分の意見であるかのように繰り返しているだけです。 なぜか自信満々に未来を断言するその姿は、まるでLLMのようです。

この風潮は、多くの現場で問題になっているLLMやAIエージェントの負の側面に目を向けずにAIを過剰に業務に導入ことによるリスク2を生んでいるだけでなく、 「AIがなんでもやってくれるから自分は何も学ぶ必要がない」という極端な考え方を助長しているのではないかと危惧しています。 つい先日も、知り合いの優秀な大学院生が「データサイエンティストの将来は暗い」と考え、大学院を中退しようと真剣に悩んでいました。

私は彼らの意見に対して、

図2: それ、本当?

図2: それ、本当?

と思っています。 ただ、反対だけして理由を言わないのは逃げであり、彼らの主張が正しい可能性もある以上、この状況に向き合う必要があると感じています。 彼等に実際に言われた根拠らしきものに対して、データ分析の現場で働いている者を(勝手に)レペゼンしてアンサーしていこうと思います3

図3: I’m not a rapper

図3: I’m not a rapper

“AI は pytorch のコードを書けるから、データサイエンティストはいらない”

これは、有名なコンサルティング会社やファンドを転々としてきたエリートサラリーマンみたいな方に実際に私が言われたことです。

たしかにここ数年、特にコーディングの分野でのAIによる変化は凄まじく、そう思うのも無理はありません。 Tomlinson et al. (2025)が算出しているAI Applicability scores 4では"Data Scientist"はトップ30に入っており5、DSの業務と生成AIとの親和性が非常に高いことを示しています。 過去ブログにも書きましたが、私自身も2022年の終わり頃から生成AIを使っており、コーディングやリサーチ、資料作成や勉強など、様々な場面で恩恵を受けています。

しかしこの 「 生成AIの登場でデータサイエンティストが不要になる 」という考えは 「 PyTorchの登場で、深層学習研究者が不要になる 」と言うのと同じくらい 的外れ なこと6だと思います。

そもそも “データサイエンティストの仕事=コーディング” ではない

もともと深層学習の研究者は、多くの時間をハードコアなCUDAコードや誤差逆伝播法のアルゴリズムの実装に費やしていましたが、pytorchやTensorFlowの登場により、そのような低レベルなコーディングの必要がなくなりました7。 では、ニューラルネットワークの研究者は職を失ったのでしょうか? もちろん違います 。 PyTorchなど新しいツールの登場は、本来彼らがする必要のなかった非常に面倒な作業の手間を省き、 研究者がより創造的で本質的な仕事に集中できるようにしました 。 そして2010年台後半の深層学習ブームが生まれ、研究者の需要や価値は下がるどころかむしろ飛躍的に上がったと言えます。

同様に、LLM がコードをある程度書けるようになったからといって、DSの仕事がなくなるわけではありません。 LLMはあくまで仕事を 補助するツール であり、コーディングにかける時間が減れば 他のタスクにより多くの時間を割けるようになっただけ のことです。

コーディングのタスクですら、AI任せにはできない

もうひとつ、彼らとの認識のギャップを感じるのは、 生成AIの自律的なコーディング性能に対する評価 です。 彼らはおそらく、Vibe Codingや AIエージェントの使用で、データ分析含め多くのコーディングタスクを誰でもある程度はこなせると思っているような気がします。

たしかに、ちょっとした集計やプロットなど、単純なタスク・使い捨てのコードは、AIで十分なことも多いです。 実際私もClaude Codeopencodeを使って自分で一行もコードを書かずに数分でいくつか簡単なツールを作成し、問題なく使うことができています。

しかし、 複数のステップを踏むタスクや、長期的に運用する必要があるコードは、AIに任せるというのはほぼ不可能 なのが現実です。

図4: 大規模で複雑なコードベースの習熟にかかる時間はAIあり/なしで結局変わらない

図4: 大規模で複雑なコードベースの習熟にかかる時間はAIあり/なしで結局変わらない

METRのリサーチ が示すように、AIはコーディングベンチマークでは優れたパフォーマンスを発揮しているように見えても、実際のプロジェクトでは人間のパフォーマンスに遠く及びません。

図5: METR on X: “We tested how autonomous AI agents perform on real software tasks from our recent developer productivity RCT. We found a gap between algorithmic scoring and real-world usability that may help explain why AI benchmarks feel disconnected from reality. https://t.co/2lP3Kcr6S7” / X

図5: METR on X: “We tested how autonomous AI agents perform on real software tasks from our recent developer productivity RCT. We found a gap between algorithmic scoring and real-world usability that may help explain why AI benchmarks feel disconnected from reality. https://t.co/2lP3Kcr6S7” / X

LLMのベンチマークが実務に対して過大評価になる一つの可能性として、モデルがRLVR(Reinforcement Learning with Verifiable Rewards)で訓練されている点が挙げられています。 RLVRで訓練されたモデルは、テストのような「検証可能」タスクに特化し、ドキュメント、コード品質、可読性、保守性などの、検証は困難だが実務では重要な側面についてに弱い傾向にあります。

そしてDSはこのテストによる検証可能性という点でLLMとの相性が良くありません。 なぜなら、一般的なソフトウェアのUI/UXやAPIは「正常な見た目・動作」が明確に定義しやすくテスト作成が容易ですが、 データ分析ではアウトプットに「唯一の正解」が存在しないからです

AIは、もっともらしいグラフや統計量を生成することはできるかもしれません。 しかし、その分析プロセスに潜む交絡因子や選択バイアス、data leakageといった「ダメな分析」の兆候を見抜き、ビジネスの文脈に照らして結論が妥当であるかを判断することは極めて苦手です。 分析結果が「一見正しく見える」ことと、それが「本当に信頼できる」ことの間には、大きな隔たりがあるのです。 よってAIの分析を検証するためには、結局人間がAIの書いたコードを読まなければなりません。8

そして、エンジニアリングにおけるLLMの副作用は看過できないものとなっています。 Cursor や Claude-Codeのようなエージェント系のエディタでは、ユーザーが特に頭を使わなくてもどんどんコードが生成されます。 もちろん生成されたコードをひとつひとつ確認するようにもできますが、人間は楽な方に流されるのが常です。 意図が分からないコードが増えていき、エラーのたびにAIがその場しのぎのパッチを繰り返し、最終的には増築を繰り返した違法建築物みたいなレガシーコードが出来上がります9このようなコードはもはや資産ではなく、負債です。 実際に、LLMへの過度な依存によるコード品質の低下やコストの増加レビュワーの負担増大がいたるところで問題になっています。

また、「DSの仕事を自動化する」ということであれば、当然AIエージェント的なものにシステムやデータベース、ウェブへのアクセス権限を与えることになりますが、ここでセキュリティ上の課題も出てきます。 最先端のAIエージェントでもprompt injectionなどに対しての攻撃には極めて脆弱なことが知られており(Zou et al. 2025)、データベースの削除や改ざん10・機密情報の漏洩を防ぐには、やはり人間によるコントロールが必要になります11

こうした問題に対する認識が甘いまま、専門的な知識や経験が必要な作業をAIに任せてしまうと、企業は大きなリスクを抱えることになるでしょう。

“AI の進化ですぐに解決する問題だ”

そして彼らがよく言うのは、「AIはまだ発展途上だから、今は完璧じゃなくても、そのうち解決する」というものです。

仮にそうだとしても、 その未来ははいつ来るのでしょうか?

今、我々がAIに求めるタスクの 難易度は指数関数的に上がっている 一方で、逆に LLMの指数関数的な進化については疑問視する声が増えおりAIの進化がDSの仕事を完全に自動化する未来が近いうちに来るかどうかは非常に不透明 というのが、私の見解です。

複数ステップのタスクの自動化の難しさとスケーリング則の限界

現在のLLMが文章の要約や翻訳、コードのな生成といったタスクで見せる能力は、確かに目を見張るものがあります。 しかし、DSを含む多くの仕事のように、複数のステップからなる複雑なプロセスをAIで代替させるとなると、話は少し違ってきます。 プロセス全体のエラー率は、ステップを重ねるごとに指数関数的に増幅されるからです。

図6: 仮にそれぞれ単一のタスクの成功率が95%(これは現在のLLMにとってはかなり楽観的な数値)だとしても、20のステップを経た最終的な成功率は36%にまで低下する

図6: 仮にそれぞれ単一のタスクの成功率が95%(これは現在のLLMにとってはかなり楽観的な数値)だとしても、20のステップを経た最終的な成功率は36%にまで低下する

そして、その過程には「罠」が数多く存在します。

これらの「罠」を回避するには、データに現れないビジネスの背景、組織の力学、顧客の暗黙的なニーズといった文脈を深く理解し、それに基づいて「そもそもこのデータは信頼できるのか?」「考慮すべき別の要因はないか?」といった 独創的な問いを立てる創造性 が不可欠です。

しかし、現在のLLMには、この能力が根本的に欠けていることが指摘されています。


データサイエンスのプロジェクトでは、ほとんどの場合、世界でまだ誰も解いたことのない問題に取り組みます。 当然、そうした課題に関する訓練データは存在しません。 訓練データから少しでも外れた未知の状況に対応する能力に乏しいAIに、本当に重要な分析を任せることができるでしょうか?

それ以外にも、

など、現在のLLMには実務で使うには致命的な課題が山積みです。

理論上だけでなく、実際の職場環境を模したベンチマークでも、その限界は明らかです。 AIエージェントが複雑なオフィス業務を最後までやり遂げる成功率は、30〜35%程度に留まるという報告もあります(Xu et al. 2025)。

「しかし、それは今の話で、AIは指数関数的に進化しているのだからすぐに解決する」という反論が聞こえてきそうですが、その前提すら揺らぎ始めています。

近年のAIの目覚ましい進歩は、モデルのサイズと学習データをひたすら増やす スケーリング則 という力技によって支えられてきました。 しかし、このアプローチは物理的・経済的な限界にぶつかりdiminishing returns(収穫逓減)の兆候が明確に現れ始めています(Coveney and Succi 2025)。 モデルを大きくすればするほど性能向上の幅は小さくなる一方で、学習に必要な計算資源とコストは天文学的に増大し続けています。

この状況に対し、多くの研究者が警鐘を鳴らしており、AIの進歩が停滞期(プラトー)に入りつつあるという認識が広まっています最近のAAAIの調査では、AI研究者の大多数が、 スケーリング則だけではAGI(汎用人工知能)には到達できない と考えていることが示されました。 業界を牽引するトップの研究者たちですら、現在の延長線上にAGIはないと考えているのです。

これらの課題が、そう遠くない未来に解決されることを願っていますが、 この現状を見てもなお、AIがデータサイエンティストを含む専門的な知識を要するホワイトカラーの仕事を完全に代替できると本気で信じているのだとしたら、それは少し楽観的すぎるのではないでしょうか?

LLMの性能が上がっても、コンテクストがボトルネックになる

仮に、LLMが最新の統計学や機械学習理論を完璧に理解し、ビジネスへの実装までこなせるようになったとしましょう。 それでもなお、データサイエンティストの仕事が代替されないと考える大きな理由があります。 それは、どんなに優れたAIであっても、アウトプットの質はインプットされる 「コンテクスト」 に決定的に依存するからです。

経済学者アセモグルも言及しているように、 客観的な成功基準が曖昧で複雑なコンテクストに依存するタスクは既存の労働者に頼らざるを得ないため、完全な自動化が困難です。 成功基準が曖昧な点は先ほども指摘しましたが、データ分析はまさにこの「明確な成功基準を持たず、コンテクスト依存の変数が多いタスク」の典型です。

この事実は、実際のツールの使われ方にも表れています。 冒頭で紹介したCopilotのフィードバック分析(Tomlinson et al. 2025)では、「文書の執筆・編集」や「情報のリサーチ」といったタスクでユーザーは高い満足度を示している一方で、 「データ分析」に対する満足度は最も低い という結果が報告されています。 これは、AIがデータ分析というタスクを遂行する上で、決定的に重要な「何か」が欠けていることを示唆しています。

その「何か」こそが、コンテクストです。

現実のビジネス課題は、Kaggleのコンペティションのように、美しく整備されたデータセットと明確な評価指標が与えられた状態で始まるわけではありません。

  • この分析はどのような目的で、誰に対して見せるものなのか?
  • そのデータにバイアスはないか?
  • 他にもっと良いデータは入手できないか?
  • 業界特有のドメイン知識や、現場だけで培われた経験則は何か?

こうした情報は、形式化されていない 「暗黙知」 です。AIのパフォーマンスを最大化するには、この膨大で雑多な暗黙知をすべて言語化し、コンテクストとして与えなければなりません。 しかし、その作業自体が、まさに専門性を持つ人間の仕事になってしまいます。 なぜなら、 無数の情報の中から「どの情報が課題解決に役立つか」を的確に判断し、AIに与えること自体が、高度な専門性を持つ人間にしかできない仕事 だからです。 そして、それはまさしく、データサイエンティストが現在行いながら、経験を積み重ねている仕事そのものです。

つまり、AIが進化すればするほど、それを使いこなすための「コンテクストを正しく与える能力」が重要になります。 この能力は専門知識と経験に裏打ちされているため、DSがAIを最も効果的に使えるのは当然です。

AIの登場による変化は、専門家の仕事をなくすことではありません。 むしろ、専門家と非専門家の生産性の差を、これまで以上に拡大させることになるでしょう。

  • これまで: (専門家) > (非専門家)
  • これから: (AIを使いこなす 専門家) ≫ (AIを使う 非専門家)

この関係を考えれば、企業が素人に任せるという選択をするメリットはほとんどありません。 AIという強力な武器を最も巧みに扱える専門家に任せる方が、はるかに合理的です。

技術的問題・コンテクストの問題がクリアされても残る課題

仮に、技術的問題・コンテクストの問題がすべてクリアされ、AIが人間のデータサイエンティストの全タスクを代替できるようになった未来を想像してみましょう。

そのとき、私たちは本当に安心して、企業の意思決定をAIに委ねることができるのでしょうか。

責任の所在:AIの失敗を誰が償うのか?

AIの分析結果に基づいて企業が重大な意思決定を下し、その結果、巨額の損失が出たとします。 この失敗の責任は、一体誰が負うのでしょうか?

AIは、どのようなプロセスでその結論に至ったのかを説明する真似はできても、その結果に対して責任を取ることはできません。 責任の所在が曖昧なシステムに、企業は自社の命運を委ねることができるでしょうか。 重要な意思決定には、常に人間による最終的な判断と責任が不可欠です。

ノウハウの喪失:組織は「AIおみくじ」を続けるのか?

AIによる分析プロセスがブラックボックス化すれば、組織の中から分析ノウハウが失われていきます。 人間が分析を行う場合、たとえ短期的に失敗したとしても、その試行錯誤のプロセス自体が「なぜ失敗したのか」「次はどう改善すべきか」という貴重な学びとなり、組織全体の分析能力を向上させます。 しかし、ブラックボックスから出てきた答えを受け入れるだけでは、次に繋がる学びは生まれません。 それは持続的な成長を生まない、単発の 「AIおみくじ」 を引く作業に成り下がってしまいます。

恣意的な利用:AIは「都合の良い真実」を語る道具になるか?

そして懸念すべきなのが、分析自体が恣意的に操作されるリスクです。 専門家による客観的な検証がなければ、意思決定者は自らの仮説に都合の良いAIの出力をチェリーピックするようになるでしょう。

この前、トランプ大統領が自らに不都合な雇用統計を発表した労働統計局長を解任したというニュースがありました。 これは、客観的なデータやそれを示す専門家が、時に権力者にとって邪魔な存在となり得ることを示す象徴的な事件です。

では、その役割が人間よりもはるかにコントロールしやすいAIだったらどうなるでしょうか。

独立した倫理観を持つ専門家と異なり、AIはプロンプトやパラメータの調整次第で、アウトプットをある程度誘導することが可能です。 そして気にくわない結果が出た場合、プロンプトを変えたり、別のモデルを試したりして、 望む結果が得られるまで 繰り返すこともできます。 意思決定者が望む「結論」に近い結果をAIに生成させ、それを客観的な分析結果であるかのように見せかけることもできてしまうかもしれません。

そうなれば、DSは客観的な意思決定を支えるものではなく、 「結論ありき」の主張を正当化するための都合の良い道具 に成り下がってしまいます12

“なくならずとも、数は減るのでは?”

この意見に対しても、私は懐疑的です。

ドラッカーの言葉を借りると、仕事は大きく「ナレッジワーカー」と「マニュアルワーカー」に大別できます。 マニュアルワーカーの仕事は、明確に定義されたタスクを正確にこなすことで成り立っています。 スーパーマーケットのレジ打ちやタクシー運転手、経理処理などが典型でしょう。 こうした仕事は「仕事の総量=パイ」が基本的に決まっているため、AIや自動化が導入されれば、その分だけ人間が担う仕事は減ります。

一方でナレッジワーカーとは、効率化によって余った時間やリソースをもとに、新しい価値を生み出す役割です。 R&Dやコンサル、そしてデータサイエンティストがこれに属します。 この領域は「仕事のパイ」が固定されているわけではなく、AIが一部のタスクを代替しても、むしろ新しい問いや可能性が次々に生まれていきます。

そして、総務省の2021年の調査によると、データ自体は多くの企業で利用されているものの、その活用は基本的な集計や解析に留まっており、機械学習のようなより高度なデータ分析はまだ大きな発展の余地があります。

図7: 総務省「AI経済検討会 報告書2021」より抜粋 (ここでの"AI"は、生成AIではなく従来の機械学習的を指していると考えられる)

図7: 総務省「AI経済検討会 報告書2021」より抜粋 (ここでの"AI"は、生成AIではなく従来の機械学習的を指していると考えられる)

実際に私の経験でも、データ活用を掲げる大企業であってもフルに活かしきれていることは少なく、一人のデータサイエンティストが複数の部署やプロジェクトを横断して掛け持ちするケースが珍しくありません。 つまり、適応できる領域はに対して人手が足りていないのです。

したがって、AIが単純なタスクを代替したとしても、DSが関わる領域が拡大するだけで、人間の仕事は減らないのではないかと考えています。

さらに、すでに専門知識を持つ人にとって、AIは新しい道具を素早く習得し、試行錯誤を加速させる手段になります。 たとえば、ベイズ統計をある程度勉強した人は AIを活用することで、stannumpyroなどのツールを短時間で習得し、実務に応用することができますが、元々の土台がない人はそれができません。 確率分布やモデリングについての知識がないと、そもそも何をAIに聞けばいいのか分からないし、自分がやっていることが正しいかどうかすら判断できないからです。

そしてLLMのハルシネーション13は不可避です(Xu, Jain, and Kankanhalli 2025)。 自信満々に間違ったことを言うAIの嘘を見抜くには知識が必要であり、これは生成AIの推論がいくら高度になっても変わりません

つまり、先ほども書いたように (専門家) > (非専門家) という関係性が (AIを使いこなす 専門家) ≫ (AIを使う 非専門家) になっただけで、AIは専門知識を持つ人材の価値を減らすのではなく、むしろ専門性を持つ人材がより大きな価値を発揮できるようにする補完ツールとして作用します。

もちろん、指示通りに分析をやるだけの大学生インターンのような、マニュアル的な役割は減る可能性があります。 しかしそれはあくまで「マニュアルワーカー的な仕事が減る」という話であり、データサイエンティストに限らずナレッジワーカーの本質的な役割はむしろ拡大していく気がしています。 マッキンゼーが、数千のAIエージェントを導入し、PowerPoint作成や情報要約といった定型業務を効率化しつつも、「際立った専門知識(distinctive expertise)」を持つ人間コンサルタントの価値をこれまで以上に評価し、採用を積極的に維持していることも、この仮説を裏づけています。

我々は「AIで専門家がいらなくなる」とか言ってくる周りの大人の雑音に惑わされることなく、むしろ今をチャンスと捉えるべきだと思っています。 社会に良いインパクトを与えれるように勉強を続け、専門性を高めることが、我々のとるべき戦略なのではないでしょうか。

なぜ意見が分かれるのか?: メディアに溢れる誇大広告

これまでの章で、技術的な観点やビジネスの現場感覚から、なぜデータサイエンティストの仕事がすぐにはAIに代替されないと考えるかを述べてきました。

ところで、「AIが専門家の仕事を奪う」という言説がこれほどまでに力を持つのはなぜでしょうか。 その背景には、私たちの認識を歪めるいくつかの構造的な要因があると考えています。

誇大広告 (Hype) に満ちたメディア

最近リリースされたGPT-5 の宣伝実際の評価 ギャップからも分かるように、現在の生成AI業界は誇大広告(Hype)に溢れています。

OpenAIやAnthropic, XのようなAI企業にとっては、誇大広告こそが製品 という側面は否定できません。 Anthropic CEO は「2025年にはAIがPhD学生や初期の専門職の仕事をこなせるようになる」、イーロン・マスクが「AIがすべての仕事を奪う」と断言するように、彼らステークホルダーは常に最大限に期待を煽るようなメッセージを発信します。

そのメッセージは、AI関連ビジネスを手がけるスタートアップやインフルエンサーによってさらに増幅され、メディアを通じて私たちの元に届けられます。 「つまらない現実」よりも「刺激的な未来予測」の方が注目を集めやすいのは当然です。 その結果、まるで専門家が不要になる未来がすぐそこまで来ているかのような言説が、世の中に溢れかえっているのです。

図8: エンジニアいらない

図8: エンジニアいらない

図9: 営業いらない

図9: 営業いらない

図10: マーケターいらない

図10: マーケターいらない

図11: みんな大好き「AIは24時間365日働く」

図11: みんな大好き「AIは24時間365日働く」

図12: ワインのラベルの翻訳にGPT-5を使って性能が上がったと言ってるホリエモン

図12: ワインのラベルの翻訳にGPT-5を使って性能が上がったと言ってるホリエモン

しかし、現実は?

では、その華やかな宣伝文句の裏側で、現実はどうなっているのでしょうか。 一度、メディアのフィルターを通さない、自分自身の経験に目を向けてみてください。

  • あなたの会社で、生成AIは具体的にどんな問題を解決しましたか?
  • あなたの周りで、生成AIで仕事を代替された人を、実際に知っていますか?

多くの企業では、AI導入による生産性の劇的な向上は実現されていません。

むしろ、AIの出力の誤りや捏造を人間がダブルチェックする必要があるため、生産性が低下しているという報告すらあります。 MITのレポートによれば、企業の生成AIパイロットプロジェクトの95%が失敗に終わっているのが現実です。

もしかしたら、多くの企業が直面している課題は、AIでなければ解決できないような高度なものではないのかもしれません。 以下のRedditのコメントは、この状況を的確に言い表しています。

図13: I’m starting to lose trust in the AI agents space. : r/AI_Agents

図13: I’m starting to lose trust in the AI agents space. : r/AI_Agents

「AIが何でも解決してくれる」という幻想は、私たちが本来向き合うべき組織やプロセスの問題から目を逸らさせているだけではないでしょうか。

本当に伝えたいこと

長々と書いてきましたが、私は断じて Anti-AI ではありません。 LLMはめちゃ便利で、社会に大きな変革をもたらす可能性を秘めたテクノロジーだと確信しています。

私が警鐘を鳴らしたいのは、AIを「銀の弾丸」のように崇め、思考を停止してしまう姿勢そのものです。 「いずれAIが全て解決してくれる」という必然主義的な考え方は、現在の技術が持つ限界や課題、そして導入に伴う複雑さから目を背けさせます。

本当にAIの価値を引き出すためには、その分野の専門家が設計に深く関わり、AIの限界と可能性を理解した上で、現実的なワークフローに組み込んでいく地道な作業が不可欠です。 重要なのは「いつAIが人間を超えるか」というSF的な問いではありません。 「AIが私たちの仕事を助けるために、具体的に"何を"乗り越える必要があるのか」 を現実的に考えることです。 メディアに出てくるインフルエンサーみたいな人達の言ってることを鵜呑みにし、まるで自分の意見であるかのように語るだけでは、本質的な議論は生まれません。

AIが本当に頼れるパートナーになるその日までは、AI研究者のGary Macusが言うように、AIを次のように捉えるのが健全な姿勢なのかもしれません。

Don’t treat LLM coding agents as highly capable superintelligent systems

Treat them as lazy, intoxicated robots

– Gary Marcus

おまけ

データサイエンティストいらなくなる系の議論は昔もされていた

色々調べているうちに、昔も同じようなことが言われていたことを知りました。

12年前

2年前 (いちおうchatGPT の登場の前)

References

Coveney, Peter V., and Sauro Succi. 2025. “The wall confronting large language models.” https://arxiv.org/abs/2507.19703.
Fu, Harvey Yiyun, Aryan Shrivastava, Jared Moore, Peter West, Chenhao Tan, and Ari Holtzman. 2025. “Absencebench: Language models can’t tell what’s missing.” https://arxiv.org/abs/2506.11440.
Hong, Kelly, Anton Troynikov, and Jeff Huber. 2025. “Context rot: How increasing input tokens impacts llm performance.” Chroma. https://research.trychroma.com/context-rot.
Shen, Xinjie. 2025. “Llm fail to acquire context.” https://sunset-jupiter-cf3.notion.site/Failing-to-Acquire-Context-A-Benchmark-for-Evaluating-LLMs-Ability-to-Request-Missing-Information–20fb7e977237802ca126ed554ccb8083.
Tomlinson, Kiran, Sonia Jaffe, Will Wang, Scott Counts, and Siddharth Suri. 2025. “Working with ai: Measuring the occupational implications of generative ai.” https://arxiv.org/abs/2507.07935.
Xu, Frank F., Yufan Song, Boxuan Li, Yuxuan Tang, Kritanjali Jain, Mengxue Bao, Zora Z. Wang, et al. 2025. “Theagentcompany: Benchmarking llm agents on consequential real world tasks.” https://arxiv.org/abs/2412.14161.
Xu, Ziwei, Sanjay Jain, and Mohan Kankanhalli. 2025. “Hallucination is inevitable: An innate limitation of large language models.” https://arxiv.org/abs/2401.11817.
Zhao, Chengshuai, Zhen Tan, Pingchuan Ma, Dawei Li, Bohan Jiang, Yancheng Wang, Yingzhen Yang, and Huan Liu. 2025. “Is chain-of-thought reasoning of llms a mirage? a data distribution lens.” https://arxiv.org/abs/2508.01191.
Zhou, Hanzhang, Zijian Feng, Zixiao Zhu, Junlang Qian, and Kezhi Mao. 2024. “Unibias: Unveiling and mitigating llm bias through internal attention and ffn manipulation.” https://arxiv.org/abs/2405.20612.
Zou, Andy, Maxwell Lin, Eliot Jones, Micha Nowak, Mateusz Dziemian, Nick Winter, Alexander Grattan, et al. 2025. “Security challenges in ai agent deployment: Insights from a large scale public competition.” https://arxiv.org/abs/2507.20526.

  1. Inevitabilism (必然主義)と言うらしい。メタバースの時にもこの論調が使われていた: The metaverse is inevitable, regardless of Meta’s fate - Big Think (13) The metaverse is here to stay: How marketers can avoid being left behind | LinkedIn ↩︎

  2. 後述。 ↩︎

  3. 本記事の内容は、偏った結論ありきの「ポジショントーク」に見えるかもしれませんが、それはそれで良いんじゃないかと思っています。自分の感覚的には彼らの意見のバイアスがあまりにも強いので、逆方向のバイアスをかけて良い感じにアンサンブルしてもらえれば良いんじゃないかと思っています。 ↩︎

  4. Copilotの使用がその職種の作業活動に対して、どの程度成功率、かつ広範に影響を与えるかを総合的に評価したもの ↩︎

  5. ちなみにトップ3は、“通訳・翻訳者”、“歴史家”、“乗客アテンダント”、ボトム3は、“Dredge Operators(浚渫機運転者)"、“Bridge and Lock Tenders(橋・水門操作員)"、“Water Treatment Plant and System Op.(水処理施設・装置運転者)“でした。 ↩︎

  6. 「table sawの発明が大工を失業させる」くらい的外れとも言える。 ↩︎

  7. Deep Learning in a Nutshell: History and Training | NVIDIA Technical Blog ↩︎

  8. TJOさんが書いているように、ブロセスがブラックボックス化されること自体は企業の上層部の人にとって都合が良いかもしれませんが、妥当性の検証すらできないのは致命的だと思います。 ↩︎

  9. 非プログラマーに保守する必要のあるプロジェクトのコードを vibe-code させるのは、負債の概念を知らない子供にクレジットカードを持たせるようなもの という例えは非常に的を射ています。 ↩︎

  10. AIが本番データベースを削除し、問題を隠蔽するために偽のデータや偽のレポートを作成したという出来事も実際に起きています。 ↩︎

  11. Nvidiaは、エージェントに与える自律性の程度を減らす、追加のガードレールを設ける、エージェントがファイルにアクセスできる範囲を最小限に抑えるなどの対策を推奨しています。 ↩︎

  12. 人間でもこういう使い方をしている人はいますが。 ↩︎

  13. 「ハルシネーション」という言葉は、AIの技術的な限界(間違いや捏造)を、人間が共感しやすい「幻覚」という言葉で包み込み、AIに人間的な能力や意識があるかのように誤解させるためのマーケティング戦略であるという指摘もあります ↩︎