toggle Engineer Blog

トグルホールディングス株式会社のエンジニアブログでは、私たちの技術的な挑戦やプロジェクトの裏側、チームの取り組みをシェアします。

AIはプログラミングとプログラマーにどのような影響を与えるのか?

こんにちは。トグルホールディングス、AIエンジニアのボキです。 トグルホールディングスエンジニアアドベントカレンダーの18日目の記事です! (元記事はこちら

近年、AI技術の進化はソフトウェアエンジニアの働き方に大きな変化をもたらしています。AIがコードを生成し、バグを予測し、開発を加速するツールが登場し、従来のプログラミングに対する考え方は変わりつつあります。

では、このトレンドが続くとしたら、将来的にプログラミングという仕事はどのように変化していくのでしょうか?

他の分野の例:アートと翻訳

プログラミングの未来を考えるにあたって、まず他の分野におけるAIの影響を見てみましょう。例えば、アート翻訳の世界では、生成AIが急速に普及しつつあります。

  • アーティストの例

かつては高額なストック画像を購入することが一般的でしたが、今ではDALL-EMidjourneyなどのツールを使えば、手軽に高品質な画像を生成できます。これにより、コンテンツ制作の障壁が低下し、コストも大幅に削減されました。

  • 翻訳者の例

翻訳分野においても、DeepLの登場で、高精度な翻訳が即座に手に入るようになりました。日常的な翻訳タスクはAIが簡単に代替できるようになり、翻訳者たちは単なる「翻訳作業者」ではなく、ツールを使いこなす「AI活用者」としてのスキルを求められるようになっています。

これらの例が示すのは、AIが登場すると、市場の競争が激化し、ツールを使いこなせない人は置いていかれる、という現実です。一方で、トップ0.1%のクリエイターや専門家はその地位を保ち、差別化を図ることが可能です。

https://sora.com/

プログラミングでも同じことが起きるのか?

では、プログラミングの分野ではどうでしょうか?AIの進化により、非エンジニアがコードを書けるようになり、プログラマーは不要になるのでしょうか? それとも、AIと協働して新しい働き方を見つけ出すのでしょうか?

この問いに答えるため、まず現在登場している生成AIツールを見てみましょう。

  • コードアシスタント / スマート補完

例: GitHub Copilot
プログラマーがコードを書く際に補完や提案を行うAIツールです。コードの記述速度を飛躍的に高める役割を果たしています。 チャット型AI

例: ChatGPTClaude
チャットボット形式でコード生成をサポートします。質問に答えたり、タスクごとのコードスニペットを生成したりできます。

  • AI統合エディタ

例: Cursor, Windsurf
エディタ内にAIの提案やコード補完が統合され、ワークフロー全体がシームレスになります。 エージェント型ツール

例: GitHub Spark, Devin.ai, GitHub Copilot Workspace
開発タスクの自動化やPull Requestの作成、マイクロアプリの生成など、エンジニアの作業を大幅に代替しようとする次世代ツールです。

これらのツールの多くは、エンジニアを置き換えるのではなく支援するために設計されています。しかし、エージェント型ツールのように、エンジニアの作業を完全に代替しようとする技術も登場しています。とはいえ、現時点ではこれらのツールはまだ深刻な限界に直面しており、「プログラマー不要」の未来はまだ訪れていません。

v0.dev

AIツールがプログラマーを置き換えられない理由

AIツールがプログラマーを完全に置き換えられない主な理由は、複雑性と「ピット・オブ・デス (Pit of Death)」にあります。

ピット・オブ・デス (Pit of Death) とは?

ソフトウェア開発では、機能を追加し続けるとバグが増加し、システム全体が機能しなくなる限界点に達します。AIツールは単純なタスクには優れていますが、この複雑性の管理においては未だに人間のエンジニアが必要です。

  • AIはバリアを下げるが限界を超えられない:

コード生成の敷居は下がったものの、システムの規模が拡大するにつれ、AIは「ピット・オブ・デス」に陥りやすくなります。

  • 複雑性管理の重要性:

「ピット・オブ・デス」を回避するには、ソフトウェア設計や保守性を考えるスキルが不可欠です。これが、AI時代においてもエンジニアの価値がますます高まる理由です。

youtu.be

AIツールはエンジニアを置き換えるのではなく、支援する役割に留まっており、真の意味で複雑なシステムを構築・管理するためには人間の知識とスキルが依然として求められています。現在の生成AIは優れた性能を持ちながらも、いくつかの重要な欠点を抱えています。これを理解するには、まず生成AIの中心技術である大規模言語モデル(LLM) の特性を知る必要があります。

LLMの限界

現時点でのLLM(大規模言語モデル)は非常に強力なツールですが、ソフトウェアエンジニアリングを完全に代替するにはまだ多くの課題があります。その限界を理解することで、現実的な活用方法が見えてきます。

1. ハルシネーション(幻覚)

LLMは「連続的な補間データベース」として機能しますが、その補間結果は一般化や単なる誤り(幻覚)を含みます。

  • LLMは最もありそうな答えを出力しますが、正確な答えとは限りません。

  • 例えば、コード生成では構文的に正しいものの、動作しないコードを出力することがあります。

2. 数学・論理・計算の苦手さ

  • LLMはパターンマッチングに優れていますが、数学や論理的な推論には大きな弱点があります。

  • 数値計算や複雑なアルゴリズムの生成には不向きです。コードの実行結果を検証できないため、生成されたコードの正しさは保証されません。

3. コンテキストの制限
LLMは一度に取り込める情報量(コンテキストウィンドウ)に限界があります。

  • 長いコードベースや複雑なプロジェクトでは、情報の一部が欠落したり混乱することがあります。
  • 特にコンテキストが増えるほど、出力の品質が低下しやすくなります。

4. 計画性・推論の欠如
LLMは「考える」ことができません。タスクを計画的に解決する能力がないため、最適なアプローチを見つけることができません。

  • タスクの馴染み深さには強いですが、未知のタスク(アウト・オブ・ディストリビューション)では性能が著しく低下します。

  • CholletのARC課題 など、論理的思考を必要とする問題においては依然として解決が難しいままです。

限界の今後: スケーリングの未来

AIの限界を超えるために、かつては「スケーリング則」が解決策と考えられていました。しかし、現在ではその前提が崩れつつあります。

1. スケーリング則の限界
OpenAIが示したスケーリング則によれば、モデルサイズ、データ量、計算リソースを増やせば性能は向上し続けるとされていました。

  • これにより、GPT-3やGPT-4といったモデルは飛躍的な成長を遂げました。

しかし、最近のNeurIPSカンファレンスや業界の発言によると、 「データが不足している」という現実が浮き彫りになっています。

  • インターネットのデータは有限:

生成AIの学習には「データ」が不可欠ですが、新しいデータの成長は鈍化しています。インターネット全体の情報は「AIの化石燃料」とも呼ばれ、すでに使い切りつつある状況です。

youtu.be

2. 新たなアプローチ: CoTとTest-Time Compute
スケーリングが限界に近づく中で、新たな方向性が模索されています。

  • CoT (Chain-of-Thought):

AIに「ステップごとに考えさせる」ことで推論能力を補完する技術です。これにより、複雑な問題でも段階的に答えを導くことが可能になります。

arxiv.org

  • Test-Time Compute:

推論時の計算リソースを増やすことで、AIがより複雑なタスクを処理できるようにするアプローチです。

youtu.be

3. CholletのARC課題が示す未来
Cholletが提唱したARC課題(Abstraction and Reasoning Corpus)は、AIの真の知能を測る指標として注目されています。しかし、現在のLLMはこの課題に対して有効な解決策を示せていません。
ARC課題は「一般化された推論能力」が求められるため、現在のパターンベースAIには極めて難しい挑戦です。

結論: エンジニアは今こそAIツールを活用すべき

AI技術はまだ完全ではなく、多くの限界があります。しかし、それでも生成AIはプログラミングを劇的に効率化する力を持っています。

  • AIと共存するスキルを磨く:

ツールを使いこなし、AIの出力を素早く検証し、改善する能力が重要です。

  • 変化に敏感であること:

AI分野は急速に進化しています。エンジニアは常に最新のトレンドや技術に注目し、変化に対応できる柔軟性を持つ必要があります。

今後のエンジニアリングにおいて、AIは強力な「パートナー」となり得ます。今からAIツールに慣れ親しみ、その限界を理解しながら活用することで、次世代のエンジニアリングの世界をリードしていくことができるでしょう。