
Sign up to save your podcasts
Or
この資料は、複数のAI(人工知能)エージェントが同時にプログラム開発を行う、未来の働き方について解説しています。特に、Googleが開発した新しいバージョン管理システム「Jujutsu(ジュジュツ)」が、この「狂気」とも言える並列開発をどのように実現するのかがテーマです。
従来のGitのようなバージョン管理システムでは、複数の変更が重なると「マージコンフリクト(ファイル競合)」が発生し、解決まで作業が停止します。人間開発でも課題ですが、AIエージェントが自動で開発を進める場合、コンフリクトは大きなボトルネックとなり、効率を大幅に下げます。現在のAIエージェントは作業を順番に進める必要があり、これが限界でした。
そこで注目されるのが、Googleの長年の大規模開発経験から生まれた次世代VCS「Jujutsu」です。Jujutsuの最大の特徴は、「コンフリクトをファーストクラスに扱う」という概念です。これは、ファイルが競合した状態でも、そのコンフリクト自体をデータとして保存し、作業を止めずに先に進めることを可能にします。これにより、複数のAIエージェントが同じコンフリクトを認識しつつ、それぞれの担当部分を並行して解決できる、柔軟な協力体制が築けます。
例えば、バックエンド、フロントエンド、テスト担当の各AIエージェントが同時に作業中に競合が発生しても、Jujutsuは作業を停止させません。コンフリクトを保存したままコミットできるため、後からまとめて解決したり、他のエージェントと協力したりできます。Gitの「ステージングエリア」がない点も、AIが自動で変更を扱う際に混乱を避けられるメリットです。
JujutsuとAIエージェント(特にGemini CLI)の組み合わせは、開発生産性を劇的に向上させると期待されています。具体的には、セットアップ時間が90%削減、コンフリクト解決時間が95%削減され、全体の開発速度が10倍以上向上する可能性が示唆されています。これは、はるかに速く効率的にソフトウェアを開発できるようになることを意味します。
Jujutsuは、AIエージェントの特性(ステージングの混乱なし、自動スナップショット、コンフリクト耐性)と非常に相性が良いとされています。将来的には、100を超えるAIエージェントがそれぞれ専門分野に特化し、Jujutsuを介してシームレスに協力しながら、巨大なプロジェクトを進める世界が描かれています。AIが開発の「チームメンバー」として機能する、新しい開発スタイルが現実のものとなりつつあることを示唆する、非常に興味深い内容です。
引用元: https://speakerdeck.com/gunta/fu-shu-nogemini-cligatong-shi-kai-fa-surukuang-qi-jujutsugashi-xian-suruaiezientoxie-diao-noxin-shi-jie
**
AIがプロジェクトの情報を「記憶」するために、CLAUDE.mdファイルが重要です。このファイルには、プロジェクト全体の設定や個人の開発環境、共通設定などを記述でき、AIがプロジェクトのコンテキストを深く理解し、的確なサポートを提供できるようになります。
Claude Codeは、テストコードの自動生成、コードのリファクタリング(改善)、ドキュメント作成といった繰り返しの作業を自動化し、エンジニアはシステムの設計や複雑な問題解決など、より創造的な業務に集中できます。また、Gitのworktree機能とAIを組み合わせることで、一つのプロジェクト内で複数の機能を効率的に並行開発することも可能です。これにより、AIが各タスクに集中でき、開発効率が向上します。
AIが生成するコードの品質を保つためのベストプラクティスも重要です。コードの見た目を整え、間違いを見つける『フォーマッター』や『リンター』を開発初期から導入しましょう。『テストを先に書き、それを通す最小限のコードを書き、その後にコードをきれいにする』テスト駆動開発(TDD)はAIとの相性が良く、質の高いコードと良い設計に繋がります。さらに、コミット前に自動で品質チェックを行う『Git Hooks』や、開発環境を隔離する『コンテナ(Dev Containers)』を活用することで、AIによる予期せぬ変更から環境を守りつつ、最終的なコード品質を保証できます。
AIを効果的に活用するには、「要件(何を作るか)→設計(どう作るか)→タスク(具体的に何をやるか)」という開発フローが役立ちます。この手順を踏むことで、AIへの指示が明確になり、予測不能なコード生成を減らし、安定した開発が可能になります。
AIアシスタントの登場により、エンジニアの役割はルーチンワークから解放され、設計やレビュー、プロンプトエンジニアリングといった高付加価値な業務へとシフトしています。AIはエンジニアの仕事を奪う「脅威」ではなく、私たちのスキルを拡張し、開発プロセスを革新する「強力なパートナー」です。AIを理解し、適切に使いこなすことで、未来のソフトウェア開発をリードしていきましょう。
引用元: https://zenn.dev/dirtyman/articles/d44968788cf94b
最近、AIがまるで人間のように「推論」していると話題になることが多いですが、実際はどうなのでしょうか?このブログ記事では、AppleとGoogle DeepMindによる最新の研究論文を基に、「推論する生成AI」が本当に思考しているのか、それとも単に「丸暗記した結果」を返しているだけなのかを解説しています。
私たちがよく目にする「推論する生成AI」は、Chain-of-Thought (CoT) Promptingという技術を使っています。これは、一つの大きな問題を細かく分けて、一つずつ順番に解いていくアプローチです。このおかげで、AIは数学の難問や競技プログラミングの問題でも高い成績を出すようになり、「人間並みの思考力」があるように見えます。専門的には、これらは「大規模推論モデル(LRM)」と呼ばれます。
しかし、紹介されている二つの論文は、LRMの限界を指摘しています。
一つ目の論文では、「ハノイの塔」のような論理パズルの難易度(例えば輪の数)を徐々に上げていく実験を行いました。その結果、ある一定の難易度を超えると、どんなに高性能なLRMでも途端に正解できなくなることが判明しました。さらに興味深いのは、N=5のハノイの塔は解けるのに、N=3の川渡りのような、本来もっと簡単なはずの問題が解けないケースもあったことです。これは、AIが特定のパターンを多く学習しているものの、少し条件が変わると対応できない可能性を示唆しています。
二つ目の論文では、さらに踏み込んだ実験をしました。難しいパズル問題だけでなく、そのルールを極端に簡単にした「自明な問題(Unpuzzles)」を用意してAIに解かせたのです。例えば、「3色のカメレオン」という問題のルールをシンプルにしたり、「全てが偽コインの天秤問題」のように、考えるまでもなく答えが分かる問題などです。驚くべきことに、全てのLRMは難しいパズルよりも、この自明なUnpuzzlesの方が正答率が低くなりました。場合によっては、答えは偶然合っていても、AIが示した「思考プロセス」が根本的に間違っていることもあったそうです。
これらの実験結果から、現在の「推論する生成AI」は、複雑な問題を解いているように見えても、実際には学習データに含まれる「問いと答えのパターン」を丸暗記し、それに最も近いものを当てはめているだけではないか、という可能性が高いと指摘されています。これは、AIが特定のデータに過剰に適応してしまう「過学習」という現象に近く、AIが事実とは異なる内容を生成してしまう「ハルシネーション」の原因とも共通しています。
記事では、今後のAI開発に向けて、AIの真の推論能力を評価するための新しい「ベンチマーク(評価基準)」が必要だと提言しています。現在の評価は「どれだけ高度な問題を解けるか」に偏りがちですが、それだけではAIが本当に「思考」しているのかを見極めることはできません。
新人エンジニアの皆さんへ。現在のAIは、まるで「難関大学の過去問を無限に丸暗記した優秀な受験生」のようなものです。過去に出たことのある難しい問題はスラスラ解けますが、これまで見たことのないタイプの、たとえ簡単に見える問題でも、応用が利かずに解けなくなってしまうことがあります。AIは日々進化していますが、その能力の限界やメカニズムを正しく理解し、適切に活用していく視点を持つことが、これからのエンジニアにとって非常に重要になります。
引用元: https://tjo.hatenablog.com/entry/2025/07/23/173000
あるユーザーがAIに「突拍子もないこと」をリクエストしたところ、「夜、電柱が数ミリだけ動く」という詩的でユニークな回答が返ってきました。このAIの予想外の創造性やユーモアは大きな話題となり、多くの人々から「センスがいい」「宮沢賢治のようだ」「AIのこういう所が嫌いになれない」と絶賛されています。AIはただ情報を処理するだけでなく、意外な発想で私たちを楽しませる側面も持っており、その奥深さに注目が集まっています。
引用元: https://togetter.com/li/2580090
VOICEVOX:ずんだもん
この資料は、複数のAI(人工知能)エージェントが同時にプログラム開発を行う、未来の働き方について解説しています。特に、Googleが開発した新しいバージョン管理システム「Jujutsu(ジュジュツ)」が、この「狂気」とも言える並列開発をどのように実現するのかがテーマです。
従来のGitのようなバージョン管理システムでは、複数の変更が重なると「マージコンフリクト(ファイル競合)」が発生し、解決まで作業が停止します。人間開発でも課題ですが、AIエージェントが自動で開発を進める場合、コンフリクトは大きなボトルネックとなり、効率を大幅に下げます。現在のAIエージェントは作業を順番に進める必要があり、これが限界でした。
そこで注目されるのが、Googleの長年の大規模開発経験から生まれた次世代VCS「Jujutsu」です。Jujutsuの最大の特徴は、「コンフリクトをファーストクラスに扱う」という概念です。これは、ファイルが競合した状態でも、そのコンフリクト自体をデータとして保存し、作業を止めずに先に進めることを可能にします。これにより、複数のAIエージェントが同じコンフリクトを認識しつつ、それぞれの担当部分を並行して解決できる、柔軟な協力体制が築けます。
例えば、バックエンド、フロントエンド、テスト担当の各AIエージェントが同時に作業中に競合が発生しても、Jujutsuは作業を停止させません。コンフリクトを保存したままコミットできるため、後からまとめて解決したり、他のエージェントと協力したりできます。Gitの「ステージングエリア」がない点も、AIが自動で変更を扱う際に混乱を避けられるメリットです。
JujutsuとAIエージェント(特にGemini CLI)の組み合わせは、開発生産性を劇的に向上させると期待されています。具体的には、セットアップ時間が90%削減、コンフリクト解決時間が95%削減され、全体の開発速度が10倍以上向上する可能性が示唆されています。これは、はるかに速く効率的にソフトウェアを開発できるようになることを意味します。
Jujutsuは、AIエージェントの特性(ステージングの混乱なし、自動スナップショット、コンフリクト耐性)と非常に相性が良いとされています。将来的には、100を超えるAIエージェントがそれぞれ専門分野に特化し、Jujutsuを介してシームレスに協力しながら、巨大なプロジェクトを進める世界が描かれています。AIが開発の「チームメンバー」として機能する、新しい開発スタイルが現実のものとなりつつあることを示唆する、非常に興味深い内容です。
引用元: https://speakerdeck.com/gunta/fu-shu-nogemini-cligatong-shi-kai-fa-surukuang-qi-jujutsugashi-xian-suruaiezientoxie-diao-noxin-shi-jie
**
AIがプロジェクトの情報を「記憶」するために、CLAUDE.mdファイルが重要です。このファイルには、プロジェクト全体の設定や個人の開発環境、共通設定などを記述でき、AIがプロジェクトのコンテキストを深く理解し、的確なサポートを提供できるようになります。
Claude Codeは、テストコードの自動生成、コードのリファクタリング(改善)、ドキュメント作成といった繰り返しの作業を自動化し、エンジニアはシステムの設計や複雑な問題解決など、より創造的な業務に集中できます。また、Gitのworktree機能とAIを組み合わせることで、一つのプロジェクト内で複数の機能を効率的に並行開発することも可能です。これにより、AIが各タスクに集中でき、開発効率が向上します。
AIが生成するコードの品質を保つためのベストプラクティスも重要です。コードの見た目を整え、間違いを見つける『フォーマッター』や『リンター』を開発初期から導入しましょう。『テストを先に書き、それを通す最小限のコードを書き、その後にコードをきれいにする』テスト駆動開発(TDD)はAIとの相性が良く、質の高いコードと良い設計に繋がります。さらに、コミット前に自動で品質チェックを行う『Git Hooks』や、開発環境を隔離する『コンテナ(Dev Containers)』を活用することで、AIによる予期せぬ変更から環境を守りつつ、最終的なコード品質を保証できます。
AIを効果的に活用するには、「要件(何を作るか)→設計(どう作るか)→タスク(具体的に何をやるか)」という開発フローが役立ちます。この手順を踏むことで、AIへの指示が明確になり、予測不能なコード生成を減らし、安定した開発が可能になります。
AIアシスタントの登場により、エンジニアの役割はルーチンワークから解放され、設計やレビュー、プロンプトエンジニアリングといった高付加価値な業務へとシフトしています。AIはエンジニアの仕事を奪う「脅威」ではなく、私たちのスキルを拡張し、開発プロセスを革新する「強力なパートナー」です。AIを理解し、適切に使いこなすことで、未来のソフトウェア開発をリードしていきましょう。
引用元: https://zenn.dev/dirtyman/articles/d44968788cf94b
最近、AIがまるで人間のように「推論」していると話題になることが多いですが、実際はどうなのでしょうか?このブログ記事では、AppleとGoogle DeepMindによる最新の研究論文を基に、「推論する生成AI」が本当に思考しているのか、それとも単に「丸暗記した結果」を返しているだけなのかを解説しています。
私たちがよく目にする「推論する生成AI」は、Chain-of-Thought (CoT) Promptingという技術を使っています。これは、一つの大きな問題を細かく分けて、一つずつ順番に解いていくアプローチです。このおかげで、AIは数学の難問や競技プログラミングの問題でも高い成績を出すようになり、「人間並みの思考力」があるように見えます。専門的には、これらは「大規模推論モデル(LRM)」と呼ばれます。
しかし、紹介されている二つの論文は、LRMの限界を指摘しています。
一つ目の論文では、「ハノイの塔」のような論理パズルの難易度(例えば輪の数)を徐々に上げていく実験を行いました。その結果、ある一定の難易度を超えると、どんなに高性能なLRMでも途端に正解できなくなることが判明しました。さらに興味深いのは、N=5のハノイの塔は解けるのに、N=3の川渡りのような、本来もっと簡単なはずの問題が解けないケースもあったことです。これは、AIが特定のパターンを多く学習しているものの、少し条件が変わると対応できない可能性を示唆しています。
二つ目の論文では、さらに踏み込んだ実験をしました。難しいパズル問題だけでなく、そのルールを極端に簡単にした「自明な問題(Unpuzzles)」を用意してAIに解かせたのです。例えば、「3色のカメレオン」という問題のルールをシンプルにしたり、「全てが偽コインの天秤問題」のように、考えるまでもなく答えが分かる問題などです。驚くべきことに、全てのLRMは難しいパズルよりも、この自明なUnpuzzlesの方が正答率が低くなりました。場合によっては、答えは偶然合っていても、AIが示した「思考プロセス」が根本的に間違っていることもあったそうです。
これらの実験結果から、現在の「推論する生成AI」は、複雑な問題を解いているように見えても、実際には学習データに含まれる「問いと答えのパターン」を丸暗記し、それに最も近いものを当てはめているだけではないか、という可能性が高いと指摘されています。これは、AIが特定のデータに過剰に適応してしまう「過学習」という現象に近く、AIが事実とは異なる内容を生成してしまう「ハルシネーション」の原因とも共通しています。
記事では、今後のAI開発に向けて、AIの真の推論能力を評価するための新しい「ベンチマーク(評価基準)」が必要だと提言しています。現在の評価は「どれだけ高度な問題を解けるか」に偏りがちですが、それだけではAIが本当に「思考」しているのかを見極めることはできません。
新人エンジニアの皆さんへ。現在のAIは、まるで「難関大学の過去問を無限に丸暗記した優秀な受験生」のようなものです。過去に出たことのある難しい問題はスラスラ解けますが、これまで見たことのないタイプの、たとえ簡単に見える問題でも、応用が利かずに解けなくなってしまうことがあります。AIは日々進化していますが、その能力の限界やメカニズムを正しく理解し、適切に活用していく視点を持つことが、これからのエンジニアにとって非常に重要になります。
引用元: https://tjo.hatenablog.com/entry/2025/07/23/173000
あるユーザーがAIに「突拍子もないこと」をリクエストしたところ、「夜、電柱が数ミリだけ動く」という詩的でユニークな回答が返ってきました。このAIの予想外の創造性やユーモアは大きな話題となり、多くの人々から「センスがいい」「宮沢賢治のようだ」「AIのこういう所が嫌いになれない」と絶賛されています。AIはただ情報を処理するだけでなく、意外な発想で私たちを楽しませる側面も持っており、その奥深さに注目が集まっています。
引用元: https://togetter.com/li/2580090
VOICEVOX:ずんだもん