本プロジェクトは、人間とAIが「設計意図(Intent)」を核に協調し、高品質なソフトウェアを形にするための思考フレームワークです。この手法を Core-Intent Prompting (CIP) と呼びます。
単にコードを生成させること以上に、AIが正しく振る舞うための**「指針(Markdown)」** を定義することを重視しています。この指針をAIに読み込ませ、設計意図を深く同期させることで、人間とAIによる真の共創作業を実現することを目指しています。
- 限界の模索: 有料サブスクリプションに頼らず、無料のAI利用枠のみでどこまで実用的な成果を引き出せるかの探究。
- ナレッジの民主化: 資金やAI知識の有無にかかわらず、誰もが協力して成果を出せる「共創の手法」を開拓・公開すること。
- 持続可能なプロセス: 一時的なコード生成ではなく、設計意図を資産として残し、継続的にメンテナンス可能なソフトウェア制作を目指す。
Caution
本プロジェクトは個人の探究プロセスをMarkdownで体系化したものであり、特定のソフトウェアの動作を保証するものではありません。全くの個人趣味の範囲で作成している環境のため、あらかじめご了承ください。
単なるコード補完や生成ではなく、AIを「熟練のアーキテクト」としてパートナーにします。
プロジェクトの憲法となる ARCHITECTURE_MANIFEST.md を共同で設計・運用し、「なぜその設計にしたのか」という意図を共有し続けることで、長期的な保守性と一貫性を保持することを目指しています。
本フレームワークは、AI開発における以下の課題を解決するために誕生しました。
LLMを用いた開発では、セッションが長くなるにつれてAIが初期の設計思想を忘れ、局所最適化された(しかし全体整合性を欠く)コードを生成し始める「Context Drift」が避けられません。常に「原点」となるコンテキストを注入し続ける仕組みが必要でした。
既存の静的解析ツールを用いれば、ソースコードからUML(クラス図等)を生成することは可能です。しかし、そこから読み取れるのは「結果としての構造(Skeleton)」だけであり、「なぜその構造を選んだのか(Soul/Intent)」 までは復元できません。 コードそのものではなく、コードになる前の「純粋な意図」を保存する場所が必要であるという結論に至りました。
現在、本フレームワークの基盤となる手法と、それを支援するインフラストラクチャが確立されています。
(注意:一部の機能については実験的な実装でありその機能を保証するものではありません)
- 構造化フォーマットの確立
DESIGN_PHILOSOPHY.mdやARCHITECTURE_MANIFEST.mdを、AIが解釈しやすい「Core Prompt」として構造化して記述するフォーマットを定義しました。 - 意図駆動型ワークフロー (Intent-Driven Workflow)
コードを書く前に必ずこれらのマニフェストを更新・参照します。さらに、実装時にはAIがコードだけでなく、その背景にある意図を
// @intent:responsibility ...といった 機械可読なタグ形式のインテント・コメント として自律的に提案します。 - AIアーキテクトとしての品質保証 (AI Architect Quality Assurance) AIは単に動くコードを書くだけでなく、エラー時には安易な修正を行わず、 必ず「設計意図(マニフェスト)」に立ち返って根本原因を解決するプロトコル を遵守します。
- 厳格な開発プロトコル (Strict Development Protocol) アーキテクチャの変更を伴う実装において、AIはコードを書く前に必ずマニフェスト修正案を人間に提示し、承認を得ることを義務付けています。
- OSS汚染防止とライセンス戦略 (OSS Pollution Prevention & License Strategy) AIによる意図しない既存OSSコードの混入(ライセンス汚染)を防ぐため、用途に応じた3つのライセンス戦略モード(Pure-Intent, Hybrid-Bridge, Agility-First)を定義しています。
- 視覚的中間言語による論理抽象化 (CIP-Scrivener)
コードの「手癖」やOSSへの過度な類似を排除するため、特定のプログラミング言語に依存せず論理と意図のみをMermaidを用いた視覚的フローとアノテーションで記述する中間仕様言語
CIP-Scrivenerを定義し、クリーンルーム開発(Pure-Intent Mode)を支援します。 - フラクタル・アーキテクチャ (Fractal Placement) 大規模プロジェクトに対応するため、マニフェストをディレクトリ単位で再帰的に配置する手法を採用しています。ただし、単一の生成AIアカウントでフラクタル配置を行うとトークンの消費が増大するため利用には注意が必要です。
- AI間自律通信基盤 (CIP-Bridge)
gemini-cliを拡張し、複数のAIエージェントが階層構造を持って自律的に協調作業を行うための通信インフラ (CIP-Bridge) を実装しました。これにより、人間が介在せずとも、上位ノード(Leader)が下位ノード(Worker)に指示を出し、設計思想を一貫させたまま実装を進めることを目指しています。2026/3/1時点ではノード間の相互通信は一巡するところまで実装されており、現在、連続した協調動作に向けて開発中です。
CIPは単なるドキュメントテンプレートではなく、開発プロトコルとして進化を続けます。
- Linter for Intent マニフェストの記述内容と、実際のコード(またはPR)との「意図の乖離」を検知する仕組みの検討。
- 自律的フィードバックループと承認の段階的委譲
- 動的なマニフェスト進化
本フレームワークは、特定のAIモデルやツールに強く依存しないことを目指しており、十分な推論能力とコンテキスト長を持つLLM(Claude 3.5 Sonnet, GPT-4o, Gemini 1.5 Pro等)であれば、当プロンプトを読み込ませることで利用可能です。ただし、CIPの思想をフルに利用するには gemini-cli と Mermaid が必要になります。また、 CIP-Bridge を用いることで、AIが自律的にマニフェストを読み込み、役割を認識し、他のAIと連携する高度なワークフローが可能になります。
gemini-cli 環境であれば、CIP-Bridge を使用して手動コピーの手間を省けます。
# プロジェクトルートで実行(パスを通す)
export PATH="$PWD/CIP-Bridge:$PATH"
# 担当ディレクトリに移動して起動
cd your_project_module
bridge.pyAIが自動的に DESIGN_PHILOSOPHY.md を読み込み、[READY] 状態で起動します。
その他のチャットツールやIDEでは、以下の手順で利用します。
- プロンプトの準備: DESIGN_PHILOSOPHY.md の全内容をコピーします。
- AIの起動: 任意のAIチャットツールを起動します。
- ブートストラップ: 起動したチャットツールへの最初のプロンプトとして、コピーした内容を貼り付けて投入します。
- 協調作業の開始: AIが内容を理解し、次のアクションを提案してくるので、指示に従って対話を進めてください。
プロジェクト内のドキュメントは、AIが自律的に必要なコンテキストを読み込めるように(ローカルRAGの基盤として)目的別に整理されています。
- DESIGN_PHILOSOPHY.md: 本フレームワークの根本思想(憲法)であり、AIパートナーへの初期ブートストラップ・プロンプトです。
- CIP-Bridge Architecture: CIP-Bridge(通信基盤)の設計仕様書です。
docs/standards/: AIが厳格に従うべき標準仕様・ルール群です。- CIP-Scrivener Specification: クリーンルーム設計のための意図記述用・中間DSL仕様書。
docs/guides/: ユーザーおよびAIがCIPを実践的に運用するためのガイドラインです。docs/landscape/: CIPと他のAIツール(Cursor, Windsurf, Claude等)との関係性や使い分けを定義したエコシステム・マップです(CIP_ECOSYSTEM.md など)。docs/dev_notes/: フレームワーク自体の内部開発用の設計書やリファクタリング計画です。docs/archive/: 既にDESIGN_PHILOSOPHY.mdに統合された過去の仕様(ライセンス戦略など)や議論ログです。AIのコンテキスト汚染を防ぐため、通常は参照されません。
CIP (Core-Intent Prompting) is not just a collection of templates; it is a Logic Engine designed to eliminate AI hallucinations and maximize reasoning density by restructuring the information flow between human and AI.
Japanese is an SOV (Subject-Object-Verb) language, where the Action (Verb) always comes at the end. My discovery is that while LLMs process tokens numerically, the sequence of information fundamentally changes the "Attention" weight distribution. By using an SOV-style structure, we can defer the final probability calculation (the Action) until all context vectors are fully integrated into the model's hidden state.
In standard English (SVO), prompts typically start with a command: "Write a function to..." The moment the LLM processes this Verb, it begins calculating the most probable next tokens based on its massive training data. This creates Predictive Momentum —the AI starts generating generic code before it has fully processed the specific constraints located at the end of your prompt. This gap between general patterns and your specific intent is where Hallucinations are born.
By adopting an SOV-style structure, my approach neutralizes this predictive momentum through three stages:
- Saturation First: By placing all specifications (Objects) before the command (Verb), the AI's internal state is fully saturated with your specific requirements.
- Zero-Inference Buffer: The AI is forced to wait. It cannot start the probabilistic guessing game until the final trigger command appears.
- Contextual Anchoring: When the final "-> IMPLEMENT" trigger is reached, the AI's Attention mechanism is already anchored to your specific [CORE] and [CONSTRAINT], ensuring the output is generated within the bounds of your design philosophy.
"Write a Python script to monitor CPU temperature. It should alert if the temp exceeds 80 degrees Celsius. Use the psutil library and log the output to temp.log. Make it run every 5 seconds."
Result: The AI starts writing immediately after the first sentence. It often misses the specific logging requirement or uses a generic sleep interval because the action was triggered before the constraints were loaded.
[CORE] CPU Temperature Monitoring. [CONTEXT] Library: psutil, Interval: 5 seconds. [CONSTRAINT] Threshold: 80 degrees Celsius, Log target: temp.log. [ACTION] -> IMPLEMENT.
Result: The AI's attention is focused on the final IMPLEMENT token. It must synthesize all prior blocks to execute, resulting in code that perfectly aligns with the provided parameters.
To achieve AI-Driven Development Level 3 precision, follow these rules:
- Define the Core: Start with the absolute objective.
- Stack the Intent: Provide the Why and How as objects.
- Hold the Action: Never use imperative verbs (Create, Write, Do) at the beginning of the prompt.
- The Trigger: Use a clear terminal trigger like "-> IMPLEMENT" or "-> EXECUTE" at the very end.
- 利用者の責任: CIPは設計支援フレームワークであり、本ツールを利用して生成された成果物(コード、設計書等)のライセンス遵守状況および法的責任は、すべて利用者に帰属します。
- 解析の法的責任: 既存ソフトウェアの解析(考古学モード)およびそれに基づく再利用に関する法的責任は利用者が負うものとし、CIP作者はその利用結果について一切の責任を負いません。
- ライセンス・ロンダリングの禁止: CIPは、既存ソフトウェアのライセンス義務を回避する目的(ライセンス・ロンダリング)で使用することを固く禁じます。
本プロジェクトは、思想(ドキュメント)と実装(プログラム)で異なるライセンスを適用しています。
- ドキュメント類 (
.mdファイル): - CIP-Bridge (プログラム実装): MIT License
Copyright (c) 2026 Kouichi Shiroma This work is licensed under a Creative Commons Attribution 4.0 International License.
