跳转到内容

AI 集成

2 篇包含标签 "AI 集成" 的文章

从 CLI 调用到 SDK 集成:GitHub Copilot 在 .NET 项目中的最佳实践

从 CLI 调用到 SDK 集成:GitHub Copilot 在 .NET 项目中的最佳实践

Section titled “从 CLI 调用到 SDK 集成:GitHub Copilot 在 .NET 项目中的最佳实践”

从命令行调用到官方 SDK 集成的升级之路,说起来也算是一段经历,今天就分享我们在 HagiCode 项目中踩过的坑和学到的东西。

GitHub Copilot SDK 在 2025 年正式发布后,我们开始将其集成到 AI 能力层中。在此之前,项目主要通过直接调用 Copilot CLI 命令行工具来使用 GitHub Copilot 能力,这种方式其实也存在几个明显问题:

  • 进程管理复杂:需要手动管理 CLI 进程的生命周期、启动超时和进程清理——毕竟进程这东西,说崩溃就崩溃了,也没什么预兆
  • 事件处理不完整:原始 CLI 调用难以捕获模型推理过程和工具执行的细粒度事件,就像只能看到结果,却看不到思考的过程
  • 会话管理困难:缺乏有效的会话复用和恢复机制,每次都得重新开始,想想也是挺累的
  • 兼容性问题:CLI 参数更新频繁,需要持续维护参数兼容性逻辑,这无异于和风车作战了

这些问题在日常开发中逐渐显现,特别是在需要实时追踪模型推理过程(thinking)和工具执行状态时,CLI 调用的局限性尤为明显。我们也算是想明白了,需要一个更底层、更完整的集成方式——毕竟,条条大路通罗马,只是有的路好走一点,有的路稍微曲折一点罢了。

本文分享的方案来自我们在 HagiCode 项目中的实践经验。HagiCode 是一个开源的 AI 代码助手项目,在开发过程中我们需要深度集成 GitHub Copilot 的各种能力——从基础的代码补全到复杂的多轮对话和工具调用。这些实际需求推动我们从 CLI 调用升级到了官方 SDK 集成。

如果你对本文的实践方案感兴趣,说明我们的工程实践可能对你有帮助——那么 HagiCode 项目本身也值得关注一下。或许在文末你会发现更多关于项目的信息和链接,谁知道呢…

项目采用了分层架构来解决 CLI 调用的问题:

┌─────────────────────────────────────────────────────────┐
│ hagicode-core (Orleans Grains + AI Provider Layer) │
│ - CopilotAIProvider: 将 AIRequest 转换为 CopilotOptions │
│ - GitHubCopilotGrain: Orleans 分布式执行接口 │
└─────────────────────────────────────────────────────────┘
┌─────────────────────────────────────────────────────────┐
│ HagiCode.Libs (Shared Provider Layer) │
│ - CopilotProvider: CLI Provider 接口实现 │
│ - ICopilotSdkGateway: SDK 调用抽象 │
│ - GitHubCopilotSdkGateway: SDK 会话管理与事件分发 │
└─────────────────────────────────────────────────────────┘
┌─────────────────────────────────────────────────────────┐
│ GitHub Copilot SDK (Official .NET SDK) │
│ - CopilotClient: SDK 客户端 │
│ - CopilotSession: 会话管理 │
│ - SessionEvent: 事件流 │
└─────────────────────────────────────────────────────────┘

这种分层设计带来的技术优势,其实也还挺实用的:

  1. 关注点分离:核心业务逻辑与 SDK 实现细节解耦——毕竟,什么层做什么事,井水不犯河水
  2. 可测试性:通过 ICopilotSdkGateway 接口可以轻松进行单元测试,测试起来也不那么费劲
  3. 复用性:HagiCode.Libs 可被多个项目引用,写一次,多处用
  4. 可维护性:SDK 升级只需修改 Gateway 层,上面的代码不用动,美得很

认证是 SDK 集成的第一步,也是最重要的一步——毕竟,门都进不去,后面的事情就免谈了。我们设计了一个灵活的认证配置,支持多种认证来源:

// CopilotProvider.cs - 认证来源配置
public class CopilotOptions
{
public bool UseLoggedInUser { get; set; } = true;
public string? GitHubToken { get; set; }
public string? CliUrl { get; set; }
}
// 转换为 SDK 请求
return new CopilotSdkRequest(
GitHubToken: options.AuthSource == CopilotAuthSource.GitHubToken
? options.GitHubToken
: null,
UseLoggedInUser: options.AuthSource != CopilotAuthSource.GitHubToken
);

这个设计的好处,其实也挺明显的:

  • 支持已登录用户模式(无需 token),适合桌面端场景——用户用自己的账号登录就行
  • 支持 GitHub Token 模式,适用于服务端部署——统一管理也方便
  • 支持 Copilot CLI URL 覆盖,方便企业代理配置——企业环境嘛,总有些特殊的规矩

在实际使用中,这种灵活的认证方式大大简化了不同部署场景的配置工作。桌面端可以使用用户自己的 Copilot 登录状态,服务端则可以通过 Token 进行统一管理。怎么说呢,各取所需罢了。

SDK 最强大的能力之一,应该就是对事件流的完整捕获了。我们实现了一个事件分发系统,能够实时处理各种 SDK 事件——毕竟,知道过程和只知道结果,感觉还是不一样的:

// GitHubCopilotSdkGateway.cs - 事件分发核心逻辑
internal static SessionEventDispatchResult DispatchSessionEvent(
SessionEvent evt, bool sawDelta)
{
switch (evt)
{
case AssistantReasoningEvent reasoningEvent:
// 捕获模型推理过程
events.Add(new CopilotSdkStreamEvent(
CopilotSdkStreamEventType.ReasoningDelta,
Content: reasoningEvent.Data.Content));
break;
case ToolExecutionStartEvent toolStartEvent:
// 捕获工具调用开始
events.Add(new CopilotSdkStreamEvent(
CopilotSdkStreamEventType.ToolExecutionStart,
ToolName: toolStartEvent.Data.ToolName,
ToolCallId: toolStartEvent.Data.ToolCallId));
break;
case ToolExecutionCompleteEvent toolCompleteEvent:
// 捕获工具调用完成及结果
events.Add(new CopilotSdkStreamEvent(
CopilotSdkStreamEventType.ToolExecutionEnd,
Content: ExtractToolExecutionContent(toolCompleteEvent)));
break;
default:
// 未处理事件作为 RawEvent 保留
events.Add(new CopilotSdkStreamEvent(
CopilotSdkStreamEventType.RawEvent,
RawEventType: evt.GetType().Name));
break;
}
}

这个实现带来的价值,怎么说呢:

  • 完整捕获模型推理过程(thinking):用户可以看到 AI 的思考过程,而不仅仅是最终结果——就像知道答案不如知道怎么思考出来的
  • 实时追踪工具执行状态:知道哪些工具正在运行、何时完成、返回了什么结果
  • 零事件丢失:通过 fallback 到 RawEvent 机制,确保所有事件都被记录,什么都不落下

在 HagiCode 的实际使用中,这些细粒度的事件让用户能够更深入地理解 AI 的工作过程,特别是在调试复杂任务时——这还是有点用处的。

从 CLI 调用迁移到 SDK 后,我们发现一些原有的 CLI 参数在 SDK 中不再适用。为了保持向后兼容,我们实现了一个参数过滤系统——毕竟,旧配置不能用,也挺让人头疼的:

// CopilotCliCompatibility.cs - 参数过滤
private static readonly Dictionary<string, string> RejectedFlags = new()
{
["--headless"] = "不支持的启动参数",
["--model"] = "通过 SDK 原生字段传递",
["--prompt"] = "通过 SDK 原生字段传递",
["--interactive"] = "由 provider 管理交互",
};
public static CopilotCliArgumentBuildResult BuildCliArgs(CopilotOptions options)
{
// 过滤不支持的参数,保留兼容参数
// 生成诊断信息
}

这样做的好处:

  • 自动过滤不兼容的 CLI 参数,避免运行时错误——程序崩溃可不是闹着玩的
  • 生成清晰的错误诊断信息,帮助开发者快速定位问题
  • 保证 SDK 稳定性,不受 CLI 参数变化的影响

在升级过程中,这个兼容性处理机制帮助我们平滑过渡,旧的配置文件仍然可以使用,只需要根据诊断信息逐步调整即可——也算是个渐进的过程了。

Copilot SDK 的会话创建成本较高,频繁创建和销毁会话会影响性能。我们实现了一个会话池管理系统——就像池子里的水,用完了再装,不如留着下次接着用:

// CopilotProvider.cs - 会话池管理
await using var lease = await _poolCoordinator.AcquireCopilotRuntimeAsync(
request,
async ct => await _gateway.CreateRuntimeAsync(sdkRequest, ct),
cancellationToken);
if (lease.IsWarmLease)
{
// 复用已有会话
yield return CreateSessionReusedMessage();
}
await foreach (var eventData in lease.Entry.Resource.SendPromptAsync(...))
{
yield return MapEvent(eventData);
}

会话池化的好处:

  • 会话复用:相同 sessionId 的请求可以复用已有会话,减少启动开销
  • 支持会话恢复:网络中断后可以恢复之前的会话状态——毕竟网络这东西,谁敢保证一直稳定呢
  • 自动池化管理:自动清理过期会话,避免资源泄漏

在 HagiCode 的实际使用中,会话池化显著提升了响应速度,特别是在处理连续对话时效果明显——这种提升还是能感觉到的。

HagiCode 使用 Orleans 作为分布式框架,我们将 Copilot SDK 集成到了 Orleans Grain 中——分布式这东西,说起来复杂,用起来倒也挺顺手:

// GitHubCopilotGrain.cs - 分布式执行
public async IAsyncEnumerable<GitHubCopilotResponse> ExecuteCommandStreamAsync(
string command,
CancellationToken token = default)
{
var provider = await aiProviderFactory.GetProviderAsync(AIProviderType.GitHubCopilot);
await foreach (var chunk in provider.SendMessageAsync(request, null, token))
{
// 映射为统一的响应格式
yield return BuildChunkResponse(chunk, startedAt);
}
}

Orleans 集成带来的优势:

  • 统一的 AI Provider 抽象:可以轻松切换不同的 AI 提供商——今天用这个,明天用那个,也挺灵活
  • 多租户隔离:不同用户的 Copilot 会话相互隔离,井水不犯河水
  • 持久化会话状态:会话状态可以跨服务器重启恢复,重启也不怕丢数据

对于需要处理大量并发请求的场景,Orleans 的分布式能力提供了很好的扩展性——毕竟,单机扛不住的时候,只能靠分布式顶上了。

以下是一个完整的配置示例——直接复制粘贴改改就能用:

{
"AI": {
"Providers": {
"Providers": {
"GitHubCopilot": {
"Enabled": true,
"ExecutablePath": "copilot",
"Model": "gpt-5",
"WorkingDirectory": "/path/to/project",
"Timeout": 7200,
"StartupTimeout": 30,
"UseLoggedInUser": true,
"NoAskUser": true,
"Permissions": {
"AllowAllTools": false,
"AllowedTools": ["Read", "Bash", "Grep"],
"DeniedTools": ["Edit"]
}
}
}
}
}
}

在实际使用中,我们总结了一些需要注意的地方——有些是踩坑得来的经验:

启动超时配置:首次启动 Copilot CLI 需要较长时间,建议设置 StartupTimeout 至少 30 秒。如果是首次登录,可能需要更长的时间——毕竟首次登录总得验证一下,这也没办法。

权限管理:生产环境避免使用 AllowAllTools: true。使用 AllowedTools 白名单控制可用工具,使用 DeniedTools 黑名单禁止危险操作。这样可以有效防止 AI 执行危险命令——安全这东西,小心点总是对的。

会话管理:相同 sessionId 的请求会自动复用会话。会话状态通过 ProviderSessionId 持久化。取消操作通过 CancellationTokenSource 传递——会话管理做得好,体验自然就好。

诊断输出:不兼容的 CLI 参数会生成 diagnostic 类型消息。原始 SDK 事件以 event.raw 类型保留。错误信息包含分类(启动超时、参数不兼容等),方便排查问题——出了问题能快速定位,也算是一种安慰了。

基于我们的实际经验,这里分享一些最佳实践——算是一些总结吧:

1. 使用工具白名单

var request = new AIRequest
{
Prompt = "分析这个文件",
AllowedTools = new[] { "Read", "Grep", "Bash(git:*)" }
};

通过白名单明确指定允许的工具,避免 AI 执行意外操作。特别是对于有写入权限的工具(如 Edit),需要格外谨慎——毕竟删库这种事,谁也不想经历。

2. 设置合理的超时

options.Timeout = 3600; // 1小时
options.StartupTimeout = 60; // 1分钟

根据任务的复杂度设置合适的超时时间。太短可能导致任务中断,太长则可能浪费资源等待无响应的请求——凡事适度,过犹不及。

3. 启用会话复用

options.SessionId = "my-session-123";

为相关任务设置相同的 sessionId,可以复用之前的会话上下文,提升响应速度——上下文这东西,有时候还挺重要的。

4. 处理流式响应

await foreach (var chunk in provider.StreamAsync(request))
{
switch (chunk.Type)
{
case StreamingChunkType.ThinkingDelta:
// 处理推理过程
break;
case StreamingChunkType.ToolCallDelta:
// 处理工具调用
break;
case StreamingChunkType.ContentDelta:
// 处理文本输出
break;
}
}

流式响应可以实时显示 AI 的处理进度,提升用户体验。特别是对于耗时任务,实时反馈非常重要——看着进度条总比干等着强。

5. 错误处理和重试

try
{
await foreach (var chunk in provider.StreamAsync(request))
{
// 处理响应
}
}
catch (CopilotSessionException ex)
{
// 处理会话异常
logger.LogError(ex, "Copilot session failed");
// 根据异常类型决定是否重试
}

适当的错误处理和重试机制可以提升系统的稳定性——谁也不能保证程序永远不出错,出了错能处理好就行。

从 CLI 调用到 SDK 集成的升级,为 HagiCode 项目带来了显著的价值——怎么说呢,这次升级还是挺值的:

  • 稳定性提升:SDK 提供了更稳定的接口,不受 CLI 版本变化影响——不用天天担心版本更新了
  • 功能完整性:能够捕获完整的事件流,包括推理过程和工具执行状态——过程和结果都能看到
  • 开发效率:类型安全的 SDK 接口让开发更高效,减少运行时错误——有类型检查,心里踏实
  • 用户体验:实时的事件反馈让用户更清晰地了解 AI 的工作过程——知道它在想什么,总比一无所知强

这次升级不仅仅是技术方案的替换,更是对整个 AI 能力层架构的优化。通过分层设计和抽象接口,我们获得了更好的可维护性和可扩展性——架构做好了,后面的事情就好办了。

如果你正在考虑将 GitHub Copilot 集成到你的 .NET 项目中,希望本文的实践经验能够帮助你少走一些弯路。官方 SDK 确实比 CLI 调用更加稳定和完整,值得投入时间去理解和掌握——毕竟,正确的工具能让事情事半功倍,这话也不是没有道理的。


如果本文对你有帮助:


写到这里也差不多了。技术文章嘛,总是写不完的,毕竟技术在发展,我们也在学习。如果你在使用 HagiCode 的过程中有什么问题或建议,欢迎随时联系我们。好了,就这样吧…

感谢您的阅读,如果您觉得本文有用,欢迎点赞、收藏和分享支持。 本内容采用人工智能辅助协作,最终内容由作者审核并确认。

Hagicode.Libs:统一集成多个 AI 编程助手 CLI 的工程实践

Hagicode.Libs:统一集成多个 AI 编程助手 CLI 的工程实践

Section titled “Hagicode.Libs:统一集成多个 AI 编程助手 CLI 的工程实践”

在开发 HagiCode 项目的过程中,我们需要同时集成 Claude Code、Codex、CodeBuddy 等多个 AI 编程助手 CLI。每个 CLI 的接口、参数、输出格式都不一样,重复的集成代码让项目越来越难以维护。本文分享我们如何通过 HagiCode.Libs 库构建统一抽象层,解决这个工程痛点——也算是我们踩过的坑,积累下来的一点经验罢了。

现在的 AI 编程助手市场挺热闹的,除了 Claude Code,还有 OpenAI 的 Codex、智谱的 CodeBuddy 等等。作为一个 AI 代码助手项目,HagiCode 需要在多个子项目(桌面端、后端、Web 等)中集成这些不同的 CLI 工具。

一开始问题还不大,集成一个 CLI 也就是几百行代码的事儿。只是随着要支持的 CLI 越来越多,事情就开始变得麻烦了——

每个 CLI 有不同的命令行参数格式,环境变量的要求也不一样,输出格式更是五花八门——有的输出 JSON,有的流式 JSON,有的就是纯文本。再加上跨平台兼容性问题,Windows 和 Unix 系统的可执行文件发现和进程管理机制完全不同,代码重复度越来越高。其实这也无非就是 Ctrl+C、Ctrl+V 多了一点,但维护起来可就头疼了。

最头疼的是,每次要新增一个 CLI 功能支持,就得在好几个项目里改同样的代码。这种方式显然不是长久之计——代码也是有脾气的,重复太多它也会闹别扭。

本文分享的方案来自我们在 HagiCode 项目中的实践经验。HagiCode 是一个开源的 AI 代码助手项目,需要同时维护前端 VSCode 扩展、后端 AI 服务、跨平台桌面客户端等多个子项目。怎么说呢,正是这种多语言、多平台的复杂场景,促成了 HagiCode.Libs 的诞生——算是被逼出来的,也罢。

虽然这些 AI 编程助手 CLI 各有特点,但从技术层面来看,它们存在明显的共同特征:

相似的交互模式:都是启动 CLI 进程,发送提示词,接收流式响应,解析消息,最后会话结束或继续——这一套流程,说到底都是一个模子刻出来的。

相似的配置需求:都需要 API 密钥认证、工作目录设置、模型选择、工具权限控制、会话管理。毕竟大家都是吃 API 这碗饭的,差别无非是口味不同。

跨平台挑战一致:都需要解决可执行文件路径解析(claude vs claude.exe vs /usr/local/bin/claude)、进程启动和环境变量处理、Shell 命令转义和参数构建等问题。这跨平台的事儿,说多了都是泪——Windows 和 Unix 的差异,只有踩过坑的人才知道。

基于这些分析,我们需要一个统一的抽象层来提供一致的接口,封装跨平台的 CLI 发现逻辑,处理流式输出的解析,同时支持依赖注入和非 DI 场景使用。这事儿想想就头大,但还是要面对——毕竟是自己的项目,哭着也要做完。

我们创建了 HagiCode.Libs —— 一个轻量级的 .NET 10 库工作空间,采用 MIT 开源协议,现已发布在 GitHub。虽然不是什么惊天地泣鬼神的大作,但解决实际问题,还是挺香的。

HagiCode.Libs/
├── src/
│ ├── HagiCode.Libs.Core/ # 核心功能
│ │ ├── Discovery/ # CLI 可执行文件发现
│ │ ├── Process/ # 跨平台进程管理
│ │ ├── Transport/ # 流式消息传输
│ │ └── Environment/ # 运行时环境解析
│ ├── HagiCode.Libs.Providers/ # 提供者实现
│ │ ├── ClaudeCode/ # Claude Code 提供者
│ │ ├── Codex/ # Codex 提供者
│ │ └── Codebuddy/ # CodeBuddy 提供者
│ ├── HagiCode.Libs.ConsoleTesting/ # 测试框架
│ ├── HagiCode.Libs.ClaudeCode.Console/
│ ├── HagiCode.Libs.Codex.Console/
│ └── HagiCode.Libs.Codebuddy.Console/
└── tests/ # xUnit 测试

在设计 HagiCode.Libs 时,我们遵循了几个原则——毕竟也都是踩过的坑,总结出来的经验:

零重型框架依赖:不依赖 ABP 或其他大型框架,保持轻量级。这年头,依赖越少,麻烦越少——谁还没被依赖地狱毒打过呢。

跨平台支持:Windows、macOS、Linux 原生支持,不需要针对不同平台写不同的代码。一套代码走天下,也挺好的。

流式处理:使用异步流处理 CLI 输出,更符合现代 .NET 的编程模式。毕竟时代在变,异步才是王道。

灵活集成:既支持依赖注入场景,也允许直接实例化使用。萝卜青菜,各有所爱,怎么方便怎么来。

如果你的项目已经在使用依赖注入(比如 ASP.NET Core 或通用主机),可以直接集成——这也算是个孩子,虽然不大,但挺乖的:

using HagiCode.Libs.Providers;
using Microsoft.Extensions.DependencyInjection;
var services = new ServiceCollection();
services.AddHagiCodeLibs();
await using var provider = services.BuildServiceProvider();
var claude = provider.GetRequiredService<ICliProvider<ClaudeCodeOptions>>();
var options = new ClaudeCodeOptions
{
ApiKey = "your-api-key",
Model = "claude-sonnet-4-20250514"
};
await foreach (var message in claude.ExecuteAsync(options, "Hello, Claude!"))
{
Console.WriteLine($"{message.Type}: {message.Content}");
}

如果是简单的脚本或者不使用 DI 的场景,直接创建实例也行——说白了就是看个人喜好:

var claude = new ClaudeCodeProvider();
var options = new ClaudeCodeOptions
{
ApiKey = "sk-ant-xxx",
Model = "claude-sonnet-4-20250514"
};
await foreach (var message in claude.ExecuteAsync(options, "帮我写一个快速排序"))
{
// 处理消息
}

两种方式使用的是同一套底层实现,你可以根据项目实际情况选择合适的集成方式。这世界本就没有标准答案,适合自己的才是最好的——虽然这话有点老套,但确实是这么个理儿。

每个提供者都有专用的测试控制台项目,方便独立验证集成效果——怎么说呢,测试这件事,要么不做,要做就做到位:

Terminal window
# Claude Code 测试
dotnet run --project src/HagiCode.Libs.ClaudeCode.Console -- --test-provider
dotnet run --project src/HagiCode.Libs.ClaudeCode.Console -- --test-all claude
# CodeBuddy 测试
dotnet run --project src/HagiCode.Libs.Codebuddy.Console -- --test-provider codebuddy-cli
# Codex 测试
dotnet run --project src/HagiCode.Libs.Codex.Console -- --test-provider codex-cli

测试场景覆盖了几个关键场景:

  • Ping:健康检查,确认 CLI 可用
  • Simple Prompt:基本提示测试
  • Complex Prompt:多轮对话测试
  • Session Restore/Resume:会话恢复测试
  • Repository Analysis:代码库分析测试

这种独立的测试控制台设计在调试时特别有用,可以快速定位问题是在 HagiCode.Libs 层还是 CLI 本身。这调试嘛,说白了就是看问题出在哪儿——方向对了,就成功了一半。

跨平台兼容性是 HagiCode.Libs 的核心目标之一。我们配置了 GitHub Actions 工作流 .github/workflows/cli-discovery-cross-platform.yml,在 ubuntu-latestmacos-latestwindows-latest 三个平台上运行真实的 CLI 发现验证。

这确保了每次代码变更都不会破坏跨平台兼容性。本地开发时也可以通过以下命令复现——总不能让 CI 帮你背所有锅,自己本地也要能跑起来:

Terminal window
npm install --global @anthropic-ai/claude-code@2.1.79
HAGICODE_REAL_CLI_TESTS=1 dotnet test --filter "Category=RealCli"

HagiCode.Libs 使用异步流处理 CLI 输出,这种方式比传统的回调或事件模式更符合现代 .NET 的异步编程风格——说到底,这就是技术的进步,谁也挡不住:

public async IAsyncEnumerable<CliMessage> ExecuteAsync(
TOptions options,
string prompt,
[EnumeratorCancellation] CancellationToken cancellationToken = default)
{
// 启动 CLI 进程
// 解析流式 JSON 输出
// 生成 CliMessage 序列
}

消息类型包括:

  • user:用户消息
  • assistant:助手响应
  • tool_use:工具调用
  • result:会话结束

这种设计让调用方可以灵活地处理流式输出,比如实时显示、缓冲后处理、或者转发到其他服务。美又何必在乎天晴阴呢?重要的是思路打开了,怎么用都成。

HagiCode.Libs.Exploration 模块提供了 Git 仓库发现和状态检查功能,这在分析代码库场景特别有用——这也是被逼出来的功能,谁让 HagiCode 需要分析代码库呢:

// 发现 Git 仓库
var repositories = await GitRepositoryDiscovery.DiscoverAsync("/path/to/search");
// 获取仓库信息
var info = await GitRepository.GetInfoAsync(repoPath);
Console.WriteLine($"Branch: {info.Branch}, Remote: {info.RemoteUrl}");
Console.WriteLine($"Has uncommitted changes: {info.HasUncommittedChanges}");

HagiCode 的代码分析功能就用到了这个模块来识别项目结构和 Git 状态。算是物尽其用,也算是个孩子,没白养。

基于我们在 HagiCode 项目中的实践,有几个地方需要特别注意——都是事儿,事儿,事儿:

API 密钥安全:不要将 API 密钥硬编码到代码中,使用环境变量或配置管理。HagiCode.Libs 支持通过 Options 对象传递配置,方便集成各种配置源。毕竟安全这件事,怎么小心都不为过。

CLI 版本锁定:CI/CD 中我们锁定了特定版本(如 @anthropic-ai/claude-code@2.1.79)以减少版本漂移带来的不确定性。本地开发时建议也使用固定版本。这版本的事儿,说多了都是泪——不固定版本,分分钟教你做人。

测试分类:默认测试使用假提供者保持确定性和速度,真实 CLI 测试需要显式启用。这样既保证了 CI 的快速反馈,又能在需要时进行真实环境验证。这平衡木走起来,也不容易——快和稳,总是需要取舍。

会话管理:不同 CLI 的会话恢复机制不同,Claude Code 使用 .claude/ 目录存储会话,Codex 和 CodeBuddy 各有自己的方式。使用时要注意查看各自文档,了解会话持久化的具体机制。这也罢了,了解清楚总没坏处。

HagiCode.Libs 是我们在开发 HagiCode 过程中,为了解决多 CLI 集成的重复工程问题而构建的统一抽象层。它通过提供一致的接口、封装跨平台细节、支持灵活的集成方式,大大降低了集成多个 AI 编程助手的工程复杂度。一切都淡了——但经验留下了。

如果你也在项目中需要集成多个 AI CLI 工具,或者对跨平台进程管理、流式消息处理感兴趣,欢迎来 GitHub 看看。项目采用 MIT 开源协议,欢迎贡献和反馈。终究是缘分一场,来都来了,不妨交个朋友。

本文分享的方案是 HagiCode 实际踩坑、实际优化出来的。这又有什么办法呢?踩坑嘛,正常——如果你觉得这套方案有价值,说明我们的工程实力也还算过得去。那么 HagiCode 本身,也值得关注一下,说不定有惊喜呢。


如果本文对你有帮助:

感谢您的阅读,如果您觉得本文有用,欢迎点赞、收藏和分享支持。 本内容采用人工智能辅助协作,最终内容由作者审核并确认。