跳转到内容

Vite

2 篇包含标签 "Vite" 的文章

HagiCode 启动页设计:React 19 应用中填补 Hydration 空白期的极致体验

为 HagiCode 设计 12 种极致的启动体验:从极简到赛博朋克

Section titled “为 HagiCode 设计 12 种极致的启动体验:从极简到赛博朋克”

在 React 19 应用下载和 Hydration 的短暂间隙,是留给用户感知品牌个性的黄金窗口。本文分享了我们在 HagiCode 项目中,基于 HTML/CSS/JS 构建的一套完整的启动风格系统。

HagiCode 作为一个基于 ASP.NET Core 10 和 React 19 (Vite) 的现代化应用,采用了前后端分离部署的架构。前端产物被打包放置于后端的 wwwroot/ 目录下由 ASP.NET Core 托管。

然而,这种架构带来了一个经典的用户体验痛点:当用户访问网页时,浏览器需要先加载 HTML,再下载巨大的 JS Bundle,最后由 React 执行 Hydration(注水)。在这几百毫秒到数秒的”真空期”里,用户面对的是一片空白,或者是一个毫无生气的静态页面。

为了填补这段间隙,并注入 HagiCode 的品牌个性,我们需要设计一套完全基于 index.html 内联代码的启动风格系统。

本文分享的启动页设计方案来自我们在 HagiCode 项目中的实践经验。作为一个 AI 代码助手,HagiCode 不仅关注代码生成的效率,也同样重视开发者的视觉体验。这套启动系统正是我们在追求极致前端性能过程中的产物。

在动手设计之前,我们必须先明确技术约束。既然要在 index.html 中内联实现,意味着我们不能加载任何外部 CSS 或 JS 文件(除了 React 本身的 Bundle)。

  1. 零依赖原则:所有样式必须写在 <style> 标签内,逻辑写在 <script> 标签内。
  2. 防御式 CSS:为了防止 React 应用挂载后,全局样式污染启动页,我们决定使用高优先级的 ID 前缀(如 #boot-screen)包裹所有启动样式。
  3. 性能优先:动画尽量使用 CSS transformopacity,避免触发重排,确保不阻塞主线程。
  4. 视觉一致性:颜色、字体必须与 HagiCode 的 Tailwind 配置保持一致。

我们采用了一种变体模式。核心逻辑封装在一个立即执行函数(IIFE)中,具体的渲染逻辑作为配置项注入。这样我们就可以通过简单的配置切换不同的风格,而不需要重复编写 DOM 操作逻辑。

以下是核心的架构代码:

<!-- 内联于 index.html -->
<div id="boot-root"></div>
<script>
(function() {
const BootSequence = {
config: {
theme: 'terminal', // 可配置为 'minimal', 'skeleton', 'code-rain' 等
color: '#3b82f6' // 品牌色
},
// 核心生命周期
init() {
this.render();
this.listenForMount();
},
// 渲染当前选定的风格
render() {
const root = document.getElementById('boot-root');
if (this.variants[this.config.theme]) {
root.innerHTML = this.variants[this.config.theme].render();
}
},
// 监听 React 挂载成功,优雅退出
listenForMount() {
window.addEventListener('hagicode:ready', () => {
const screen = document.getElementById('boot-root');
// 先淡出,再移除 DOM,避免闪烁
screen.style.opacity = '0';
screen.style.transition = 'opacity 0.3s ease';
setTimeout(() => screen.remove(), 300);
});
},
// 12种风格的实现逻辑集中在这里
variants: {
// ...具体实现见下文
}
};
BootSequence.init();
})();
</script>

我们将这 12 种风格分为了六大类,以满足不同场景和审美需求。

“少即是多”。对于追求极致加载速度的场景,我们提供了最轻量的方案。

屏幕中心只有一个简单的圆点,配合呼吸动画。

  • 实现:CSS @keyframes 控制scale和opacity。
  • 适用:任何需要保持页面绝对干净的场合。

通过 SVG stroke-dasharray 动画,模拟手绘般绘制出 HagiCode 的 Logo 线条,随后淡入文字。

  • 技巧:使用 SVG 路径动画,极具质感。

“欺骗眼睛的艺术”。通过模拟真实 UI 布局,让用户感觉页面已经加载了一半。

3. Sidebar Chat Skeleton (侧边栏骨架屏)

Section titled “3. Sidebar Chat Skeleton (侧边栏骨架屏)”

这可能是最实用的一种。我们手动用 HTML 构建了与 React 组件 SidebarChatInput 一模一样的布局,并覆盖灰色条纹动画。

  • 价值:当 React hydrate 完成时,骨架屏瞬间变成真实组件,用户几乎感觉不到切换。

模拟提案卡片加载时的堆叠动效,使用 3D 变换让卡片微微浮动。

展示 HagiCode 的极客基因。

在屏幕中心渲染一个几何体(正方形),它会随着时间平滑地变换为圆形、三角形,最后变成 Logo。

  • 技术:CSS border-radius 的平滑过渡。

向《黑客帝国》致敬。使用 JetBrains Mono 字体,在背景中落下淡淡的字符流。

  • 注意:为了性能,字符流必须限制在较小的区域或降低刷新频率。

赛博朋克风格的发光圆环,利用 box-shadow 的多重叠加产生强烈的发光感。

让系统”活”起来。

这是一个动态加载器。根据当前日期判断节日(如春节、圣诞节),加载对应的 SVG 动画。

  • 例子:春节时,屏幕下方会有红灯笼轻轻摆动。

背景使用 HagiCode 品牌色的流体渐变,配合 background-sizebackground-position 的动画,营造出极光般的流动感。

向开发者致敬。

模拟控制台输出。一行行代码快速滚动:

> Initializing HagiCode Core...
> Loading models...
> Connecting to neural network...

这会让每一个开发者都感到亲切。

屏幕顶部一条细细的进度条,右侧显示百分比。虽然我们无法获取真实的下载进度,但可以用一个定时器模拟出一个”可信”的加载过程(前 80% 快速,后 20% 减速)。

这是一个很有趣的创意。屏幕上散落着一些方块,它们汇聚到中心,逐渐拼凑出 HagiCode 的 Logo 图标。象征着代码的构建过程。

在 HagiCode 的实际开发中,我们总结了一些至关重要的实践细节。

千万别偷懒不写前缀。曾经有一次,我们没有给启动页样式加 ID 限制,导致 React 挂载后的全局 div 样式意外影响了启动页,导致布局崩坏。 经验:所有 CSS 选择器都挂在 #boot-screen 下,且使用 !important 提升优先级(仅在启动页 CSS 中)。

React mount 成功后,不要直接 remove() 启动页 DOM。 正确做法

  1. React 触发 window.dispatchEvent(new Event('hagicode:ready'))
  2. 启动页监听到事件,先设置 opacity: 0
  3. 等待 300ms (CSS transition 时间),确保用户看不见了,再执行 .remove()

启动页的颜色代码是写死在 index.html 里的。如果我们修改了 Tailwind 的主色,必须同步修改这里。 优化方案:在 Vite 构建脚本中,编写一个简单的插件,读取 tailwind.config.js 并将颜色变量注入到 index.html 的模板变量中,实现单一数据源。

启动页通常需要使用品牌字体,但如果字体加载慢,会出现 FOUT (Flash of Unstyled Text)。 解决方案:在 <head> 中加入 <link rel="preload" href="/fonts/JetBrainsMono.woff2" as="font" type="font/woff2" crossorigin>。这是提升体验的低成本高回报手段。

我们在 index.html 底部注入了 performance.mark('boot-start'),并在 React 挂载成功时标记 boot-end意义:通过 Application Insights 收集这些数据,我们可以真实看到启动页对用户感知等待时间(Perceived Loading Time)的缩短程度。数据表明,优秀的骨架屏能让用户对”慢速网络”的容忍度提升 50% 以上。

一个好的启动页,不仅仅是”等待时的装饰”,它是产品与用户第一次交互的握手信号。在 HagiCode 项目中,这套基于 Variants 模式的启动系统,让我们能够灵活地在不同节日、不同版本间切换风格,极大地增强了产品的趣味性和专业感。

本文分享的方案完全基于原生 Web 标准,没有引入任何沉重的依赖,这正是 HagiCode 追求”轻量且强大”的体现。如果你觉得这套方案有价值,欢迎来 HagiCode 仓库看看我们的源码实现,甚至贡献你的创意设计!

如果本文对你有帮助,欢迎来 GitHub 给个 Star,公测已开始,期待你的反馈!


感谢您的阅读,如果您觉得本文有用,快点击下方点赞按钮👍,让更多的人看到本文。

本内容采用人工智能辅助协作,经本人审核,符合本人观点与立场。

利用 Worker Threads 优化 Vite 构建性能的实战

120秒到45秒:利用 Worker Threads 优化 Vite 构建性能的实战

Section titled “120秒到45秒:利用 Worker Threads 优化 Vite 构建性能的实战”

在处理大型前端项目时,生产环境的代码构建往往让人望眼欲穿。本文分享如何通过 Node.js Worker Threads 将 Vite 构建中的代码混淆环节耗时从 120 秒降低至 45 秒,并详细介绍 HagiCode 项目中的实施细节与踩坑经验。

在我们的前端工程化实践中,随着项目规模的扩大,构建效率问题逐渐凸显。特别是在生产环境构建流程中,为了保护源码逻辑,我们通常会引入 JavaScript 混淆工具(如 javascript-obfuscator)。这一步虽然必要,但计算量巨大,极其消耗 CPU 资源。

HagiCode项目的早期开发阶段,我们遇到了一个非常棘手的性能瓶颈:生产构建时间随着代码量的增加迅速恶化。

具体痛点如下

  • 单线程串行执行混淆任务,CPU 单核跑满,其他核心闲置
  • 构建时间从最初的 30 秒飙升至 110-120 秒
  • 每次修改代码后的构建验证流程极其漫长,严重拖慢了开发迭代效率
  • CI/CD 流水线中,构建环节成为最耗时的部分

为什么 HagiCode 会有这个需求? HagiCode 是一款 AI 驱动的代码智能助手,其前端架构包含复杂的业务逻辑和 AI 交互模块。为了确保核心代码的安全性,我们在生产发布时强制开启了高强度混淆。面对长达两分钟的构建等待,我们决定对构建系统进行一次深度的性能优化。

既然提到了这个项目,不妨多介绍两句。

如果你在开发中遇到过这些烦恼:

  • 多项目、多技术栈,构建脚本维护成本高
  • CI/CD 流水线配置繁琐,每次改都要查文档
  • 跨平台兼容性问题层出不穷
  • 想让 AI 帮忙写代码,但现有工具不够智能

那么我们正在做的 HagiCode 可能你会感兴趣。

HagiCode 是什么?

  • 一款 AI 驱动的代码智能助手
  • 支持多语言、跨平台的代码生成与优化
  • 内置游戏化机制,让编码不再枯燥

为什么在这里提它? 本文分享的 JavaScript 并行混淆方案,正是我们在开发 HagiCode 过程中实践总结出来的。如果你觉得这套工程化方案有价值,说明我们的技术品味还不错——那么 HagiCode 本身也值得关注一下。

想了解更多?


在着手解决性能问题之前,我们需要先理清思路,确定最优的技术方案。

核心决策:为什么选择 Worker Threads?

Section titled “核心决策:为什么选择 Worker Threads?”

Node.js 环境下实现并行计算主要有三种方案:

  1. child_process:创建独立的子进程
  2. Web Workers:主要用于浏览器端
  3. worker_threads:Node.js 原生多线程支持

经过对比分析,HagiCode 最终选择了 Worker Threads,原因如下:

  • 零序列化开销:Worker Threads 位于同一进程,可以通过 SharedArrayBuffer 或转移控制权的方式共享内存,避免了进程间通信的大额序列化成本。
  • 原生支持:Node.js 12+ 版本内置支持,无需引入额外的重依赖。
  • 上下文统一:调试和日志记录比子进程更方便。

任务粒度:如何拆分混淆任务?

Section titled “任务粒度:如何拆分混淆任务?”

混淆一个巨大的 JS Bundle 文件很难并行(因为代码有依赖关系),但 Vite 的构建产物是由多个 Chunk 组成的。这给了我们一个天然的并行边界:

  • 独立性:Vite 打包后的不同 Chunk 之间依赖关系已解耦,可以安全地并行处理。
  • 粒度适中:通常项目会有 10-30 个 Chunk,这个数量级非常适合并行调度。
  • 易于集成:Vite 插件的 generateBundle 钩子允许我们在文件生成前拦截并处理这些 Chunk。

我们设计了一个包含四个核心组件的并行处理系统:

  1. Task Splitter:遍历 Vite 的 bundle 对象,过滤不需要混淆的文件(如 vendor),生成任务队列。
  2. Worker Pool Manager:管理 Worker 的生命周期,负责任务的分发、回收和错误重试。
  3. Progress Reporter:实时输出构建进度,消除用户的等待焦虑。
  4. ObfuscationWorker:实际执行混淆逻辑的工作线程。

基于上述分析,我们开始动手实现这套并行混淆系统。

首先,我们在 vite.config.ts 中集成并行混淆插件。配置非常直观,只需指定 Worker 数量和混淆规则。

import { defineConfig } from 'vite'
import { parallelJavascriptObfuscator } from './buildTools/plugin'
export default defineConfig(({ mode }) => {
const isProduction = mode === 'production'
return {
build: {
rollupOptions: {
...(isProduction
? {
plugins: [
parallelJavascriptObfuscator({
enabled: true,
// 根据 CPU 核心数自动调整,建议留出一个核心给主线程
workerCount: 4,
retryAttempts: 3,
fallbackToMainThread: true, // 出错时自动降级为单线程
// 过滤掉 vendor chunk,通常不需要混淆第三方库
isVendorChunk: (fileName: string) => fileName.includes('vendor-'),
obfuscationConfig: {
compact: true,
controlFlowFlattening: true,
deadCodeInjection: true,
disableConsoleOutput: true,
// ... 更多混淆选项
},
}),
],
}
: {}),
},
},
}
})

Worker 是执行任务的单元。我们需要定义好输入和输出的数据结构。

注意:这里的代码虽然简单,但有几个坑点需要注意。比如 parentPort 的空值检查,以及错误处理。在 HagiCode 的实践中,我们发现有些特殊的 ES6 语法可能会导致混淆器崩溃,所以加上了 try-catch 保护。

import { parentPort } from 'worker_threads'
import javascriptObfuscator from 'javascript-obfuscator'
export interface ObfuscationTask {
chunkId: string
code: string
config: any
}
export interface ObfuscationResult {
chunkId: string
obfuscatedCode: string
error?: string
}
// 监听主线程发来的任务
if (parentPort) {
parentPort.on('message', async (task: ObfuscationTask) => {
try {
// 执行混淆
const obfuscated = javascriptObfuscator.obfuscate(task.code, task.config)
const result: ObfuscationResult = {
chunkId: task.chunkId,
obfuscatedCode: obfuscated.getObfuscatedCode(),
}
// 将结果发回主线程
parentPort?.postMessage(result)
} catch (error) {
// 处理异常,确保单个 Worker 崩溃不会阻塞整个构建
const result: ObfuscationResult = {
chunkId: task.chunkId,
obfuscatedCode: '',
error: error instanceof Error ? error.message : 'Unknown error',
}
parentPort?.postMessage(result)
}
})
}

这是整个方案的核心。我们需要维护一个固定大小的 Worker 池,采用 FIFO(先进先出) 策略调度任务。

import { Worker } from 'worker_threads'
import os from 'os'
export class WorkerPool {
private workers: Worker[] = []
private taskQueue: Array<{
task: ObfuscationTask
resolve: (result: ObfuscationResult) => void
reject: (error: Error) => void
}> = []
constructor(options: WorkerPoolOptions = {}) {
// 默认为核心数 - 1,给主线程留一点喘息的空间
const workerCount = options.workerCount ?? Math.max(1, (os.cpus().length || 4) - 1)
for (let i = 0; i < workerCount; i++) {
this.createWorker()
}
}
private createWorker() {
const worker = new Worker('./worker.ts')
worker.on('message', (result) => {
// 任务完成后,从队列中取出下一个任务
const nextTask = this.taskQueue.shift()
if (nextTask) {
this.dispatchTask(worker, nextTask)
} else {
// 如果没有待处理任务,标记 Worker 为空闲
this.activeWorkers.delete(worker)
}
})
this.workers.push(worker)
}
// 提交任务到池中
public runTask(task: ObfuscationTask): Promise<ObfuscationResult> {
return new Promise((resolve, reject) => {
const job = { task, resolve, reject }
const idleWorker = this.workers.find(w => !this.activeWorkers.has(w))
if (idleWorker) {
this.dispatchTask(idleWorker, job)
} else {
this.taskQueue.push(job)
}
})
}
private dispatchTask(worker: Worker, job: any) {
this.activeWorkers.set(worker, job.task)
worker.postMessage(job.task)
}
}

等待是痛苦的,尤其是不知道还要等多久。我们增加了一个简单的进度报告器,实时反馈当前状态。

export class ProgressReporter {
private completed = 0
private readonly total: number
private readonly startTime: number
constructor(total: number) {
this.total = total
this.startTime = Date.now()
}
increment(): void {
this.completed++
this.report()
}
private report(): void {
const now = Date.now()
const elapsed = now - this.startTime
const percentage = (this.completed / this.total) * 100
// 简单的 ETA 估算
const avgTimePerChunk = elapsed / this.completed
const remaining = (this.total - this.completed) * avgTimePerChunk
console.log(
`[Parallel Obfuscation] ${this.completed}/${this.total} chunks completed (${percentage.toFixed(1)}%) | ETA: ${(remaining / 1000).toFixed(1)}s`
)
}
}

部署这套方案后,HagiCode 项目的构建性能有了立竿见影的提升。

我们在以下环境进行了测试:

  • CPU:Intel Core i7-12700K (12 cores / 20 threads)
  • RAM:32GB DDR4
  • Node.js:v18.17.0
  • OS:Ubuntu 22.04

结果对比

  • 单线程(优化前):118 秒
  • 4 Workers:55 秒(提升 53%
  • 8 Workers:48 秒(提升 60%
  • 12 Workers:45 秒(提升 62%

可以看出,收益并不是线性的。当 Worker 数量超过 8 个后,提升幅度变小。这主要受限于任务分配的均匀度和内存带宽瓶颈。

在 HagiCode 的实际使用中,我们也遇到了一些坑,这里分享给大家:

Q1: 构建时间没有明显减少,反而变慢了?

  • 原因:Worker 创建本身有开销,或者 Worker 数量设置过多导致上下文切换频繁。
  • 解决:建议 Worker 数量设置为 CPU 核心数 - 1。同时检查是否有单个 Chunk 特别大(例如 > 5MB),这种”巨无霸”文件会成为短板,可以考虑优化代码分割策略。

Q2: 偶尔出现 Worker 崩溃,构建失败?

  • 原因:某些特殊的代码语法可能导致混淆器内部报错。
  • 解决:我们实现了 自动降级机制。当 Worker 连续失败次数达到阈值时,插件会自动回退到单线程模式,确保构建不中断。同时记录下错误的文件名,方便后续针对性修复。

Q3: 内存占用过高(OOM)?

  • 原因:每个 Worker 都需要独立内存空间来加载混淆器和解析 AST。
  • 解决
    • 减少 Worker 数量。
    • 增加 Node.js 的内存限制:NODE_OPTIONS="--max-old-space-size=4096" npm run build
    • 确保不在 Worker 内部持有不必要的大对象引用。

通过引入 Node.js Worker Threads,我们成功将 HagiCode 项目的生产构建时间从 120 秒降低到了 45 秒左右,极大提升了开发体验和 CI/CD 效率。

这套方案的核心在于:

  1. 合理拆分任务:利用 Vite 的 Chunk 作为并行单元。
  2. 资源控制:使用 Worker 池避免资源耗尽。
  3. 容错设计:自动降级机制确保构建稳定性。

如果你也在为前端构建效率发愁,或者你的项目也在做重度代码处理,不妨试试这套方案。当然,更推荐你直接关注我们的 HagiCode 项目,这些工程化的细节都已经集成在里面了。

如果本文对你有帮助,欢迎来 GitHub 给个 Star,或者参与公测体验一下~


感谢您的阅读,如果您觉得本文有用,快点击下方点赞按钮👍,让更多的人看到本文。

本内容采用人工智能辅助协作,经本人审核,符合本人观点与立场。