置顶 ### 安装文档 ###

解压缩安装包
你会在当前目录下看到 bgxiong_for_mac 和 bgxiong_for_windows 两个文件夹
请根据自己的系统拷贝对应的文件夹

*** MAC APP Store上购买的达芬奇无法安装工作流插件 这是来自苹果系统的特殊照顾 与插件无关 ***

WINDOWS用户把它整个的复制到 (如果没有可以手动创建 "Workflow Integration Plugins" 目录 )
C:\ProgramData\Blackmagic Design\DaVinci Resolve\Support\Workflow Integration Plugins

MAC用户把它整个的拷贝到 (如果没有可以手动创建 "Workflow Integration Plugins" 目录 )
/Library/Application Support/Blackmagic Design/DaVinci Resolve/Support/Workflow Integration Plugins

====================================

!!!安装后工作流是灰的,无法打开,或者找不到目录的同学们可以先打开达芬奇!!!
!!!在顶部工具栏找到【帮助】再找到【文档】然后点击【开发人员】!!!
!!!这样你就进入了开发人员目录接着【回退一级】目录就能快速定位程序的安装目录了!!!
!!!如果没有【Workflow Integration Plugins】目录那就手动创建一个!!!
!!!【bgxiong_根据你的系统选择】的程序目录整个复制过来就行了!!!
!!!要复制目录不要复制里面的文件!!!
!!!最终路径应该是 *************
**********/DaVinci Resolve/Support/Workflow Integration Plugins/bgxiong_win
或者
**********/DaVinci Resolve/Support/Workflow Integration Plugins/bgxiong_mac

====================================

直接去到达芬奇顶部工具栏
找到 工作区 -> 流程整合 -> 比格熊

如果无法启动尝试以下操作
1. 关闭达芬奇
2. 重新复制插件文件夹到上述目录
3. 重新打开达芬奇

====================================

置顶 ### 使用帮助 ###

##我们先简单的做个基本使用说明
** 基础介绍
- 安装成功后从达芬奇顶部工具栏【工作区】->【流程整合】->【比格熊】打开
- 快捷键 ESC 快速隐藏和显示已经打开的界面

** 音效模块
- 【播放】鼠标滑动到波形图上 音效自动循环播放
- 【播放】单击波形图 快速定位音效的位置 可实现快进效果
- 【下载】单击音效名称 自动下载加入音效到当前软件激活的时间线
- 【下载】文件不会被重复下载 本地缓存有的文件会优先使用本地缓存
- 【下载】双击波形图  自动下载加入音效到当前软件激活的时间线
-【时间线】当前时间线当前播放头下如果轨道为空,则自动插入到空轨道
-【时间线】如果轨道不为空,自动创建BGX_开头的空轨道,然后加入音效
-【时间线】如果当前播放头轨道为空,但空白长度不足以容纳加入音效时,自动创建空轨道

**我的模块
1. 所有已下载过的音效都可以在这里找到
2.音效卡片名称的右侧图标 依次是 [加入音效到时间线]  [给音效评级]  [置顶]  [删除]
3.右侧上方可以打开音效缓存目录 删除缓存不会影响到下载记录
4.如果本地缓存被清除 加入时间线是会自动从云端重新下载
5.Ctrl(windows)或者Command(Mac) ➕ 左右方向键 可以实现上一页下一页快速跳转
6.【特别提醒】删除本地缓存那么使用这些音效的项目也将失去连接,音效文件是物理删除!

**字幕模块
1.语音识别 只有在达芬奇最新的20以上的版本才能拉起软件内部的AI语音转字幕的功能(受客户端版本限制)
2.只有字幕列表有修改时保存字幕才能点击
3.保存字幕会产生缓存文件 会在时间线新增一条修改后的字幕轨道
4.保存替换规则 注册用户可以保存到本地 VIP用户可以保存到本地以及云端,VIP用户换了电脑登录规则依然有效!
5.规则修改后要手动点击保存
6.字幕替换规则为本地优先,本地没有规则会自动加载云端规则
7.字幕操作时,时间轴播放头会自动跳转到对应的位置
8.拖动播放头后打开字幕模块时 字幕加载的中间位置正好是播放头当前的位置

**阅读模块
1.帮助手册 会随着版本更新而修改
2.其他分类是更新日志和一些可靠的资源分享

**重启和刷新
1.目前没有特别的说明 只是为了开发调试保留的快捷按钮,软件成熟后可能会移除!


故事板 graph:全部场次与选集共用同一套持久化(无 __all__ 兜底)

目标(已确认)
  • 「全部场次 + 点场次」「选集 + 点同一场次」读写同一 storyboard_graph_state 键:(project_id, episode_id=剧集节点 id, chapter_id=场次节点 id)

  • 不需要兜底、不考虑历史兼容:可删除/收紧依赖 __all__ / STORYBOARD_SCOPE_ALL 的故事板前端路径;遗留库中仅 __all__ 键下的 graph 行可视为可丢弃(不迁移)。

  • 以项目最优解落地:单一解析函数 + 全链路同一 episodeId,避免双轨。

核心结论

推荐实现(最优、改动面收敛)

1. 单一「故事板剧集作用域」解析(前端)

新增小工具(例如 ui/src/domain/storyboardEpisodeScope.ts)或内联 useMemo

// 语义:显式选集 > App 传入的 chapter > 当前场次所属剧集
resolvedStoryboardEpisodeId =
  (activeChapterId?.trim() ||
    chapter?.id?.trim() ||
    activeScene?.chapter_id?.trim() ||
    "");
  • StoryboardTabsceneGraphEpisodeId 改为上述 resolvedStoryboardEpisodeId不再 || STORYBOARD_SCOPE_ALL)。

  • 无场次:不加载 graph(现有逻辑已处理)。

  • 有场次但 resolved 为空:视为数据损坏/孤儿场次 — 不兜底:toast 固定文案(如「场次未关联剧集,无法加载故事板画布」),loadStoryboardGraph / save 不调用;与「不要兼容」一致。

2. 与 graph 键一致的所有调用点(前端)

以下必须使用同一 resolvedStoryboardEpisodeId(从 StoryboardTab 下传或从 App 用相同公式计算,避免分叉):

位置

调整

[useStoryboardSceneGraph](d:/00Dev/bgxiong-ai-story/ui/src/components/storyboard/hooks/useStoryboardSceneGraph.ts)

load/save、cache scope、pendingepisodeId 均用解析结果;sceneGraphCacheScopeKey 中去掉对 STORYBOARD_SCOPE_ALL 的回退拼接(空 episode 时不生成 key 或与「无 scene」一致)

[useChapterSceneBoardGenerate](d:/00Dev/bgxiong-ai-story/ui/src/components/storyboard/hooks/useChapterSceneBoardGenerate.ts)

episodeScopeId / 刷新 graph 的 episodeId 与上一致

[useStoryboardCanvasActions](d:/00Dev/bgxiong-ai-story/ui/src/components/storyboard/hooks/useStoryboardCanvasActions.ts)

cleanupStoryboardGraphAfterSegmentDeleteepisodeScopeId 一致

StoryboardTabcompileClipFrameworkFromStoryboard

episodeId 参数一致

SceneI2iPadSelector chapterId

与垫图/场次上下文一致:传 resolvedStoryboardEpisodeId(若该组件语义为「剧集 id」)

App.tsx refreshStoryboardShots

loadOrderedStoryboardNodesUnderScene 第三参改为 activeChapter?.id ?? activeScene?.chapter_id ?? STORYBOARD_SCOPE_ALL 中的前两项优先;最优:抽共享 resolveEpisodeScopeForStoryboard(activeChapter, activeScene) 与 Tab 同式,删除STORYBOARD_SCOPE_ALL 的默认 — 无解析结果则传空并由 loadOrdered 短路或让 loadOrdered 要求必填

3. [sceneStoryboardChildNodes.ts](d:/00Dev/bgxiong-ai-story/ui/src/domain/sceneStoryboardChildNodes.ts)

  • 删除 episodeId 默认值 STORYBOARD_SCOPE_ALL;改为调用方必传 已解析 的剧集 id。

  • episodeId 为空:直接返回 []throw(二选一;推荐返回 [] + 上层 toast,避免未处理异常)。

4. 常量与类型清理

  • [storyboardGraph.ts](d:/00Dev/bgxiong-ai-story/ui/src/domain/storyboardGraph.ts)STORYBOARD_SCOPE_ALL 若仅故事板 graph 使用,可删除并全量替换;若 片段画布等仍用 __all__(见 [types.ts](d:/00Dev/bgxiong-ai-story/ui/src/components/segment-canvas/types.ts)App Clips),则保留常量故事板模块禁止再引用

  • [useStoryboardSceneGraph](d:/00Dev/bgxiong-ai-story/ui/src/components/storyboard/hooks/useStoryboardSceneGraph.ts):移除仅用于 __all__ 回退的 import/拼接。

5. 后端(可选收紧,与「无兜底」对齐)

  • [storyboard_graph::normalize_scope_id](d:/00Dev/bgxiong-ai-story/src-tauri/src/storyboard_graph.rs):对 load_storyboard_graph_state / upsert_storyboard_graph_state 的入口,若 trim 为空则 Err 而非写入/读取 __all__(需同步改 [commands/storyboard.rs](d:/00Dev/bgxiong-ai-story/src-tauri/src/commands/storyboard.rs) 三处 normalize_scope_id)。

  • 风险:仅当保证前端永远传非空剧集 id 时安全;否则 Tauri 命令会报错(符合「严格」)。

  • 文档注释:chapter_scene_board_pipeline.rs 1388 行附近 更新为「episode_scope_id 必须为剧集节点 id,与前端一致」。

6. 数据(不兼容策略)

  • 不编写迁移合并 __all__ → 真实剧集:旧行自然废弃。

  • 可选(本地开发):手动删 storyboard_graph_stateepisode_id='__all__' 的行;作为代码交付必选项。

验证

  • 选集 A → 选场次 S → 改画布 → 切「全部场次」→ 再点 S:布局与节点与选集时一致

  • 从未选集路径进入:仅点 S(activeScene.chapter_id 有值):同上。

  • 清除场次或孤儿场次:resolved 为空时行为符合预期(不静默读 __all__)。

实施任务清单

  1. 引入 resolvedStoryboardEpisodeId 解析并接入 StoryboardTab + 所有子 hook / API 参数。

  2. 更新 App.refreshStoryboardShotssceneStoryboardChildNodes(去默认 __all__)。

  3. 删除故事板路径上对 STORYBOARD_SCOPE_ALL 的依赖;保留或收缩常量定义。

  4. (可选)后端 normalize_scope_id 对空串改为 Err + cargo check

  5. 手动回归两条路径 + npm run build / 相关 ReadLints

项目故事板生成逻辑

##不要把故事板看作一张图,要看作一个数据库对象。每一个面板(Panel)应包含以下字段:
镜头ID: (如 Scene 1, Shot A)
景别 (Shot Size): 特写、中景、全景(影响相机焦距逻辑)。
角度 (Angle): 平拍、仰拍、俯拍、主观视角。
运动 (Movement): 推、拉、摇、移、跟。
内容描述 (Action): 画面里发生了什么。
对白 (Dialogue): 关联的剧本行。

##三层逻辑架构设计
#第一层:剧本解析层 (Parsing Layer)
逻辑: 自动将剧本中的“动作行”拆解为可能的镜头。
设计: 利用 LLM 识别剧本中的关键词。例如识别到“大熊愤怒地拍桌子”,工具应自动建议一个“中景/仰拍”的镜头。
工具功能: 一键生镜。
#第二层:空间映射层 (Spatial Mapping)
逻辑: 确定角色与相机的相对位置。
设计: 引入**“平面示意图(Floor Plan)”**逻辑。用户在 2D 平面上放置相机和人(类似小地图),系统自动计算出 3D 视角下的透视关系。
工具功能: 相机位移参数化。
#第三层:视觉生成层 (Visual Generation)
逻辑: 将结构化数据转化为图像。
设计: 结合 Stable Diffusion 或类似模型。
关键点: 必须支持角色一致性(Character Consistency)和场景一致性。
控制: 使用 ControlNet(深度图/骨架图)来精准控制角色的动作,而不是盲目生成。

##给 AI 提示词生成的“逻辑链”
如果你要写一个后端逻辑来生成这些绘图 Prompt,逻辑应该是:
[风格定义] + [镜头参数] + [主体动作] + [光影氛围] + [构图约束]
例子: 电影感故事板, 诺兰风格, [中景, 仰拍], 男主角在雨中奔跑, [强烈的侧逆光, 蓝调], 遵循三分法构图

##工具功能模块建议
模块设计逻辑价值镜头连续性检查检查相邻镜头的“轴线”是否跳轴(180度法则)。避免低级导演错误。
资产库联动允许用户上传自己的摄影机参数(如你常用的 Canon/Sony 传感器尺寸)。渲染出的透视与实拍一致。
自动测算时长根据对白字数和动作描述,预估该镜头在成片中的秒数。
自动生成初步的“动态分镜(Animatic)”。
导出集成直接导出为 EDL/XML 导入 DaVinci Resolve。真正打通后期流程。

##设计目标
不要做一个单纯的“绘图软件”,要做一个**“剧本到画面的逻辑编译器”**。
用户输入剧本,你输出镜头清单和对应的 AI 生成图
最后能结合提示词单独作为独立镜头的参考图使用
故事板 (Storyboard) —— 镜头组层(等同于“场次”)
逻辑建议: 故事板 = 场次的具体表现。
设计: 每一个故事板对象应该对应一个具体的场次(如:场景01-花果山山顶-日)。
内容: 它是镜头的集合。你在这个场次下,根据剧本逻辑拆解出 10 个镜头。

有改名字需求的朋友可以...

到官网去改 https://www.bgxiong.com/user/profile
后期我会把这修改资料加入到客户端
再等等...

在尝试找到把SRT转TEXT+的途径

达芬奇API的某些限制,
让现阶段做动态字幕有点困难!

比格熊v1.2.9马上发布 新功能已调色完毕

### 🆕 新功能
**音效卡片拖拽添加**
- SFX 模块和 Mine 模块均支持拖拽音效卡片到时间轴
- 鼠标按下:抓取手型 + 绿色边框 + 音效名称变绿
- 拖拽出插件窗口外释放:自动添加到达芬奇时间轴
- 使用 Pointer Events (`setPointerCapture`) 技术,支持鼠标移出窗口仍能拖拽
- 拖拽预览标签跟随鼠标,拖出窗口时变亮绿色提示
**搜索框自动聚焦**
- 进入音效模块时,搜索框自动获取焦点,可直接输入搜索
### 🔧 技术改进
**Pointer Events 实现**
- 替换传统的 mouse 事件为 pointer 事件
- `pointerdown` + `setPointerCapture` 捕获指针
- `pointermove``pointerup` 处理拖拽和释放
- 解决鼠标移出 Electron 窗口后事件丢失的问题
**拖拽状态管理**
- 统一的 `dragState` 全局状态管理
- `cleanupDragState()` 统一清理样式和状态
- 支持 `pointerId` 追踪和释放
### 🎨 样式优化
- 波形图自适应卡片宽度
- 卡片内边距优化(padding: 6px 5px)
- 波形图边距统一(margin: 2px 2px 0 0)
### 📝 文件变更
**修改文件**
- `renderer.js` - SFX 模块拖拽功能、搜索框聚焦
- `modules/mine/renderer.js` - Mine 模块拖拽功能
- `css/styles.css` - 波形图和卡片样式

置顶 【激活码】20260325新鲜热乎的尝鲜

我这分批放出激活码是为了缓解服务器压力
这是尝鲜测试用激活码不具备长期有效期
J28D-VBZW-44YE-REGJ                             Y8L3-XKU2-U5F4-K6BN
TQ3R-WQVM-6ZTQ-NGG9                         R59Y-JNDL-22S5-QTMT
8LK9-RTTW-2SDM-RSY3                            VLQD-CXVC-69FB-AFJS
83HZ-25DF-562V-Y3DD                              7Q8J-9KRR-5HMD-7BL3
ENMG-GLJM-BU77-7B3J                           SVAQ-PR6P-QH58-HMHT
FAEP-CWME-GEPQ-9RX7

基于 Rust + WebGPU 的技术栈是目前高性能跨平台开发(Native + Web)的最前沿方案。

基于 Rust + WebGPU 的技术栈是目前高性能跨平台开发(Native + Web)的最前沿方案。对于追求性能和系统稳定性的开发者来说,这套组合几乎是“终极形态”。

以下是这套技术栈的核心构成及入门路径:


1. 核心架构:wgpu 生态

在 Rust 社区中,wgpu 是 WebGPU 规范的旗舰级实现。它不仅能让代码运行在浏览器中,还能直接调用 Windows (Direct3D 12)、macOS (Metal) 和 Linux (Vulkan) 的原生驱动。

  • wgpu-rs (核心库): 提供安全的 Rust 绑定。

  • WGSL (WebGPU Shading Language): 官方指定的着色器语言,语法类似 Rust,易于上手,且避开了 GLSL 的历史包袱。

  • naga (着色器翻译器): 负责将 WGSL 翻译为底层 API 能理解的指令。

2. 为什么选择 Rust + WebGPU?

这套方案之所以强大,是因为它解决了两个痛点:内存安全跨平台统一性

3. 入门技术栈建议

如果你准备从零开始构建一个高性能工具(例如 AI 图像处理或视频滤镜引擎),可以参考以下配置:

  • UI 层: eguiiced。这两个库在 Rust 生态中非常流行,且都完美支持 wgpu 后端,适合快速构建跨平台工具界面。

  • 窗口管理: winit。这是 Rust 处理窗口、输入事件的事实标准。

  • 数学运算: nalgebraglam。后者专门为图形学优化,性能极佳。

  • Web 部署: wasm-bindgen。将你的 Rust 逻辑打包成 WebAssembly。

4. 关键应用场景:AI 推理与视频处理

对于本地 AI 推理,你可以利用 WebGPU 的计算着色器 (Compute Shader) 直接对张量进行并行运算。

  • 模型转换: 将模型权重的二进制数据映射到 GPU 的 Storage Buffer

  • 并行计算: 在 WGSL 中编写计算内核(Kernel),实现类似矩阵乘法 (GEMM) 的操作。

  • 零拷贝: 借助 Rust 的高效内存布局,减少 CPU 与 GPU 之间的数据交换延迟。


快速开始建议

  1. 环境配置: 确保 Rust 环境已更新,安装 cargo

  2. 克隆 Demo: 到 GitHub 搜索 gfx-rs/wgpu 仓库,查看其 examples 文件夹。里面有从简单的三角形渲染到复杂的计算着色器应用。

  3. 学习 WGSL: 如果你熟悉 Rust,你会发现 WGSL 的语法非常亲切。

小贴士: 由于你可能处理大量资源或追求极高性能,建议在开发时开启 wgpu 的验证层(Validation Layers),它能帮你捕捉到 90% 以上的非法显存访问错误。

WebGPU 技术了解一下

到 2026 年,WebGPU 已经正式告别了“试验田”阶段,成为了 Web 高性能计算和图形渲染的绝对标准

如果说 WebGL 是在浏览器里“画图”,那么 WebGPU 则是在浏览器里“直接操控 GPU”。

以下是 WebGPU 当前发展的关键维度:

1. 核心生态:从“尝鲜”转向“默认”

WebGPU 1.0 在 2023 年发布后,经历了两年的高速迭代。

  • 引擎全面转向: Three.jsBabylon.js 等主流 Web 图形引擎已经将 WebGPU 作为首选后端。相比 WebGL,WebGPU 在处理复杂场景(如数万个独立对象的渲染)时,CPU 开销降低了约 80%。

  • 原生级性能: 借助 WebAssembly (Wasm) 和 WebGPU 的深度集成,现在的 Web 应用可以实现接近原生桌面软件的图形表现。这使得云端视频剪辑、高级调色工具和复杂的 3D 设计软件(如 Web 版 CAD)在性能上几乎没有短板。

2. AI 浪潮下的“杀手锏”:计算着色器 (Compute Shaders)

WebGPU 与 WebGL 最大的区别在于其强大的通用计算能力

  • 端侧 AI (On-device AI): 这是 WebGPU 发展最迅猛的领域。由于其提供了对现代 GPU 特性(如共享内存、原子操作)的访问,诸如 WebLLMTransformers.js 等项目可以让大语言模型(LLM)和 Stable Diffusion 直接在用户的本地 GPU 上运行,无需上传数据到服务器。

  • 视频处理加速: 对于视频后期从业者而言,WebGPU 允许在浏览器内进行实时的 4K 视频滤镜处理、AI 降噪和自动抠图,其效率是传统 JavaScript 或 WebGL 无法比拟的。

3. 浏览器与硬件兼容性

  • 多端统一: 截至 2026 年,Chrome、Edge、Safari 和 Firefox 的稳定版均已全面支持 WebGPU。它在底层完美映射了系统的原生 API(如 Windows 的 Direct3D 12、macOS 的 Metal、Linux 的 Vulkan)。

  • 移动端爆发: 随着高性能移动芯片的普及,手机端的 WebGPU 支持也已趋于成熟,网页端手游的品质已经开始向主机级画质靠拢。

4. 技术特性演进

  • FP16 与精度优化: 现在的 WebGPU 已经广泛支持 半精度浮点数 (FP16),这对 AI 推理至关重要,能在减少显存占用的同时提升一倍的运算速度。

  • 子组操作 (Subgroups): 这一高级特性的加入,使得开发者可以更精细地控制 GPU 线程间的通信,进一步压榨硬件性能。


总结:对开发者的影响

对于开发者(尤其是熟悉 RustC++ 这种底层语言的人)来说,WebGPU 极大地拓宽了 Web 的边界。你不再受限于简单的网页交互,而是可以直接开发高性能的跨平台桌面应用(通过 Electron 加速)或高性能的 Web AI 工具。