LibTV:首款人+Agent双视角AI视频创作平台
传统AI视频工具往往仅聚焦于内容生成本身,而LibTV提出了一个全新的设计理念:将人类创作者与AI智能体(Agent)置于同等地位,提供“手动”与“自动”两种并行的创作范式。

这一设计在AI创作社区引发了广泛关注。其核心在于,它并非单一的生成工具,而是一个整合了无限画布、节点式工作流与丰富专业功能的一站式创作环境。
无限画布:从构思到成片的一站式工作台
对于追求精细控制的创作者而言,LibTV提供了一个以“无限画布”为核心的可视化创作空间。

创作逻辑围绕基础节点展开。用户可在画布上自由放置文本、图片、视频、音频、脚本五种基础节点。节点间可相互连接,上游节点的输出可直接作为下游节点的输入,从而构建出个性化的创作流水线。

以制作一款木质调香水广告为例。首先,通过一个图片节点生成香水瓶包装设计。该节点支持上传参考图或直接输入提示词(Prompt)进行生成,并提供丰富的参数设置,包括风格参考、分辨率、比例、生成数量,并可选用多种主流图像模型。


值得一提的是,其图像生成器内置了专业的摄像机控制功能,允许用户选择相机类型、镜头、调节焦距与光圈。

生成初步方案后,可在同一画布内利用内置工具进行精细化处理,如图像高清化、智能扩图、局部重绘、擦除、抠图等。

更进阶的功能还包括多角度生成与打光调节。

所有编辑操作均会以衍生新节点的形式呈现,不会覆盖原始素材,确保了创作过程的非破坏性与可回溯性。

此外,“标记融合”功能允许用户精准选取不同图片中的元素进行组合生成,例如将图A中的人手与图B中的香水瓶结合。

LibTV集成了超过20项专业功能,其中不乏特色工具。通过快捷键“/”可调出功能面板,例如剧情推演四宫格,能基于前序内容自动构思并生成连贯的场景分镜。


生成的静态分镜可一键切分为独立图片,并直接连接至视频节点,转化为动态视频片段。
对于故事短片创作,专用的“脚本节点”支持三种模式生成分镜脚本:基于剧本生成、基于参考视频生成、基于角色生成。脚本生成后,可进一步批量生成对应的分镜图像,并一键转换为动态视频分镜。



整个创作流程——从人物设定(文本节点)、场景构建(图片节点)到视频剪辑(视频节点)和背景音乐(音频节点)——均可平铺于同一块无限画布之上,避免了在不同软件间频繁切换与素材搬运的繁琐。

完成的工作流可以“打组”保存为模板,添加到个人工具箱中。未来进行类似项目时,只需替换核心素材,即可快速复用整个创作流程,极大提升效率。

Agent协同:“一句话”自动生成视频
除了强大的手动创作模式,LibTV的另一大亮点是深度集成了AI智能体(Agent)协作能力。用户只需对接入LibTV Skill的智能体(如各类AI助手)下达简单的文本指令,即可启动全自动视频创作流程。

例如,指令“制作一个龟兔赛跑的短片”,智能体便会自动调用LibTV的各项能力,完成包括剧情理解、风格设定、分镜设计、内容生成与合成在内的全部工作,最终将成片视频与完整的项目画布链接返回给用户。
自动生成的视频在剧情完整性与节奏上已有不错表现。更重要的是,用户可通过返回的项目画布链接,详细查看AI智能体在后台构建的整个节点工作流,实现了创作过程的透明化与可追溯。
这种“双视角”设计,既满足了专业创作者对可控性与深度的需求,也为追求效率的用户提供了“一键成片”的轻量化选择,重新定义了AI视频创作的协作边界。
之前我们自行设计视频创作工作流时,需要涵盖剧本、角色视图、分镜和配乐等多个环节。现在,这一整套流程都已在平台内实现。

与纯手动操作相比,AI初始生成的画布布局可能略显杂乱。我们可以先对其进行整理和排版。

平台接受任务后,首先进行剧本创作,并基于剧本生成了“兔子”和“乌龟”两个动画角色的主视图、侧视图以及六个分镜。

这些角色视图和分镜被组合成长视频,再与自动生成的配乐进行剪辑,最终合成成片。

此外,平台设计非常人性化。如果对AI生成的视频效果不满意,用户可以手动编辑工作流中的任何一个节点,然后重新生成。

这种高度自动化的视频制作流程,极大地提升了创作效率。
了解效果后,接下来介绍如何为你的智能体(Agent)赋予相同的视频创作能力。
操作非常简单,只需两步:安装 LibTV Skill 并配置访问密钥。
第一步:安装 LibTV Skill
有两种安装方法:
1. 通过终端命令安装:
执行以下命令进行一键安装:
bash
npx skills add libtv-labs/libtv-skills —skill libtv-skill

安装完成后,可通过 openclaw skills list 命令检查。若在 Skill 列表中出现 LibTV,即代表安装成功。

- 通过文件安装:
访问 ClawHub 平台的 LibTV API Skills 页面,下载 Skill 文件,解压到对应目录后即可调用。

第二步:配置访问密钥
安装 Skill 后,需要前往 LibTV 官网获取 Access Key。
获取密钥后,可通过以下方式配置:
* 设置环境变量:
bash
export LIBTV_ACCESS_KEY="your-access-key"
* 或在 OpenClaw 网关中直接填写。

为求简便,你也可以直接将 Access Key 提供给智能体,由其自行完成配置。
至此,你的智能体已具备视频编导能力,可以开始创作了。
除了根据一句话生成动画剧集,你还可以提供参考图像,例如让智能体为图片中的蛋糕创作一段广告视频。
等待约5分钟后:成片与可操作画布便已就绪。
智能体作为“编导”的能力已准备就绪。
技术背景与优势
一个随之而来的问题是:LibTV 为何能率先实现这种融合“人类操作”与“智能体协作”双入口、并集成多种独特功能的产品形态?
这背后是团队在多模态视觉创作领域长期积累的结果。
深厚的创作者生态积累
LiblibAI 始终专注于服务创作者。从早期的图像生成与风格模型训练,到如今对智能体与画布类工具的打磨,团队核心命题一直是:如何让创作者在真实工作流中有效利用日益强大的模型能力。
经过三年发展,其平台已成为中国最大的多模态模型与创作社区之一,拥有超过2000万创作者和超10万款原创风格模型。这个庞大的社区构成了产品最直接的反馈与校准系统。
前瞻性的产品形态探索
在新产品形态的探索上,团队一直走在前面。例如,在2025年率先于设计领域推出了垂直智能体产品“星流”,提前完成了大量关于智能体交互、能力编排与用户协作的技术验证与实践。因此,LibTV 并非突然接入智能体能力,而是将已验证的成熟范式引入视频创作场景。
强大的合作与资源整合
LibTV 能够集成顶级的图像、视频、音频生成模型,得益于团队过去几年与众多模型厂商、云计算平台及算力服务商建立的深度合作关系。
具有竞争力的定价策略
在定价上,LibTV 也展现出优势,例如提供大幅度的年卡折扣、模型积分优惠,并为订阅用户赠送高额度的视频生成配额。
“人机协同”的产品设计哲学
LibTV 在产品设计之初就设立了双入口:面向人类的无限画布与面向智能体的 Skill 接口。这使得人类、智能体与社区三者能够各司其职——人类负责审美与决策,智能体负责执行与扩展,社区负责生态流转与进化。创作的核心价值,最终仍落脚于人类创作者的深度参与与独特判断。
关注“鲸栖”小程序,掌握最新AI资讯
本文来自网络搜集,不代表鲸林向海立场,如有侵权,联系删除。转载请注明出处:http://www.itsolotime.com/archives/26673


