OpenClaw+Kimi-VL-A3B-Thinking自动化办公:飞书机器人实现图文周报生成

张开发
2026/4/4 3:00:50 15 分钟阅读
OpenClaw+Kimi-VL-A3B-Thinking自动化办公:飞书机器人实现图文周报生成
OpenClawKimi-VL-A3B-Thinking自动化办公飞书机器人实现图文周报生成1. 为什么选择这个方案每周五下午我都会面临同样的困扰需要从十几个工作群聊、邮件和本地文件中整理出本周工作内容手动截图关键数据再拼凑成一份图文并茂的周报。这个过程通常要花费1-2小时直到我发现了OpenClawKimi-VL-A3B-Thinking这个组合。OpenClaw的本地自动化能力让我可以自动收集飞书群聊中的关键消息截取本地数据分析工具中的图表调用多模态模型理解图片内容最终生成格式统一的周报草稿而Kimi-VL-A3B-Thinking作为多模态模型能够同时处理文本和图像信息完美匹配周报制作这个典型的多模态任务场景。2. 环境准备与基础配置2.1 OpenClaw的安装与初始化在MacBook Pro上我选择官方推荐的一键安装方式curl -fsSL https://openclaw.ai/install.sh | bash openclaw onboard --install-daemon安装完成后我选择了Advanced配置模式因为需要自定义模型接入。关键配置项包括Provider选择Custom后续手动配置Kimi-VL-A3B-Thinking启用飞书通道提前在飞书开放平台创建了自建应用安装基础技能包office-automation2.2 接入Kimi-VL-A3B-Thinking模型由于Kimi-VL-A3B-Thinking使用vllm部署我修改了OpenClaw的配置文件~/.openclaw/openclaw.json{ models: { providers: { kimi-vl: { baseUrl: http://localhost:8000/v1, // vllm默认端口 apiKey: sk-no-key-required, // 本地部署可不填 api: openai-completions, models: [ { id: kimi-vl-a3b, name: Kimi-VL-A3B-Thinking, contextWindow: 128000, maxTokens: 4096 } ] } } } }配置完成后通过命令验证模型连接openclaw gateway restart openclaw models list2.3 飞书机器人配置飞书通道的配置相对复杂需要特别注意以下几点在飞书开放平台创建企业自建应用获取App ID和App Secret配置权限时务必勾选接收消息和发送消息IP白名单需要添加运行OpenClaw的服务器的公网IP最终配置文件补充如下内容{ channels: { feishu: { enabled: true, appId: cli_xxxxxx, appSecret: xxxxxxxx, connectionMode: websocket } } }3. 周报自动化实现过程3.1 工作流程设计整个自动化流程分为四个阶段数据收集阶段OpenClaw自动截取Jira看板、GitHub贡献图和Slack重要对话内容理解阶段Kimi-VL-A3B-Thinking分析截图内容提取关键信息报告生成阶段模型根据提取的信息生成结构化周报交付阶段通过飞书机器人将周报发送到指定群聊3.2 关键技能实现我开发了一个自定义Skillweekly-report核心功能包括# 截图处理模块 def capture_and_analyze(screenshot_path): # 调用OpenClaw的截图API openclaw.capture_screen(regionauto, outputscreenshot_path) # 调用Kimi-VL模型分析图片 response openclaw.models.query( modelkimi-vl-a3b, messages[ {role: user, content: f分析这张工作周报截图:{screenshot_path}} ], max_tokens2000 ) return response[choices][0][message][content] # 周报生成模块 def generate_report(analysis_results): prompt 根据以下工作内容分析生成一份专业的技术周报 - 使用Markdown格式 - 包含本周成果、问题与解决、下周计划三部分 - 重点突出技术难点和解决方案 分析内容{analysis} report openclaw.models.query( modelkimi-vl-a3b, messages[ {role: user, content: prompt.format(analysisanalysis_results)} ], max_tokens3000 ) return report[choices][0][message][content]3.3 飞书集成实现通过OpenClaw的飞书插件实现了消息自动发送功能def send_to_feishu(report_content, chat_id): feishu openclaw.channels.feishu message_id feishu.send_message( chat_idchat_id, msg_typeinteractive, content{ header: {title: 技术周报自动生成}, elements: [ {tag: markdown, content: report_content}, {tag: hr}, {tag: note, elements: [{tag: text, content: 本消息由OpenClaw自动生成}]} ] } ) return message_id4. 实际效果与优化经验4.1 运行效果展示每周五下午3点系统会自动截取我设定的5个关键数据源生成包含3-5个数据分析图表的周报通过飞书发送到技术团队群从截图到周报发送完成整个过程约6-8分钟比手动操作节省85%的时间。周报质量方面模型能够准确识别截图中的燃尽图和代码提交趋势合理归纳技术讨论要点生成专业的技术术语描述4.2 遇到的坑与解决方案问题1截图区域识别不准初期使用自动截图时经常截到无关区域。解决方案是在关键应用窗口添加data-clawd-region属性使用CSS选择器精确定位截图区域问题2多模态理解偏差模型有时会误解图表坐标轴含义。通过以下方式改善在截图时自动添加辅助标注文字在prompt中明确说明图表类型和关键指标问题3飞书消息格式限制飞书对交互式消息有严格限制。最终采用分片发送策略将长报告拆分为多个消息卡片每个卡片包含部分内容和查看更多按钮通过消息ID关联整个报告5. 安全与性能考量5.1 数据安全措施由于处理的是工作数据我特别关注以下几点所有截图和中间数据都保存在本地飞书API调用使用最小必要权限敏感关键词过滤如客户名称、内部代号每周自动清理历史数据5.2 性能优化技巧经过几周的运行总结出以下优化经验使用async/await并行处理多个截图分析任务对模型响应实现本地缓存避免重复分析相同内容设置合理的超时时间截图5秒模型分析120秒监控Token使用量避免意外消耗获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

更多文章