跳至主要內容
使用 n8n 构建 Telegram 个人助手

使用 n8n 构建 Telegram 个人助手

  • 什么是 n8n 以及如何使用 n8n
  • 创建 Telegram 机器人
  • 在 n8n 中设置 Telegram 触发器
  • 完整的工作流

Liz大约 4 分钟LLMn8ntelegram bot
AI Code Editor 源码解读

AI Code Editor 源码解读

  • Void AI Code Editor 介绍
  • 源码整体逻辑
  • 核心功能源码细节

Liz大约 26 分钟LLMSource CodeAI Code EditorVoidCursor
MCP 技术解读

MCP 技术解读

  • MCP概念、演进与意义
  • MCP架构、核心组件与功能类型
  • MCP Client 与 MCP Server
  • 不同角色使用 MCP 的方式和逻辑

Liz大约 13 分钟LLMMCP
EasyR1 + Verl + Ray + QwenVL + GRPO

EasyR1 + Verl + Ray + QwenVL + GRPO

  • 背景介绍
  • GRPO 四个主要步骤
  • 采用 EasyR1 的 GRPO 训练代码实现
  • 实操记录 GRPO 训练细节

Liz大约 6 分钟LLMEasyR1VerlRayQwenVLGRPO
SFTTrainer 源码解读: Prepare Train

SFTTrainer 源码解读: Prepare Train

  • Prepare Train 总体逻辑
  • Prepare Train 代码细节
    • _inner_training_loop
    • training_step
    • compute_loss
    • PeftModelForCausalLM.forward
    • Linear4bit.forward

Liz大约 5 分钟LLMSFTTrainerSource CodePrepare Train
SFTTrainer 源码解读: Prepare Dataset

SFTTrainer 源码解读: Prepare Dataset

  • Prepare Dataset 总体逻辑
  • Prepare Dataset 代码细节
    • SFTTrainer.init
    • DataCollatorForLanguageModeling
    • _prepare_dataset

Liz大约 4 分钟LLMSFTTrainerSource CodePrepare Dataset
SFTTrainer 源码解读: Prepare Model

SFTTrainer 源码解读: Prepare Model

  • Prepare Model 总体逻辑
  • Prepare Model 代码细节
    • _prepare_peft_model
    • PeftModelForCausalLM.init
    • PeftModel.init
    • LoraModel.init
    • Linear4bit.init
    • LoraLayer.init(self, base_layer)

Liz大约 6 分钟LLMSFTTrainerSource CodePrepare Model
QLoRA 代码实现及过程分析

QLoRA 代码实现及过程分析

  • 背景介绍: QLoRA/基础模型/数据集
  • QLoRA 代码实现
  • QLoRA 过程分析
  • QLoRA 应用价值
  • QLoRA 疑点思考
  • QLoRA 细节补充

Liz大约 16 分钟LLMQLoRA