- 昨日不在
- 3/10深度学习轻量级可视化工具wandb
- 3/8GRPO + Unsloth + vLLM
- 3/6分布式训练之五:GPU入门
- 3/4分布式训练之四:并行策略
- 3/2分布式训练之三:数据并行 Data Parallelism
- 2/28分布式训练之二:并行编程 Parallel Programming
- 2/26分布式训练之一:模型训练的内存占用
- 2/24Langchain and LLamaindex Integration
- 2/22LlamaIndex + GraphRAG + Ollama + Neo4j
- 2/20微软GraphRAG源码解读
- 2/19图数据库 Neo4j
- 2/14Ollama操作指南
- 2/12Hugging Face and Transformers
- 11/12Agent与MultiAgent
- 11/8多模态大模型
- 11/5微调
- 11/2优化LLM的最佳实践(提示工程、RAG和微调)
- 11/2RAG评估指标
- 11/1向量数据库与相似性搜索
- 11/1提示工程 Prompt Engineering
- 10/31RAG技术的应用落地挑战
- 10/31大模型的商业化落地挑战
- 10/31RAG工作流与RAG优化
- 10/30Claude 3.5 Sonnet: Computer use
- 6/20LLM排行榜平台
- 6/1Llama源码解读
- 5/24Transformer源码解读
- 2/21使用Streamlit构建对话式应用程序
- 1/29从源码视角,窥探LangChain的运行逻辑
- 1/28LangChain:使用大语言模型构建强大的应用程序