嘘~ 正在从服务器偷取页面 . . .

  我的梦想
不是每个人都应该像我这样去建造一座水晶大教堂,但是每个人都应该拥有自己的梦想,设计自己的梦想,追求自己的梦想,实现自己的梦想。梦想是生命的灵魂,是心灵的灯塔,是引导人走向成功的信仰。有了崇高的梦想,只要矢志不渝地追求,梦想就会成为现实,奋斗就会变成壮举,生命就会创造奇迹。——罗伯·舒乐
  推荐文章
博客搭建教程

hexo+github+Netlify+ClouldFlare搭建个人博客

这个教程使用的个人博客框架是hexo,博客文件拖管于github,博客网站用netlify生成,国内访问采用Cloudflare进行CDN加速。

阅读更多
AI大模型应用开发

【AI大模型应用学习笔记】基于LLaMA-Factory的LlaMa3.2-1b模型微调弱智吧数据集全流程

基于LLaMA-Factory模型微调框架,使用Unichat-llama3.2-Chinese-1B 和 弱智吧数据集 来进行模型微调训练、评估、量化、导出实现全过程

阅读更多
AI大模型应用开发

【AI大模型应用学习笔记】基于LlamaIndex实现RAG

介绍LlamaIndex核心组件,以及使用LlamaIndex简单实现RAG系统

阅读更多
AI大模型应用开发

【AI大模型应用学习笔记】RAG-Embedding-Vector知识点学习

关于RAG-Embedding-Vector知识点,以及RAG实现的基本流程实操记录

阅读更多
AI大模型开发项目实战

【项目实战】大模型微调-情绪对话模型

实战微调一个情绪对话模型项目,包含数据收集处理、模型选型、模型训练评估、以及模型部署全流程

阅读更多
【项目实战】大模型微调-情绪对话模型 【项目实战】大模型微调-情绪对话模型
实战微调一个情绪对话模型项目,包含数据收集处理、模型选型、模型训练评估、以及模型部署全流程
【AI大模型应用学习笔记】基于LlamaIndex实现RAG 【AI大模型应用学习笔记】基于LlamaIndex实现RAG
介绍LlamaIndex核心组件,以及使用LlamaIndex简单实现RAG系统
【AI大模型应用学习笔记】基于LLaMA-Factory的LlaMa3.2-1b模型微调弱智吧数据集全流程 【AI大模型应用学习笔记】基于LLaMA-Factory的LlaMa3.2-1b模型微调弱智吧数据集全流程
基于LLaMA-Factory模型微调框架,使用Unichat-llama3.2-Chinese-1B 和 弱智吧数据集 来进行模型微调训练、评估、量化、导出实现全过程
【AI大模型应用学习笔记】Ollama调用本地模型 【AI大模型应用学习笔记】Ollama调用本地模型
Linux安装Ollama安装命令:curl -fsSL https://ollama.com/install.sh | sh 如果下载速度很慢,可以开启学术加速 开启学术加速:source /etc/network_turbo 取消学
【AI大模型应用学习笔记】LLaMa3微调 【AI大模型应用学习笔记】LLaMa3微调
LLaMa3微调LoRA基本概念LoRA(Low-Rank Adaptation)是一种用于大模型微调的技术,通过引入低秩矩阵来减少微调时的参数量。在预训练的模型中,LoRA通过添加两个小矩阵B和A来近似原始的大矩阵ΔW,从而减少需要更新的
WIN11+WSL2+Ubuntu22.04+CUDA+ANACONDA3+Pytorch安装总结 WIN11+WSL2+Ubuntu22.04+CUDA+ANACONDA3+Pytorch安装总结
关于在win11系统下,使用WSL2来安装Ubuntu22.04系统来配套安装深度学习框架,来进行AI大模型应用开发学习
2025-04-17
hexo+github+Netlify+ClouldFlare搭建个人博客 hexo+github+Netlify+ClouldFlare搭建个人博客
这个教程使用的个人博客框架是hexo,博客文件拖管于github,博客网站用netlify生成,国内访问采用Cloudflare进行CDN加速。