大语言模型
Mac本地RAG文档问答——Llama2 & ChatGLM3(量化版) & Ollama

过去文档检索的基本技术框架,中间每一步都有相当的技术复杂度,过去只有大厂在有巨大需求的场景去实现这样的能力。但是LLM的出现,让文档检索这件事情的门槛骤然降低,用向量数据库就可以轻松构建自己的文档检索系统,结合LLM的对话生成能力,真正实现文档问答的能力。

Mac本地RAG文档问答——Llama2 & ChatGLM3(量化版) & Ollama
面向开发者的提示工程

之前写过《面向使用者的提示工程》,主要是面向普通用户,在日常使用大语言模型聊天或对话的时候应该如何书写提示词,来改善大模型输出的效果。而本篇主要是面向开发者,介绍在开发 RAG 类基于大模型的应用时应该如何优化和改善提示词,针对特定任务构造能充分发挥大模型能力的 Prompt 的技巧

面向开发者的提示工程
读《面向大语言模型的检索增强生成技术:综述》笔记整理

在这篇综述中,我们关注的是面向大语言模型(Large Language Model)的检索增强生成技术。这项技术通过结合检索机制,增强了大语言模型在处理复杂查询和生成更准确信息方面的能力。大语言模型 (大语言模型,LLMs) 虽展现出强大能力,但在实际应用中,例如在准确性、知识更新速度和答案透明度方面,仍存在挑战。检索增强生成 (Retrieval-Augmented Generation, RAG) 是指在利用大语言模型回答问题之前,先从外部知识库检索相关信息。RAG 被证明能显著提升答案的准确性,并特别是在知识密集型任务上减少模型的错误输出。通过引用信息来源,用户可以核实答案的准确性,从而增强对模型输出的信任。

读《面向大语言模型的检索增强生成技术:综述》笔记整理
读《通向AGI之路:大型语言模型(LLM)技术精要》笔记整理

ChatGPT出现后惊喜或惊醒了很多人。惊喜是因为没想到大型语言模型(LLM,Large Language Model)效果能好成这样;惊醒是顿悟到我们对LLM的认知及发展理念,距离世界最先进的想法,差得有点远。本文试图回答下面一些问题:ChatGPT是否带来了NLP乃至AI领域的研究范式转换?如果是,那会带来怎样的影响?LLM从海量数据中学到了什么知识?LLM又是如何存取这些知识的?随着LLM规模逐步增大,会带来什么影响?什么是In Context Learning?为什么它是一项很神秘的技术?它和Instruct又是什么关系?LLM具备推理能力吗?思维链CoT又是怎么做的?等等,相信看完,能让您对这些问题有一个答案。

读《通向AGI之路:大型语言模型(LLM)技术精要》笔记整理
面向使用者的提示工程

自ChatGPT发布以来,如何有效的与大语言模型沟通是一个随之而来的问题,这方面的研究也是雨后春笋般的出现,本文整理了一些常用的Prompt编写原则和方法,仅供参考学习。

面向使用者的提示工程
AI绘画Stable Diffusion上手

截止到目前,AI绘画领域比较主流的还是Midjourney和Stable Diffusion,但目前Midjourney已经没有免费的使用额度,而Stable Diffusion则是完全免费开源,并且其可扩展性很强;除了可以部署在各种平台上还能,还能更换模型创作不同风格的化作。

AI绘画Stable Diffusion上手