《纳瓦尔宝典》

在过去十年里,纳瓦尔通过推特、博客和播客等方式分享了他的人生智慧,分享如何不靠运气取得成功、如何利用专长和杠杆获得财富以及他的幸福哲学等内容,他的分享在网络上掀起了讨论热潮,受到大量网友的热爱和追捧。纳瓦尔不仅告诉了我们怎样致富,还告诉了我们怎样看待人生,怎样获得幸福。他对财富、人生的思考将帮助你走上自己独特的人生道路,过上更富有、更幸福的生活。

《纳瓦尔宝典》
Mac本地RAG文档问答——Llama2 & ChatGLM3(量化版) & Ollama

过去文档检索的基本技术框架,中间每一步都有相当的技术复杂度,过去只有大厂在有巨大需求的场景去实现这样的能力。但是LLM的出现,让文档检索这件事情的门槛骤然降低,用向量数据库就可以轻松构建自己的文档检索系统,结合LLM的对话生成能力,真正实现文档问答的能力。

Mac本地RAG文档问答——Llama2 & ChatGLM3(量化版) & Ollama
《娱乐至死》

有两种方法可以让文化精神枯萎,一种是奥威尔式的——文化成为一个监狱,另一种是赫胥黎式的——文化成为一场滑稽戏。 ——尼尔·波兹曼 《娱乐至死》初版于1985年,是尼尔·波兹曼的代表作之一。

《娱乐至死》
Transformer温习整理

Transformer 是由谷歌于 2017 年在 Attention Is All You Need 中首次提出。Transformer的提出在很大程度上改变了自然语言处理领域的局面,取代了传统的循环神经网络和卷积神经网络在语言模型、机器翻译等任务中的地位。

Transformer温习整理
面向开发者的提示工程

之前写过《面向使用者的提示工程》,主要是面向普通用户,在日常使用大语言模型聊天或对话的时候应该如何书写提示词,来改善大模型输出的效果。而本篇主要是面向开发者,介绍在开发 RAG 类基于大模型的应用时应该如何优化和改善提示词,针对特定任务构造能充分发挥大模型能力的 Prompt 的技巧

面向开发者的提示工程
《如何阅读一本书》

本书是一本阅读指南,介绍了阅读的方法、技巧,阅读所应具备的广阔视野。自1948年问世以来,在西方世界好评甚多,重版多次。是一本指导人们如何阅读的名作。每本书的封面之下都有一套自己的骨架,作为一个分析阅读的读者,你的责任就是要找出这个骨架。《如何阅读一本书》出现在你面前时,肌肉包着骨头,衣服包裹着肌肉,可说是盛装而来。你用不着揭开它的外衣或是撕去它的肌肉,才能得到在柔软表皮下的那套骨架。但是你一定要用一双X光般的透视眼来看《如何阅读一本书》,因为那是你了解一本书、掌握其骨架的基础。

《如何阅读一本书》
Notionic博客定制化修改

自定义一些Notionic博客的参数,内容仅供参考~

Notionic博客定制化修改