Zhixin Cai

LLM 学习笔记3-大语言模型基础

迁移学习,自监督学习,预训练模型(PTMs) 迁移学习、自监督学习 深度学习:各类自然语言处理任务(机器翻译,情感分析等)的主流框架。 训练拟合数据的模型,需要 有监督数据。 问题:缺乏大规模监督数据,模型深度有限,泛化性能差 解决:先让模型获得一个通用能力,再把这个模型迁移到更小的任务上,拥有特定的能力。 PTMs(预训练模型)先在大规模的未标注数据上进行预训练,然后在下游任务...

LLM 学习笔记1-绪论

符号智能 $\to$ 狭义智能 $\to$ 通用智能 ##符号智能 用预定义的符号和规则来表示知识,从而进行进一步的信息分析和推理。 局限性:构建知识库很困难;不是所有知识都能通过结构化的三元组明确表达;符号智能系统无法解决知识库未涵盖的内容。 狭义智能 这种范式通常从特定于任务的数据中 训练数据驱动的机器学习模型,并将任务知识存储在特定于任务的小模型的参数中。 2010 年以后...

LogicPro

使用算法题来构造高质量的推理数据。 Abstract 提出了一个 LogicPro 的新方法来增强 LLM 的复杂逻辑推理。根据算法题和代码题解构造输入,基于此构造不同的复杂逻辑推理问题,最后结合代码题解的中间变量输出,推导出推理过程和最终结果。 这个方法可以构建一个困难(所有模型都是无效的)、多样化、可拓展的数据集,并获得了一个由中间变量值引导的高质量推理过程。在BBH27、GSM8...