分类目录归档:基础设施

self-llm-开源大模型食用指南


这个仓库名为 self-llm,是一个围绕开源大模型、针对国内初学者、基于 Linux 平台的大模型教程项目。以下是对该仓库的详细介绍:

项目概述

本项目旨在为更多普通学生、研究者提供开源大模型的全流程指导,简化开源大模型的部署、使用和应用流程,让开源、自由的大模型更好地融入普通学习者的生活。其主要内容涵盖环境配置、本地部署、高效微调等技能的教学。

项目主要内容

  1. 开源 LLM 环境配置指南:基于 Linux 平台,针对不同模型要求提供详细的环境配置步骤。
  2. 主流开源 LLM 部署使用教程:包括国内外主流的开源 LLM,如 LLaMA、ChatGLM、InternLM 等。
  3. 开源 LLM ...

Read more

HowToCreateHomunculus-从零开始学习构建智能对话系统


这个仓库名为 HowToCreateHomunculus,主要聚焦于基于深度学习的对话系统的实现与探索,包含了从简单对话系统到结合数据库和知识图谱的对话系统等多个不同复杂度的项目,为构建对话系统提供了丰富的实践案例和理论指导。以下是对该仓库的详细介绍:

项目概述

项目源于对构建与人类无异的对话系统的向往,受《钢之炼金术师》中瓶中小人角色启发而开展。旨在探索基于深度学习的对话系统的构建方法,并记录学习过程,目前网上缺乏统一鲜明的路线,此项目可作为学习参考。

前置知识

  • 具备编程基础,推荐同时掌握 tensorflowpytorch
  • 本项目基于 NLPBeginner 开发,可先大致...

Read more

N-BEATS-时间序列预测模型-03002


N-BEATS:面向时间序列预测的纯深度学习模型

在时间序列预测领域,N-BEATS(Neural Basis Expansion Analysis for Time Series)模型于2019年由Element AI的研究团队提出,以其独特的纯深度学习架构优异的预测性能良好的可解释性,迅速成为该领域的明星模型。它摒弃了传统模型中的复杂特征工程或特定领域知识依赖,仅使用全连接层(MLP)构建,展现了深度神经网络在时间序列预测中的强大潜力。

核心设计理念与创新

  1. 完全深度学习架构:

    • N-BEATS 彻底摆脱了传统时间序列模型(如 ARIMA、指数平滑)或混合模型(如结合 LSTM...

Read more

docker 镜像导出-


在Docker中,导出镜像通常用于将镜像保存到文件,以便在其他环境中导入使用。以下是导出镜像的两种常见方法:

方法一:使用docker save导出镜像

docker save命令用于将一个或多个镜像打包为一个tar文件,保留镜像的所有层和元数据。

步骤: 1. 查看本地镜像列表
bash docker images 找到需要导出的镜像的REPOSITORYTAG(或IMAGE ID)。

  1. 导出镜像到tar文件
    bash docker save -o <输出文件名.tar> <镜像名:标签> # 示例: docker save -o...

Read more

cron-定时任务命令


在 Linux 系统中,查看定时任务(cron jobs)是一项常见的系统管理操作。以下是几种查看和管理系统定时任务的方法:

1. 查看当前用户的定时任务

要查看当前登录用户的定时任务,可以使用以下命令:

crontab -l

这将列出当前用户的所有定时任务。如果没有任何任务,会显示 no crontab for <username>

2. 查看其他用户的定时任务

如果需要查看其他用户的定时任务,需要有足够的权限(通常是 root 权限):

sudo crontab -u <username> -l

例如,查看用户 john 的定时任务:

sudo cr...

Read more

策略梯度上升-RL


Policy Gradient Ascent(策略梯度上升)是强化学习中直接优化策略参数的一类方法,核心思想是通过梯度上升调整策略网络的参数,使得智能体在环境中获得的期望累积回报最大化。它属于策略梯度(Policy Gradient)算法家族,适用于连续或高维动作空间场景(如机器人控制)。

核心思想:直接优化策略

与价值函数方法(如Q-learning,通过估计“状态-动作价值”间接优化策略)不同,策略梯度方法直接对策略参数$\theta$(如神经网络权重)进行优化。策略$\pi_\theta(a|s)$表示在状态$s$下选择动作$a$的概率(随机策略)或确定动作(确定性策略)。目标是最...

Read more

策略网络-RL


在强化学习(Reinforcement Learning, RL)中,策略网络(Policy Network)是直接输出智能体(Agent)动作策略的神经网络模型,是策略梯度(Policy Gradient)类算法(如REINFORCE、PPO、TRPO等)的核心组件。其核心作用是将环境状态映射到动作的概率分布(或确定性动作),指导智能体在不同状态下做出决策。

策略网络的核心特点

  1. 输入:通常是环境的状态(State),可以是图像(如像素矩阵)、数值向量(如机器人关节角度)等。
  2. 输出
  3. 对于离散动作空间:输出各动作的概率分布(通过Softmax激活函数),例如动作空间为3时,输出...

Read more

时间差分学习-RL


时间差分学习(Temporal Difference Learning, TD Learning)是强化学习(Reinforcement Learning, RL)中的核心方法之一,它巧妙结合了动态规划(Dynamic Programming, DP)和蒙特卡洛(Monte Carlo, MC)方法的优点,能够在无需完全知晓环境模型的情况下,通过采样交互数据在线更新值函数。以下从核心概念、算法原理、优势对比及应用场景等方面展开概述:

一、TD学习的核心思想

  1. 自举(Bootstrapping)与采样的结合
  2. 自举:利用当前已有的值函数估计来更新其他状态的值(类似DP,基于后续状态的估计...

Read more

TimesFM-时间序列预测-03001


以下是关于谷歌时间序列预测基础模型 TimesFM 的详细介绍,基于搜索结果的综合分析:


1. 模型概述

TimesFM 是谷歌研发的专为时间序列预测设计的 仅解码器(decoder-only)基础模型,参数规模为 2亿(200M),在包含 1000亿个真实世界时间点 的多样化数据集上预训练而成。其核心目标是通过大规模预训练实现 零样本(zero-shot)预测,即在无需微调的情况下直接应用于新任务,性能媲美甚至超越传统监督学习方法。


2. 核心架构与创新

架构设计

  • 分块(Patch)处理:将时间序列分割为连续的非重叠块(如32个时间点为一个输入块),每个块通过残差块转换为向量,并...

Read more

git config pull -命令


这三条 git config 命令用于设置 git pull 操作的合并策略,下面为你详细解释:

1. git config pull.rebase false

此命令会把 git pull 的默认行为设定为合并(merge)模式。当你执行 git pull 时,它会先从远程仓库拉取最新的提交,接着将本地的提交与远程的提交进行合并,从而创建一个新的合并提交。

示例:

git config pull.rebase false

在这个模式下,git pull 相当于依次执行了 git fetchgit merge 这两个命令。这种方式的优点是能清晰记录合并的历史,不过可能会使提交历...

Read more