Think Anywhere in Code Generation

Think Anywhere in Code Generation

论文pdf:https://arxiv.org/html/2603.29957v2 1. 这篇论文在讲什么? 一句话版: 这篇论文想解决一个很直观的问题:很多“会思考”的代码大模型,都是先想一大段,再开始写代码;但真实写代码时,难点往往会在写到一半才冒出来。于是作者提出:让模型可以在代码生成过程中的

RV1106蓝牙连接

RV1106蓝牙连接

buildroot下修复bluez依赖 参考https://github.com/LuckfoxTECH/luckfox-pico/issues/327 替换文件后重新编译,在buildroot目录下运行: make bluez5_utils-dirclean make bluez5_utils m

Agentic RL

Agentic RL

多轮长轨交互任务的agentic RL训练框架(3) RAGEN:Understanding Self-Evolution in LLM Agents via Multi-Turn Reinforcement Learning(preprint 查不到发哪了) https://github.com/

CUDA学习笔记:Block与 Thread协作

CUDA学习笔记:Block与 Thread协作

本章主要学习有关cuda中Block与Thread的关系,Thread间如何通信,以及Thread的同步问题。初步认识cuda如何解决大规模并行问题 CUDA执行层次结构:Grid、Block和Thread 下图表示了Grid,Block,Thread三种结构的递进关系,能俯瞰它们是如何协作处理任务

【GAMES101】lecture9 笔记:插值与texture mapping

【GAMES101】lecture9 笔记:插值与texture mapping

插值(Interpolation)与重心坐标(Barycentric Coordinates) 在图形渲染管线中,我们通常只知道三角形三个顶点的属性(如坐标、颜色、法线、纹理坐标等)。 但是,光栅化后的三角形内部包含成千上万个像素。为了算出三角形内部任意一点的属性,我们需要一种平滑过渡的方法 。 答

CUDA学习笔记:简单的并行程序——julia set

CUDA学习笔记:简单的并行程序——julia set

kernel的并行方式 最简单的例子 首先来看一个最经典的场景:向量加法: 对于向量a和向量b,假如我们想得到它们相加的结果c,在CPU(传统cpp)上,我们只能循环遍历每一个元素,比如: for(int i = 0; i < a.size(); i++){ c[i] = a[i] + b[

TileClipper复现与数据对比方法

TileClipper复现与数据对比方法

一些坑点 pyenv与虚拟环境 首先,安装pyenv和 为什么要用不同版本? 用pyenv主要是为了切换py版本。论文用的是py3.8.10,但是py3.8支持的torch所使用的cuda toolkit最新也支持不到cu128。50系显卡目前只能使用cu128的版本,因此可能要为此使用py3.9以

CUDA学习笔记:CUDA入门

CUDA学习笔记:CUDA入门

host代码与device代码 host代码(主机端)指运行在CPU及内存(RAM)上的代码,一般是标准C/CPP代码 device代码(设备端)指运行在GPU及显存(vRAM)上的代码,即声明为__global__的代码(kernel函数) 一个cuda c程序由host代码和device代码两部

Revisiting Chain-of-Thought in Code Generation论文学习

Revisiting Chain-of-Thought in Code Generation论文学习

该论文研究的核心问题是:在代码生成任务中,语言模型是否需要先学会“推理链”(Chain-of-Thought, CoT),再去生成代码? 过往对于CoT的研究主要集中在传统逻辑任务,过往研究已经证实使用CoT进行SFT对传统逻辑任务的输出质量有明显提升。但对于CoT在代码生成相关任务中的研究还非常有