pytorch_collection

torch.from_numpy(i) numpy array -> tensor torch.LongTensor torch.tensor 是 32浮点;torch.LongTensor 是 64位整形 MSE, Mean Squared Error, 均方损失,用于回归模型 CE, Cross Entropy, 交叉熵,用于分类模型 Softmax 将数据变换为概率形式 model.train()方法:训练前调用以启用BatchNorm和dropout model.eval()方法:evaluate前调用,关闭BN和dropout;否则会在eval时改变权值

十月 14, 2022 · 1 分钟 · 24 字 · Me

train_struct

常用import import argparse 参数处理 from tqdm import tqdm 进度条 from utils.metric_util import per_class_iu, fast_hist_crop from dataloader.pc_dataset import get_SemKITTI_label_name from builder import data_builder, model_builder, loss_builder buider下三个文件: loss_builder data_builder model_builder from config.config import load_config_data from utils.load_save_util import load_checkpoint import spconv spconv, 稀疏卷积库 train_cylinder_asym_naive 使用 ./train_naive.sh 调用 baseline 使用open-set 2D semantic segmenattion用于3D作为比较,包括MSP, Maxlogit, and MC-Dropout upper bound 上界设置为使用$\mathcal{K}_0 \cup \mathcal{K}_n $训练的网络 loss: Lovasz loss 解决分割问题中类别分布不均匀的问题,参考 wce Weighted cross-entropy (WCE) 带权重的交叉熵 ​ ./config/config.py 中的结构及作用...

十月 13, 2022 · 1 分钟 · 100 字 · Me

bash_commands

.sh是bash脚本文件,通过./name.sh来运行 示例: CUDA_VISIBLE_DEVICES=${gpuid} python -u test_cylinder_asym.py \ 2>&1 | tee logs_dir/${name}_logs_tee.txt python -u开启 unbuffered 模式,这样将标准输出的结果不经缓存直接输出到日志文件(不输出到屏幕) \是脚本的换行符,若语句过长可通过\换行 2>&1 2>&1应该分成两个部分来看,一个是2>以及另一个是&1, 其中2>就是将标准出错重定向到某个特定的地方;&1是指无论标准输出在哪里。 所以2>&1的意思就是说无论标准出错在哪里,都将标准出错重定向到标准输出中。 有时候希望将错误的信息重新定向到输出,就是将2的结果重定向至1中就有了”2>1”这样的思路,如果按照上面的写法,系统会默认将错误的信息(STDERR)2重定向到一个名字为1的文件中,而非所想的(STDOUT)中。因此需要加&进行区分。就有了 2>&1 这样的用法 | 管道 管道的作用是提供一个通道,将上一个程序的标准输出重定向到下一个程序作为下一个程序的标准输入 这里使用管道的目的是将程序的输出重定向到下一个程序,其最终目的是用来将输出存入txt文件中 tee tee从标准输入中读取,并将读入的内容写到标准输出以及文件中,所以这里tee命令的作用是将数据读入并写到标准输出以及log.txt中 tmux

十月 13, 2022 · 1 分钟 · 30 字 · Me