pytorch_collection

torch.from_numpy(i) numpy array -> tensor torch.LongTensor torch.tensor 是 32浮点;torch.LongTensor 是 64位整形 MSE, Mean Squared Error, 均方损失,用于回归模型 CE, Cross Entropy, 交叉熵,用于分类模型 Softmax 将数据变换为概率形式 model.train()方法:训练前调用以启用BatchNorm和dropout model.eval()方法:evaluate前调用,关闭BN和dropout;否则会在eval时改变权值

十月 14, 2022 · 1 分钟 · 24 字 · Me

train_struct

常用import import argparse 参数处理 from tqdm import tqdm 进度条 from utils.metric_util import per_class_iu, fast_hist_crop from dataloader.pc_dataset import get_SemKITTI_label_name from builder import data_builder, model_builder, loss_builder buider下三个文件: loss_builder data_builder model_builder from config.config import load_config_data from utils.load_save_util import load_checkpoint import spconv spconv, 稀疏卷积库 train_cylinder_asym_naive 使用 ./train_naive.sh 调用 baseline 使用open-set 2D semantic segmenattion用于3D作为比较,包括MSP, Maxlogit, and MC-Dropout upper bound 上界设置为使用$\mathcal{K}_0 \cup \mathcal{K}_n $训练的网络 loss: Lovasz loss 解决分割问题中类别分布不均匀的问题,参考 wce Weighted cross-entropy (WCE) 带权重的交叉熵 ​ ./config/config.py 中的结构及作用...

十月 13, 2022 · 1 分钟 · 100 字 · Me

bash_commands

.sh是bash脚本文件,通过./name.sh来运行 示例: CUDA_VISIBLE_DEVICES=${gpuid} python -u test_cylinder_asym.py \ 2>&1 | tee logs_dir/${name}_logs_tee.txt python -u开启 unbuffered 模式,这样将标准输出的结果不经缓存直接输出到日志文件(不输出到屏幕) \是脚本的换行符,若语句过长可通过\换行 2>&1 2>&1应该分成两个部分来看,一个是2>以及另一个是&1, 其中2>就是将标准出错重定向到某个特定的地方;&1是指无论标准输出在哪里。 所以2>&1的意思就是说无论标准出错在哪里,都将标准出错重定向到标准输出中。 有时候希望将错误的信息重新定向到输出,就是将2的结果重定向至1中就有了”2>1”这样的思路,如果按照上面的写法,系统会默认将错误的信息(STDERR)2重定向到一个名字为1的文件中,而非所想的(STDOUT)中。因此需要加&进行区分。就有了 2>&1 这样的用法 | 管道 管道的作用是提供一个通道,将上一个程序的标准输出重定向到下一个程序作为下一个程序的标准输入 这里使用管道的目的是将程序的输出重定向到下一个程序,其最终目的是用来将输出存入txt文件中 tee tee从标准输入中读取,并将读入的内容写到标准输出以及文件中,所以这里tee命令的作用是将数据读入并写到标准输出以及log.txt中 tmux

十月 13, 2022 · 1 分钟 · 30 字 · Me

10-9-weekly-report

实验室的工作有一些进展,下一步工作要快速把握已有两篇论文的脉络,同时把复现代码所需要的一些工作的文章/教程学习一下,争取今早开展代码工作;有cylinder3d,还有docker的简单使用 实验报告努力了两天终于接近尾声,可算结束一个ddl 学习任务依旧被推在第二周,课程落后,作业没写…感觉继续这个节奏会出大问题,必须抽出一两个完整的空晌完善学习工作 台大报名表,周五跑了一下午终于交上了,还害怕成绩不够有竞争力专门发了邮件做简介,希望能有点效果,希望能得到这个珍贵的机会 对自己research的方向有了更清晰的一点认知,ai和cg结合确应是大有可为,有机会在大二暑期及之后要尽快找相关方向的实验室、老师做实习,希望能做出踏实的成果,(关于这些有机会可以找游戏交流群友孙嘉木学长学习交流) 时刻铭记,加权与英语,是硬指标,是达摩克里斯之剑,万万不可轻废 最近读书,发现还是读感兴趣的书来得顺利,小镇喧嚣开了头感觉受阻,转头去看你该找个人聊聊就别有一番趣味了,努力看书!

十月 10, 2022 · 1 分钟 · 7 字 · Me

Open-world Semantic Segmentation for LIDAR Point Clouds

提出 REAL Related Work 传统 closed-set LIDAR语义分割 point-based methods: point-net / point-net++ 但是有性能限制 voxel-based methods: Cylinder3D,三维数据集SOTA,本文的base architecture Cylinder3D论文解读及代码略解 open-set 但是2D: uncertainty-based methods: generative model-based methods: Stochastic Gradient Langevin Dynamics (SGLD) Open-world Methodology REAL: Redundancy Classifier Framework Oseg: Open-set Semantic Segmentation 将模型从$\mathcal{M}_c$训练到$\mathcal{M}_o$ ,提出两个训练策略:Unknown Object Synthesis,Predictive Distribution Calibration Unknown Object Synthesis Predictive Distribution Calibration deep metric learning open-world 和 open-set 有何不同 不必太关注open-world 与 open-set 差异,但可以多留意生成式模型的后续研究 为什么uncertainty-based methods: the network predicts the novel classes as old classes with high confidence scores...

十月 4, 2022 · 1 分钟 · 124 字 · Me

9-24-weekly_report

progress 实验室新任务,与徐进锋师兄复现论文,读两篇open world文章,之后会找源码在本地进行实验,借此机会多锻炼代码实践能力 联创招新走过面试,后天熬测,希望借明天安排好作业,熟悉python数据操作(刷头歌python),为后天下午熬测积累经验 undone 课业和作业进度太慢,选择翘掉或者不跟进度的课堂总是落下很多网课课时,目标做到进度快于课堂,定期提前完成作业(独立高质量完成) 论文任务已过半周,需要尽快进入状态 goal 长期看,必须要把加权搞上去,无论是走哪条路,作为必要的参数,都应该搞的漂亮,搞的好看 准备英语,六级和托福,提高重视程度,可以通过增加论文阅读量来保持语感

九月 24, 2022 · 1 分钟 · 10 字 · Me

Towards Open World Object Detection

论文链接: Abstract 提出: Open World Object Detection 问题 模型能够在无明确监督的情形下将无标签物体识别为’unknown' 当逐步输入相应的标签时,能够学习到已识别的’unknown’类别中去 Open World Object Detector ORE 基于Contrastive clustering和Energy based unknown identification 发现: we find that identifying and characterising unknown instances helps to reduce confusion in an incremental object detection setting, where we achieve state-ofthe-art performance, with no extra methodological effort. 我们发现识别和表征未知实例有助于减少incremental object detection设置中的混淆,在这种设置中我们实现了SOTA,而无需额外的方法论。 Intro 问题对比: Open set learning / Incremental Learning / Open world object Detection 方法 ORE Faster R-CNN 作为detector...

九月 23, 2022 · 1 分钟 · 124 字 · Me

CLIP

OpenAI CLIP 官方文档 zero-shot 基于图像文本对 学习 语义信号 模型过大,为加速训练采用很多加速技术:How to Train Really Large Models on Many GPUs prompt engineering 作者提出在对比学习中再结合生成式的目标函数,或许可以扩大模型的灵活性,不受限于输入文本数据的标签 主要影响:摆脱了原有训练数据 固定类别 的范式 Question fine-tune / linear porbe logistic regression

九月 21, 2022 · 1 分钟 · 29 字 · Me

GPT

特征 self-supervised learning 基于transformer BERT 与 GPT ​ BERT使用编码器而GPT使用解码器(Transformer) ->GPT2 ​ 提出zero-shot ->GPT3 ​ 用few-shot ​ 在做子任务时,不需要微调,不需计算重新更新梯度 Question: zero-shot 为什么大模型不容易过拟合? (为什么:在大模型中不需要像较小模型一样选择较小的Batch_Size来使每次采样时数据中的噪音增多来避免过拟合)

九月 21, 2022 · 1 分钟 · 21 字 · Me

[组会22.9.20]

开放世界识别 open world problem

九月 20, 2022 · 1 分钟 · 4 字 · Me

GNN

九月 18, 2022 · 0 分钟 · 0 字 · Me

-how

阅读顺序

九月 17, 2022 · 1 分钟 · 1 字 · Me