图像压缩领域
1. 传统图像压缩
方法
主页
说明
JPEG XL
https://jpeg.org/jpegxl/
JPEG 小组提出,目前最好的图像压缩方法
CMIX
http://www.byronknoll.com/cmix.html
无损数据压缩方法,以高 CPU/内存使用率换高压缩比
Lepton
https://github.com/dropbox/lepton
对 JPEG 图片进行无损压缩,节省近 22%22\%22% 的大小
FLIF
https://flif.info/
无损图像压缩方法,目前已停止开发(被 JPEG XL 取代)
AVIF
https://aomediacodec.github.io/av1-avif/
开放媒体联盟 AOMedia 提出
HEIC
https://hevc.hhi.fraunhofer.de/
MPEG 小组提出,基于 HEVC,不开源
Webp
https://developers.google.com/speed/webp
Google 提出,无损模式比 PNG 小 26%26\%26%,有损模式比 ...
AI会议接收论文列表汇总
Conferences’ accepted paper lists
❗ 建议使用 dblp 和 Aminer 查询。
Quick Link
Conference:
AAAI
IJCAI
KDD
WWW
ICLR
ICML
NeurIPS
CIKM
2017
🔗
🔗
🔗
🔗
🔗
2018
🔗
🔗
🔗
🔗
🔗
2019
🔗
🔗
🔗
🔗
🔗
🔗
2020
🔗
🔗
🔗
🔗
🔗
🔗
🔗
🔗
2021
🔗
🔗
🔗
🔗
🔗
🔗
🔗
🔗
2022
🔗
🔗
🔗
🔗
🔗
🔗
🔗
🔗
2023
AAAI
Conference
Source
Deadline
Notification
AAAI-23
August 15, 2021
November 18, 2022
AAAI-22
🔗
September 8, 2021
November 29, 2021
AAAI-21
🔗
AAAI-20
🔗
AAAI-1 ...
2022年论文阅读清单
03 月
2016-PCS-End-to-end optimization of nonlinear transform codes for perceptual quality
2016-ICLR-Density Modeling of Images using a Generalized Normalization Transformation
04 月
2017-ICLR-End-to-end Optimized Image Compression
2018-ICLR-Variational image compression with a scale Hyper-prior
2016-CVPR-Deep Residual Learning for Image Recognition
2021-Arxiv-Learning Transferable Visual Models From Natural Language Supervision
05 月
2017-CVPR-PointNet: Deep Learning on Point Sets for ...
论文十问
1. 简介
论文十问由沈向洋博士提出,他鼓励大家带着这十个问题去阅读论文,用有用的信息构建认知模型。个人也觉得论文十问对阅读论文非常有帮助,故此记下,同时记录一些经典的论文十答作为典范参考。
2. 内容
Q1:论文试图解决什么问题?
Q2:这是否是一个新的问题?
Q3:这篇文章要验证一个什么科学假设?
Q4:有哪些相关研究?如何归类?谁是这一课题在领域内值得关注的研究员?
Q5:论文中提到的解决方案之关键是什么?
Q6:论文中的实验是如何设计的?
Q7:用于定量评估的数据集是什么?代码有没有开源?
Q8:论文中的实验及结果有没有很好地支持需要验证的科学假设?
Q9:这篇论文到底有什么贡献?
Q10:下一步呢?有什么工作可以继续深入?
3. 经典案例
Paper 十问
AI论文学习资料汇总
1. 视频讲解
跟李沐学AI:讲解的非常透彻明了。
2. 科研工具
ReadPaper:论文阅读神器!
AI-Paper-Search:AI 论文检索神器!
AI-research-tools:AI 科研工具大礼包!
AMiner:科技情报大数据挖掘与服务系统平台,可以提供订阅等功能,为广大科研人提供科研动态的实时追踪、个人科研信息流的定制化服务。
DBLP:DBLP 计算机科学书目提供有关主要计算机科学期刊和会议录的开放书目信息,可谓论文信息检索查询大利器!
Conference-Accepted-Paper-List:AI 会议论文 Paper List 大汇总!
3. 实验工具
Wandb:Weights & Biases 可以帮助跟踪机器学习项目,记录运行中的超参数和输出指标(Metric),然后对结果进行可视化和比较。
Optuna:Optuna 是一个自动超参搜索框架,解放一线炼丹者的双手!
NNI:微软的自动机器学习工具!
4. 研究方向
研究方向
论文合集
点云分析
awesome-point-cloud-analysi ...
阅读计划
2022
数学类
《A First Course in Wavelets with Fourier Analysis(2nd)》by Albert Boggess, Francis J. Narcowich
中译本《小波与傅里叶分析基础》by 芮国胜,康健等
《THEORIES OF INTEGRATION — The Integrals of Riemann, Lebesgue, Henstock-Kurzweil, and McShane(2nd)》by Douglas S Kurtz, Charles W Swartz
《Variational Bayesian Learning Theory》by Nakajima, S.Watanabe, K.Sugiyama
《Generalized Latent Variable Modeling Multilevel Longitudinal And Structural Equation Models》by Anders Skrondal, Sophia Rabe-Hesketh
《统计学习》by 李 ...
会议投稿相关资料
1. CCF 列表
会议投稿汇总
2. AI 相关
会议投稿汇总
课程计划
技术类
DLSS & RLSS 2017 - Montreal
Deep Reinforcement Learning, 2018
Generative Adversarial Network (GAN), 2018
动手学深度学习在线课程
OpenMMLabCourse
哲学类
西方哲学史 - 张志伟
数学类
[常微分方程]
强化学习概述
1. 定义
通过从交互中学习来实现目标的计算方法:
强化学习主要包括三个方面:
感知:在某种程度上感知环境的状态
行动:可以采取行动来影响状态或者达到目标
目标:随着时间的推移最大化累积奖励
2. 交互
强化学习与环境交互过程如下图:
3. 系统要素
历史(History):是观察、行动和奖励的序列。即一直到时间 ttt 为止的所有可观测变量:
Ht=O1,R1,A1,O2,R2,A2,⋯ ,Ot−1,Rt−1,At−1,Ot,RtH_t = O_1,R_1,A_1,O_2,R_2,A_2,\cdots,O_{t-1},R_{t-1},A_{t-1},O_t,R_t
Ht=O1,R1,A1,O2,R2,A2,⋯,Ot−1,Rt−1,At−1,Ot,Rt
状态(State):一种用于确定接下来会发生的事情的信息。状态是关于历史的函数:
St=f(Ht)S_t = f(H_t)
St=f(Ht)
策略(Policy):是学习智能体在特定时间的行为方式,是从状态到行动的映射。
确实性策略:
a=π(s)a = \pi(s)
a ...
CUDA全局内存
1. 简介
CPU 和 GPU 的主存都采用的是 DRAM(动态随机存取存储器),而低延迟内存(如 CPU 一级缓存)使用的则是 SRAM(静态随机存取存储器)。CPU 和 GPU 在内存层次结构设计中都使用相似的准则和模型。GPU 和 CPU 内存模型的主要区别是,CUDA 编程模型能将内存层次结构更好地呈现给用户,能让我们显式地控制它的行为。
2. CUDA 内存模型
对于程序员来说,一般有两种类型的存储器:
可编程的:需要显式地控制哪些数据存放在可编程内存中;
不可编程的:无法人为决定数据的存放位置,程序将自动生成存放位置以获得良好的性能。
在 CPU 内存层次中,一级缓存和二级缓存都是不可编程的存储器。另一方面,CUDA 内存模型提出了多种可编程内存的类型:
寄存器:GPU 上运行速度最快的内存空间。核函数中声明的一个没有其他修饰符的自变量,通常存储在寄存器中。寄存器变量对于每个线程来说都是私有的,寄存器变量的生命周期与核函数相同。
共享内存:一个线程块有自己的共享同存,对同一线程块中所有线程都可见,其内容持续线程块的整个生命周期。
本地内存:一个核函数中的线程 ...
LightGBM算法详解
1. 简介
LightGBM 是一个高性能的分布式梯度提升决策树框架,可以用于分类、回归、排序任务等,属于监督学习算法。LightGBM 属于 Boosting 的一种,Boosting 是指用一系列的模型线性组合起来完成模型任务。Boosting 分为两种:
Ada Boost:根据当前的 Loss 来改变样本权重,比如这个样本在学习中误差比较大,则获得一个大的权重,反之获得更小的权重,从而控制后续子模型的产生。
Gradient Boost:直接修改样本 Label,新的样本 Label 将变成原来的 Label 和已知形成的的模型预测值之间的残差。Gradient Boost 更倾向于降低训练误差的角度去完成算法优化。
而 GBDT = Gradient Boosting + Decision Tree,即在 Gradient Boosting 中,每一个 base learner 都是一个 decision tree。
2. 决策树
决策树的学习过程可以分为两种:
Leaf-wise Learning:在学习过程中,我们需要不断地寻找分类后收益最大的叶子节点,然后对其进行 ...
Linux系统用户管理
1. 创建用户
1sudo useradd -m -s /bin/bash -d /data/${username} ${username}
其中,-m 参数表示在创建用户的同时创建用户的主目录;-s 参数用来指定用户默认的 Shell;-d 参数用来指定用户的 HOME 目录路径。
后续如果需要迁移用户主目录,可以使用以下命令:
1sudo usermod -d ${newdir} -m ${username}
2. 设置密码
用户刚创建时需要管理员给用户设置密码:
1sudo passwd ${username}
一旦用户登录后,用户可以自己修改密码 passwd,或者让管理员继续以 sudo 权限帮忙修改密码 sudo passwd ${username}。
3. 权限操作
sudo 权限
给予用户 sudo 权限:
1sudo usermod -aG sudo ${username}
撤销用户 sudo 权限:
1sudo gp ...