图像压缩领域
1. 传统图像压缩
方法
主页
说明
JPEG XL
https://jpeg.org/jpegxl/
JPEG 小组提出,目前最好的图像压缩方法
CMIX
http://www.byronknoll.com/cmix.html
无损数据压缩方法,以高 CPU/内存使用率换高压缩比
Lepton
https://github.com/dropbox/lepton
对 JPEG 图片进行无损压缩,节省近 22%22\%22% 的大小
FLIF
https://flif.info/
无损图像压缩方法,目前已停止开发(被 JPEG XL 取代)
AVIF
https://aomediacodec.github.io/av1-avif/
开放媒体联盟 AOMedia 提出
HEIC
https://hevc.hhi.fraunhofer.de/
MPEG 小组提出,基于 HEVC,不开源
Webp
https://developers.google.com/speed/webp
Google 提出,无损模式比 PNG 小 26%26\%26%,有损模式比 ...
AI会议接收论文列表汇总
Conferences’ accepted paper lists
❗ 建议使用 dblp 和 Aminer 查询。
Quick Link
Conference:
AAAI
IJCAI
KDD
WWW
ICLR
ICML
NeurIPS
CIKM
2017
🔗
🔗
🔗
🔗
🔗
2018
🔗
🔗
🔗
🔗
🔗
2019
🔗
🔗
🔗
🔗
🔗
🔗
2020
🔗
🔗
🔗
🔗
🔗
🔗
🔗
🔗
2021
🔗
🔗
🔗
🔗
🔗
🔗
🔗
🔗
2022
🔗
🔗
🔗
🔗
🔗
🔗
🔗
🔗
2023
AAAI
Conference
Source
Deadline
Notification
AAAI-23
August 15, 2021
November 18, 2022
AAAI-22
🔗
September 8, 2021
November 29, 2021
AAAI-21
🔗
AAAI-20
🔗
AAAI-1 ...
2022年论文阅读清单
03 月
2016-PCS-End-to-end optimization of nonlinear transform codes for perceptual quality
2016-ICLR-Density Modeling of Images using a Generalized Normalization Transformation
04 月
2017-ICLR-End-to-end Optimized Image Compression
2018-ICLR-Variational image compression with a scale Hyper-prior
2016-CVPR-Deep Residual Learning for Image Recognition
2021-Arxiv-Learning Transferable Visual Models From Natural Language Supervision
05 月
2017-CVPR-PointNet: Deep Learning on Point Sets for ...
论文十问
1. 简介
论文十问由沈向洋博士提出,他鼓励大家带着这十个问题去阅读论文,用有用的信息构建认知模型。个人也觉得论文十问对阅读论文非常有帮助,故此记下,同时记录一些经典的论文十答作为典范参考。
2. 内容
Q1:论文试图解决什么问题?
Q2:这是否是一个新的问题?
Q3:这篇文章要验证一个什么科学假设?
Q4:有哪些相关研究?如何归类?谁是这一课题在领域内值得关注的研究员?
Q5:论文中提到的解决方案之关键是什么?
Q6:论文中的实验是如何设计的?
Q7:用于定量评估的数据集是什么?代码有没有开源?
Q8:论文中的实验及结果有没有很好地支持需要验证的科学假设?
Q9:这篇论文到底有什么贡献?
Q10:下一步呢?有什么工作可以继续深入?
3. 经典案例
Paper 十问
AI论文学习资料汇总
1. 视频讲解
跟李沐学AI:讲解的非常透彻明了。
2. 科研工具
ReadPaper:论文阅读神器!
AI-Paper-Search:AI 论文检索神器!
AI-research-tools:AI 科研工具大礼包!
AMiner:科技情报大数据挖掘与服务系统平台,可以提供订阅等功能,为广大科研人提供科研动态的实时追踪、个人科研信息流的定制化服务。
DBLP:DBLP 计算机科学书目提供有关主要计算机科学期刊和会议录的开放书目信息,可谓论文信息检索查询大利器!
Conference-Accepted-Paper-List:AI 会议论文 Paper List 大汇总!
3. 实验工具
Wandb:Weights & Biases 可以帮助跟踪机器学习项目,记录运行中的超参数和输出指标(Metric),然后对结果进行可视化和比较。
Optuna:Optuna 是一个自动超参搜索框架,解放一线炼丹者的双手!
NNI:微软的自动机器学习工具!
4. 研究方向
研究方向
论文合集
点云分析
awesome-point-cloud-analysi ...
阅读计划
2022
数学类
《A First Course in Wavelets with Fourier Analysis(2nd)》by Albert Boggess, Francis J. Narcowich
中译本《小波与傅里叶分析基础》by 芮国胜,康健等
《THEORIES OF INTEGRATION — The Integrals of Riemann, Lebesgue, Henstock-Kurzweil, and McShane(2nd)》by Douglas S Kurtz, Charles W Swartz
《Variational Bayesian Learning Theory》by Nakajima, S.Watanabe, K.Sugiyama
《Generalized Latent Variable Modeling Multilevel Longitudinal And Structural Equation Models》by Anders Skrondal, Sophia Rabe-Hesketh
《统计学习》by 李 ...
会议投稿相关资料
1. CCF 列表
会议投稿汇总
2. AI 相关
会议投稿汇总
课程计划
技术类
DLSS & RLSS 2017 - Montreal
Deep Reinforcement Learning, 2018
Generative Adversarial Network (GAN), 2018
动手学深度学习在线课程
OpenMMLabCourse
哲学类
西方哲学史 - 张志伟
数学类
[常微分方程]
聚类方法
1. 简介
聚类是针对给定的样本,依据它们特征的相似度或距离,将其归并到若干个「类」或「簇」的数据分析问题。一个类是样本的一个子集,直观上,相似的样本聚集在相同的类,不相似的样本分散在不同的类。
聚类的目的是通过得到的类或和入在来发现数据的特和点或对数据进行处理,在数据挖掘、模式识别等领域有着广泛的应用。聚类属于无监督学习,因为只是根据样本的相似度或距离将其进行归类,而类或簇事先并不知道。
常用的聚类算法有:层次聚类和 K 均值聚类。层次聚类又有聚合(自下而上)和裂(自上而下)两种方法。
聚合法:开始将每个样本各自分到一个类,之后将相距最近的两类合并,建立一个新的类,重复此操作直到满足停止条件,得到层次化的类别。
分裂法:开始将所有样本分到一个类,之后将已有类中相距最远的样分到到两个新的类,重复此操作直到满足停止条件,得到层次化的类别。
KKK 均值聚类是基于中心的聚类方法,通过迭代,将样本分到 KKK 个类中,使得每个样本与其所属类的中心或均值最近,最后得到 KKK 个平坦的、非层次化的类别,构成对空间的划分。
2. 基本概念
聚类的基本概念,主要包括样本之间的距离或相似度、类或 ...
最大熵模型
1. 简介
最大熵模型由最大熵原理推导实现。
2. 最大熵原理
最大熵原理是概率模型学习的一个原则。最大熵原理认为,学习概率模型时,在所有可能的概率模型中,熵最大的模型是最好的模型。通常用约束条件来确定概率模型的集合,因此最大熵原理也可以表述为在满足约束条件的模型集合中选取熵最大的模型。
假设离散随机变量 XXX 的概率分布是 P(X)P(X)P(X),则其熵为
H(P)=−∑xP(x)logP(x)H(P) = - \sum_{x} P(x) \log{P(x)}
H(P)=−x∑P(x)logP(x)
熵满足下列不等式:
0≤H(P)≤log∣X∣0 \leq H(P) \leq \log{|X|}
0≤H(P)≤log∣X∣
式中,∣X∣|X|∣X∣ 是 XXX 的取值个数,当且仅当 XXX 的分布是均匀分布时右边的等号成立。
直观上来看,最大熵原理认为要选择的概率模型首先必须满足已有事实,即约束条件。在没有更多信息的情况下,那些不确实的部分都是「等可能的」。最大熵原理通过熵的最大化来表示等可能性。
3. 最大熵模型
假设分类模型是一个条件概率分布 P(Y∣X)P(Y ...
逻辑斯谛回归
1. 简介
逻辑斯谛回归是统计学习中的经典分类方法。
2. 逻辑斯谛分布
定义:设 XXX 是连续随机变量,XXX 服从逻辑斯谛分布是指 XXX 具有下列分布函数和密度函数:
F(x)=P(X≤x)=11+e−(x−μ)/γf(x)=F′(x)=e−(x−μ)/γγ(1+e−(x−μ)/γ)2F(x) = P(X \leq x) = \frac{1}{1 + e^{-(x-\mu)/\gamma}} \\
f(x) = F^{'}(x) = \frac{e^{-(x-\mu)/\gamma}}{\gamma(1 + e^{-(x-\mu)/\gamma})^2}
F(x)=P(X≤x)=1+e−(x−μ)/γ1f(x)=F′(x)=γ(1+e−(x−μ)/γ)2e−(x−μ)/γ
其中,μ\muμ 是位置参数,γ>0\gamma > 0γ>0 为形状参数。
逻辑斯谛分布的 PDF 和 CDF 函数曲线如下图所示:
3. 二项逻辑斯谛回归模型
二项逻辑斯谛回归模型是一种分类模型,其由条件概率分布 P(Y∣X)P(Y | X)P(Y∣X) 表示,形 ...
日语形容词
1. 简介
日语形容词分为两类,它们的一般规律为:
Ⅰ类:也称「い」类,即显示地以「い」结尾的形容词;
Ⅱ类:不以「い」结尾,一般由两个汉字组成,或者是外来语。
2. Ⅰ类
Ⅰ类形容词修饰名词时为「Ⅰ类形容词 + 名词」的结构,中间不能加「の」。
常用的Ⅰ类形容词:
Ⅰ类形容词
含义
Ⅰ类形容词
含义
あたらし(新しい)
新
ふるい(古い)
旧
あつい(熱い)
热,烫
つめたい(冷たい)
凉
たかい(高い)
高
ひくい(低い)
矮,低
ながい(長い)
长
みじかい(短い)
短
あつい(暑い)
热
さむい(寒い)
冷
たかい(高い)
贵
やすい(安い)
便宜
おおい(多い)
多
すくない(少ない)
少
むずかしい(難しい)
难
やさしい(易しい)
容易
ひろい(広い)
宽广
せまい(狭い)
狭窄
おおきい(大きい)
大
ちいさい(小さい)
小
とおい(遠い)
远
ちかい(近い)
近
いい/よい
好
わるい(悪い)
不好,坏
たのしい(楽しい)
愉快
つまらない
无聊
2.1 时态
Ⅰ类形容词作谓语的一般变形规律为:
...