科探空谷
  • Home
  • zhimind home
  • Categories
  • Tags
  • Archives
  • 留学
    • 学校库
    • 专业库
    • 研究方向与招生
    • 工具
    • GPA计算器
    • 脑洞背单词
    • 脱口而出

Unsupervised Feature Selection on Networks: A Generative View

目录

  • 摘要
  • 导论
    • 对于边来说
    • 对于点的属性特征来说
    • 结论
    • 题外话
  • 正文
    • 定义
    • 对连接信息建模
      • Oracle Affinity
      • 边生成概率定义
      • 整个图的概率
      • 最终式
    • 对内容建模
    • 二者结合
  • 优化
  • 总结
目录

摘要¶

现在的网络数据(社交网络或信息网络),不仅有链接信息, 还会有一些或噪声或重要的高维内容,比如点的属性。

也就是说,不单纯是个图数据,每个点还有若干个特性、属性。

那些对网络数据进行机器学习的任务,比如社区发现和链接预测,如果能够利用上这些附加的、额外的信息,想必会有一定的效果。

但这些点的属性或特征往往是高维度数据,对效率上影响比较大。

所以, 本文的目标就两个zhi:

降维

就是对点的特征进行选取 (feature selection)

再根据前人工作中的两个问题,

  1. 选取特征时没考虑数据的网络、图特性(存在边、连接)。
  2. 网络数据没有标准的标签(label),一般不适合监督学习的方法。但却用聚类等方法强行给标签,强行使用监督学习,准确性很差。

所以本文提出的特征选取方法:

  1. 非监督的
  2. 用生成模型(generative model)来整合连接和内容信息(即边和属性)

导论¶

和摘要差不多, 重复不提。

主要思想:

从点的所有特征中,选取重要的、关键的特征,记为 预特征(oracle features,叫圣特征、神谕特征都不好吧)

对于边来说¶

边不是边~~~而是两个点在预特征上的亲密度(就相似度)来决定两个点是不是该相连。

首先,非预特征对边没有影响。就像自然语言处理里肯定要把停用词过滤掉, 这种数据没有作用。

其次, 想说什么来着?忘了

对于点的属性特征来说¶

首先, 很多属性也是没用、没影响的,只占空间不干活。

其次, 还有很多的属性或特征 本质上是重复的。就像线性方程组消元,发现一些方程可能是另外方程的线性组合。

所以,原本比较大的点属性集合就可以用比较小的 预特征 集合来代替(还可以存在映射关系)

结论¶

就可以用点的预特征集合 来同时表示连接和内容信息。

这样,就得到了一个模型, 类似于线性回归的那个线性方程的模型, 后面会写模型具体的形式

然后,再去定义这个模型对应的:

  1. 策略。 即损失函数,要优化的目标。
  2. 算法。 如何进行优化。

*模型、策略、算法,机器学习三要素,《统计学习方法》的描述方法

题外话¶

生成图模型,generative graph model, 比如AGM 都是先定义模型、模型表达式,再定义策略、损失函数,最后才用算法来求出模型解空间里 最优的每个参数

正文¶

定义¶

Attributed Network 属性网络:

G = (V; E; X), X是n个点的D维属性、特征向量

s 是D维01向量, 1代表该位置是预特征, 0则否

diag(s) 则是把s 拉成对角矩阵, 后面计算用得到--光点积不够用

目标是求出 预特征 集合

对连接信息建模¶

如之前所说:

probability of a link is determined by the oracle affinity between two nodes

所以要定义 Oracle Affinity

Oracle Affinity¶

dot product of oracle features of two nodes

$$ a_{ij}=x^T_i diag(s) x_j $$

边生成概率定义¶

用某个转换函数(比如sigmoid)将上面的 $a_ij$转成个概率值

概率值再用伯努利分布来决定边是生成还是不生成, 如下:

$$ p_{ij}=F_g(a_{ij}) \ E_{ij} \sim Bernoulli(p_{ij}) $$

整个图的概率¶

从定义上, 在给定 预特征 oracle features时, 整个网络的概率为:

$$ P(G|s) = \prod_{(i,j)\in E}p_{ij}\cdot \prod_{(i,j)\notin E}(1-p_{ij}) $$

最终式¶

把$a_{ij},F_g$代入上式, 求个-log, 化简得:

$\cal{L_G}=xxxx$

省略~~~

对内容建模¶

关键就是得到一个 预特征向量 和 原特征向量的映射关系。

所以可以是:(也可以使用和边相似的建模)

$$ \mu_i = F_c(diag(s)x_i) \ x_i \sim \cal{N}(\mu_i, \sigma^2\bf{I}_D) $$

为简便, Fc就等于左乘个 D行D列的投影矩阵 $\bf{W}$

使用以上模型的话, 那对内容的最大似然值优化 其实也就等效于 最小化误差平方和, 再加个控制项得:

$$ \cal{L}_C=||X^Tdiag(s)W - X^T||^2_F + \beta||W||^2_F $$

二者结合¶

就是

$$ \min \limits_{s,b,W} \cal{L}_G + \cal{L}_C $$

限制条件有, s向量里取值0或1,长度D,向量和=d

对齐还没掌握~~~

优化¶

出于优化难度,改写优化式:

$$ \begin{eqnarray} & \min \limits_{s,b,W} & \cal{L}_G + \cal{L}_C + \lambda||s||_1 \ & s.t. & 0 \leq s_p \leq 1, \forall p=1,...,D \end{eqnarray} $$

优化过程并不特殊, 貌似和SVM的优化过程SMO是一样的。

先固定W, 优化方程的s和b

再固定s和b, 优化方程的W

偏导方程就不写了。

总结¶

  1. 本文定义、 概念描述准确,逻辑清晰,没有太复杂的东西。

总结不太会写, 还不敢评价论文质量。

不过本文的实验部分写得比较简略~~~别的很多论文都3、5页的。本文将将一页出头。


Published

7月 4, 2016

Category

CS

Tags

  • CS 22
  • 论文 39
  • 社区发现 11

Stay in Touch

  • Powered by Pelican. Theme: Elegant by Talha Mansoor