Re: Wireless Network Congestion Control
我;)。这种文章大多数是三段论
(1)证明NP-hard/complete;
(2)提出近似算法;
(3)算法验证(仿真,数值分析,复杂度分析,近似比分析...)
复杂度理论很重要哦,计算机科学的基础之一。人类自从发明了计算机,就发现:哦,
原来有些问题计算机也解不了。现在大家都指望量子计算机,不过估计等它老人家出来
后大家又会发现有些问题连它也解不了,然后就又指望xx计算机,呵呵...
这篇感觉贡献仅仅是implement一个协议
提高adhoc/mesh tcp 性能感觉主要就是2类算法 AIMD-like rate adaption 和 基于capacity计算 发送rate。 类似的算法也挺多,这篇讲的也不是一个新故事。 这篇文章的第二个算法没看,单说这篇提出的aimd。 以前的研究就发现 window-based rate adaptation 性能不好,aggressive而且不能保证fairness, 可以用pacing的方式来解决,其中一个方案就是用ecn,发送端检查到ecn bit就增加发送间隔,否则每次收到不重复的ack就降低间隔。所以觉得该文至少在算法上没有太大新意啊。
同时宁一个重要问题是如果准确判断网络拥塞,怎么去找个metric, 这篇文章用distributed queue length去判断,也差不多是个直观的方法。 还没读完该文第二个算法,也许contribution很大吧。
看了freedmind提出的问题,觉得自己很惭愧。这几年一直埋头钻研数学建模,实际上忽
视了对网络体系结构的把握。对于social networking这方面,虽然有些耳闻,但一直觉
得都是昙花一现的泡沫,知道这些东东越来越多,才发现自己错过了一次冲浪的机会..
.
说道complex network,一直也没有正式做过研究,但跟几个牛人共过事(比如patrick
Thiran),感觉上象scale-free networks, small-world, random graph, percolati
on theory这样的理论对研究日益庞大的internet体系会有帮助(尤其是前面有人提到的
overlay),但是对无线网络方面总觉得应用起来比较牵强,因为很难想象无线网络的规
模会很大。
说来说去也不算是回答了问题,因为这些问题偶自己也在想,大家以后多讨论多互相启
发吧!
说到sigcomm,有个牛老师的学生博客里曾经写到,觉得很有意思的一些话:
SIGCOMM是计算机网络领域最顶级的会议,其地位和自然科学领域的Science、Nature相当。现在国内高校发Science、Nature已经是稀松平常的事了;但在SIGCOMM 27年(每年收录20余篇论文)的历史中,仅有两篇论文是出自国内---其竞争之惨烈可见一斑。
对于MIT等牛校的人,发SIGCOMM却像灌水一样平常。比如SIGCOMM2007就有3篇论文出自MIT。MIT有几个人灌水的方法很引人注目:先在前一年的二流会议上找一些理论文章,再把理论在实际系统中实现;在此基础上再发表一篇二流论文;然后将系统扩展,投到SIGCOMM。SIGCOMM本来是匿名评审,但由于他们有已经发表的二流论文,所以审稿人很容易看出这是MIT的作品,然后敬畏三分,写些溢美之辞,给个高分完事。
BOSS常对这种现象嗤之以鼻,但也表示无奈,说这种风格的论文如果是一般人做,八成会被审稿人批评“naive”,但MIT做则会被夸奖“simple but significant contribution”...... 牛人的做法,不敢随便学啊。
其实cognitive radio不是学术上的突破(不象network coding那样),大家不过是把以前的办法往这个项目上套而已,比方cooperation, POMDP, bandit problem, controlled Markov process, quickest detection啥的,这时候就拼哪个学校的图书馆的古代书籍收集得全了,呵呵。
现在学术上新的突破很少,大家也只好炒冷饭,比方information theory based security不就是把几十年前的东西又挖出来做一遍吗?
要说新东西的话,compressed sensing倒是新东西也是好东西,可惜主要是用在信号处理上,跟通信关系不大,而且入门门槛太高,不好做。
相关文章: