e**o 发帖数: 5509 | 1 g口成本这么高?
7年前买的T41就是G口了。
本以为7年后G口应该烂大街了,结果E1000都是N了,还是百兆口。。。 |
|
t****t 发帖数: 6806 | 2 无线的网速和有线的不是一回事
你别看有线只有100M, 轻松秒杀N的300M
当然, 1000M又秒杀100M |
|
m*****d 发帖数: 13718 | 3 怎么你们的网速都这么快,我的只有20-30mbps |
|
e**o 发帖数: 5509 | 4 N的300M怎么能被有线100M秒杀?
就算信号不好,有波动,也不能降到1/3呀。
而且一般都是在家里用,特别是和router都在客厅,可以认为无线信号几乎没衰减吧? |
|
x*****n 发帖数: 3422 | 5 constant data rate vs. burst data rate |
|
|
a*****a 发帖数: 1429 | 7
可以。好点的Switch都支持vlan tag。 |
|
|
t****t 发帖数: 6806 | 9 呃, 为什么? 这个东西的无线不怎么样. 千兆倒是还可以 |
|
r******n 发帖数: 4522 | 10 几大神由都是千兆口了吧,看switch价格下来就知道了,这种都是4口的真不值多少钱。 |
|
|
a*****s 发帖数: 2663 | 12 RT-N16这个上一代神油不知道谁捧出来的,可能是一开始的价格优势。看看它的bench
其实很悲剧。总的throughput才156,最大连接数才200。从它出来的第一天起俺就没正
眼看过它一下。倒是现在看看N56U的bench确有点王者风范。有用过N56U的兄弟能不能
讲讲心得。 |
|
a*****a 发帖数: 1429 | 13 I am using rt-n56u. Very fast. But the firmware is another joke. No dd-wrt
support. I probably will try rt-n66u. Or will DIY a small box with pfsense,
use rt-n56u as a simple ap and switch. I need a better router/firewall
bench
★ 发自iPhone App: ChineseWeb - 中文网站浏览器 |
|
t****t 发帖数: 6806 | 14 连接数可以用tomato刷, 无线确实不怎么样. 但无论如何, 千兆网是没问题的.
bench |
|
c****n 发帖数: 21367 | 15 thrust你家主要台式机还是走的网线对吧?
国内家里无线网覆盖率很差,可能也要走网线了,有啥好交换机牌子推荐的没?
没正
不能 |
|
Q**g 发帖数: 183 | 16 不好说。无线看距离。俺的无线在同一个房间可以到 16MB/s |
|
a*****s 发帖数: 2663 | 17 LAN<->LAN switching估计应该没什么问题,WAN<->LAN太差了。 |
|
r******n 发帖数: 4522 | 18 Bench无线速度占比例太大,n16无线是硬伤。神主要神在CPU跟RAM,可以跑很多东西,
USB口都带两个。要光看Bench的话Netgear, Dlink那些烂由分数都不低,无线速度是快
,但多开几个P2P就死掉了。这就得看个人需求了,但通常不会有人成天用无线在家用
机之间copy高清电影,日常使用的话,100M也好,54M也好都超过了WAN的速度,那个才
是瓶颈。不跑P2P,不用VoIP不需要QOS,就是上上网的话弄个最便宜的TPLink也就够了。
bench |
|
a*****s 发帖数: 2663 | 19 什么USB口连个硬盘,打印机什么的都是鸡肋。现在流行NAS,还有无线打印。要说开
P2P,我3700 stock firmware,几千个种子也没啥问题。无线看高清更是没得说。
了。 |
|
a*****a 发帖数: 1429 | 20
它的LAN-to-LAN也很差。虽然都是g的switch,各种产品差别还是很大的。比如rt-n16
开始没有Jumbo Frame支持。不知道后来有没有。
RT-N16之所以被人称为神,主要是RAM有128M,Flash有32M,装dd-wrt或者番茄后可以
装和运行很多optware。好象称它神最早是那些玩asterisk的。对应的还有神座,也是
装asterisk玩VOIP的利器。 |
|
|
b*********n 发帖数: 2975 | 22 所谓的“神”就是价钱便宜,可是性能根本没法提的
N56也没有想象的好,至少5G不如E4200,呵呵
RT-N16这个上一代神油不知道谁捧出来的,可能是一开始的价格优势。看看它的bench
其实很悲剧。总的throughput才156,最大连接数才200。从它出来的第一天起俺就没正
眼看过它一下。倒是现在看看N56U的bench确有点王者风范。有用过N56U的兄弟能不能
讲讲心得。 |
|
a*****a 发帖数: 1429 | 23
E4200 5g是3 stream 450Mbps标称速度。RT-N56U是300M。没有用过配套的网卡。现在
主流的300M的5G无线网卡,RT-N56U比E4200强不少,速度上距离上都强。实际上和
E4200比,RT-N56U的5G优势比2.4G要大。
详细的可以看smallnetbuilder的评测。 |
|
|
a*****a 发帖数: 1429 | 25
这个还真不好算。尤其是还连不上。6300普及了就是主流了。 |
|
|
y****i 发帖数: 78 | 27 @thrust:
谢谢不计较。我的nas还没有买呢,正在比较
看了那个infiniband的帖子,似乎网络结构和驱动都还是有点难度。想找个安装相对傻
瓜点的
iBite的光纤方案似乎简单点 |
|
A*******e 发帖数: 2419 | 28 【 以下文字转载自 PDA 讨论区 】
发信人: AlphaCode (Alpha), 信区: PDA
标 题: comcast router显示幽灵DHCP client是怎么回事?
发信站: BBS 未名空间站 (Tue Dec 1 00:02:31 2015, 美东)
网络结构是comcast router接电力猫,再接tp-link router的LAN,另三台机器也在这
个tp-link router的LAN上。tp-link已禁用无线和DHCP。
主路由的DCHP client列表里出现了四个ethernet连接,但我只认出上述三台机器。第
四个幽灵client是哪里来的? |
|
s**n 发帖数: 449 | 29 【 以下文字转载自 Linux 讨论区 】
【 原文由 suan 所发表 】
在Linux router/firewall后使用Netmeeting心得
10-07-2002 by suan
花了些时间研究这个问题. 写下来希望对大家有所帮助.
0. 动机
Netmeeting在NAT router后不能正常使用. 通常的现象是可以发送声音和图像,
但是无法接收. 其他的软件如MSN Messenger也有类似的问题. Yahoo!Messenger
倒是可是正常运行, 但是中文V5.5版的图像质量太差, 只有1帧/秒. 而且通话时
不能双方同时说话. (也许是我没有设置好?)
1. 网络结构
NIC0 (192.168.0.1) ------------ Hub ------------ NIC (192.168.0.2)
| |
| |
Linux (mdk 8. |
|
a*******e 发帖数: 3021 | 30 网络结构是这样的
windows - router1 - wan - router2 - linux
可以从 windows ssh 到 linux 上
怎么能设置一下比如ssh tunnel或者 reverse tunnel什么的可以从linux连接到
windows的remote desktop?
谢谢 |
|
w***g 发帖数: 5958 | 31 mxnet应该是目前最好的实现了吧。
说实话神经网络最啰嗦的是调网络结构,就是对着输一遍
都看得眼花。caffe的model直接下下来就能用,这个太有
吸引力了。 |
|
w***g 发帖数: 5958 | 32 mxnet应该是目前最好的实现了吧。
说实话神经网络最啰嗦的是调网络结构,就是对着输一遍
都看得眼花。caffe的model直接下下来就能用,这个太有
吸引力了。 |
|
t*y 发帖数: 7 | 33 类似于VC理论这种的。
比如说在给定网络结构的情况下(包括神经元的函数形式),有没有什么基本的收敛性
方面的性质?类似于收敛速度或者cost function的下界之类的?总觉得什么问题都是
手动调加上暴力scale有什么地方觉得不对劲。 |
|
|
c****3 发帖数: 10787 | 35 你的需求没看懂,反正要改TCP地址,象你这样要两个TCP连接,一个是源设备和你程序
的,一个是你的程序和目标设备的。而且目标设备看到的连接,是来自你程序的IP.
你想要目标设备看到的连接IP还是来自源设备,就得像路由器那样工作,到raw socket
上更改IP然后转发。反正挺麻烦的,还不如用网络结构,做TCP的端口映射简单。是个
路由器都能做端口映射。 |
|
c*****w 发帖数: 50 | 36 convolution enables weight sharing。否则干嘛用convolution,直接上full
connection不久好了。convolution限制了神经网络的结构,减少了参数数量,减少了
overfitting的可能。实际上神经网络最大的问题之一就是overfitting,说明网络结构
还不是最优。 |
|
c*****w 发帖数: 50 | 37 convolution enables weight sharing。否则干嘛用convolution,直接上full
connection不久好了。convolution限制了神经网络的结构,减少了参数数量,减少了
overfitting的可能。实际上神经网络最大的问题之一就是overfitting,说明网络结构
还不是最优。 |
|
x****u 发帖数: 44466 | 38 难道不是因为这个原因:网络结构写起来是T变量组合,实际是什么鬼才知道得计算图
编译后再看?
我对这些物理概念都外行,但感觉搞AI那些人前几十年被逼无奈把全世界能借鉴的概念
都拿来挨个试了一遍。 |
|
C*****5 发帖数: 8812 | 39 同意。DL关键还是对算法和网络结构的理解。语法越简单越好。自己写op就得用cuda C
,实在是没有java什么事。 |
|
x****u 发帖数: 44466 | 40 首先keras是theano的后端啊,它把theano该包装没好好包的东西都做的很平易近人
后来tf出来,keras又抱对了大腿,老theano后端的代码做很小改动就能直接在TF上跑。
有些事情不需要做奇奇怪怪的网络结构,这时候与其直接上变化不断的TF,keras这个
高抽象层就很方便了 |
|
l*******m 发帖数: 1096 | 41 如果要用自己的网络结构,没有pretrained,就要自己训练imagenet, 这个可是GPU越
多越好。对fcn而言,batch size=1, 就是在不同图像大小时比较方便,不过就不能用
batch norm了。其实,使用 patch/crop/pad整成一样大小的batch, 还是会快些,而且
可以用batch norm
当然双路适合折腾,reduce, sync什么的。如果GPU的芯片相同,可能会支持P2P通信,
不用走CPU. 还有如果网络中有batch norm, 为了速度,batch norm一般是local的,但
是反而比单GPU(同步)的性能好一点点,我估计有些ensembling gain |
|
w***g 发帖数: 5958 | 42 对。但是keras我还是很看不上的。因为keras把TF真正flexible的东西给干掉了,
然后还是expose出来简化的堆layer的接口,让用户觉得自己能堆layer干了事情。
现在的DL模型,每一个都有大量重复性的东西,有人甚至在paper上画一个几十
层的网络结构。这个直接就倒退到graphical model (重复的东西加一个框表示)
以前了。一个语言,或者一个库写出来的程序如果有大量重复性的东西,那就是
这个语言设计不好,表达力不够。这是我觉得王垠或许能有很大贡献的地方。
而且此公人气大,宣传起来容易。 |
|
s********k 发帖数: 6180 | 43 softmax 是基本配置,但是不太明白楼主为什么要字母和数字分开training,可
以直接当做一个36类的softmax,否则就two stage来做先判断字母还是数字,在进一步
,不过网络结构没必要分别作 |
|
l*******m 发帖数: 1096 | 44 这个前提是知道模型的网络结构和权重。当然这样也有些恐怖,坏蛋可以从做模型的码
工下手。。。
:没人关注?
:这直接判了两种应用的死刑: |
|
g****t 发帖数: 31659 | 45 图灵机总有漏洞。但是只要能提高几个百分点的生产效率就好了。卡车司机工资那么高
,少雇10%的人未必不能做到。医生就更别提了。
: 这个前提是知道模型的网络结构和权重。当然这样也有些恐怖,坏蛋可以从做模
型的码
: 工下手。。。
: :没人关注?
: :这直接判了两种应用的死刑:
|
|
l*******m 发帖数: 1096 | 46 这个前提是知道模型的网络结构和权重。当然这样也有些恐怖,坏蛋可以从做模型的码
工下手。。。
:没人关注?
:这直接判了两种应用的死刑: |
|
g****t 发帖数: 31659 | 47 图灵机总有漏洞。但是只要能提高几个百分点的生产效率就好了。卡车司机工资那么高
,少雇10%的人未必不能做到。医生就更别提了。
: 这个前提是知道模型的网络结构和权重。当然这样也有些恐怖,坏蛋可以从做模
型的码
: 工下手。。。
: :没人关注?
: :这直接判了两种应用的死刑:
|
|
L****8 发帖数: 3938 | 48 自动寻找最优网络结构
人要做的就是准备数据
有钱 |
|
g****t 发帖数: 31659 | 49 前几天有人在EE问为毛深度学习这么像自适应滤波。
哎....
1.
早先神经网络一个人叫罗什么。和明斯基是高中同学。
罗什么是最早一种神经网络的鼓吹人和计算机程序实现人。
名噪一时。据说得罪了不少人。明斯基早先是他这边的。
后来明斯基写了本名著攻击神经网络。这明星学者罗什么
早早的就死了。不知是否自杀。
2.
然而,当时有个不是那么出名的分类器,叫做
widrow-hoff学习算法什么的。widrow在这摊子烂事
出来之后,就不提神经网络了。本身widrow就是EE的。
也不和这帮人一个资金来源。
3.
为了实现硬件方便,
Widrow 把Sigmoid改成y=x纯线性的滤波器,只保存
学习办法,也就是approximate gradient.还有网络结构,
就是线性权值互联。这就是世界上应用最广泛的least mean square 滤波器的来源。
今日我们很难想象,数字滤波器的一大源头其实是神经网络。但在当时是很自然的。因
为那时候还没有大规模的
大规模的线性数字滤波器件。
后来社会需要大规模集成电路上的各种自适应滤波--也就是学习。不然自适应个蛋啊。
4.
当时懂大规模信号连接和... 阅读全帖 |
|