由买买提看人间百态

boards

本页内容为未名空间相应帖子的节选和存档,一周内的贴子最多显示50字,超过一周显示500字 访问原贴
Programming版 - ubuntu apt-get 404了
相关主题
关于服务器host服务器做开发,有人愿意share cost吗?
Re: 谁给讲讲NVDA和INTC的关系 (转载)搞deep leaning是自己买台带GPU的服务器还是用AWS划算?
1-2ms内反馈工作用还是得有desktop啊
WhatsApp, SnapChat 都有自己的数据中心吗?GPU高手谈谈怎么利用GPU做data intensive的计算和mapreduce 吧
这个版看来是毁了请问程序同时在多个cpu上运行需要怎么改程序?
求教 网络大侠, 如何提高网卡吞吐量谈谈想学好底层必不可少的东西
xeon phi就是翔啊写给对系统感兴趣的人
这里有人气,请教个小白问题。 (转载)nv的显卡能战胜intel的CPU么
相关话题的讨论汇总
话题: movidius话题: inference话题: 服务器话题: apt话题: 404
进入Programming版参与讨论
1 (共1页)
w***g
发帖数: 5958
1
戒断反应很强烈,今夜无法move on了。
搞了个movidius计算棒玩,但是又不知道写什么程序好。
m****o
发帖数: 182
2
这个计算棒看来不错,可以玩一下cuda了,说是支持tensorflow,需要额外配置安装些
东西吗?

【在 w***g 的大作中提到】
: 戒断反应很强烈,今夜无法move on了。
: 搞了个movidius计算棒玩,但是又不知道写什么程序好。

x****u
发帖数: 44466
3
找个国内镜像的source?

【在 w***g 的大作中提到】
: 戒断反应很强烈,今夜无法move on了。
: 搞了个movidius计算棒玩,但是又不知道写什么程序好。

w***g
发帖数: 5958
4
是docker cache的apt-update太老了。

【在 w***g 的大作中提到】
: 戒断反应很强烈,今夜无法move on了。
: 搞了个movidius计算棒玩,但是又不知道写什么程序好。

x*****2
发帖数: 117
5
movidius适合于不方便联网做inference的场合,例如无人直升机大疆就在用。

:戒断反应很强烈,今夜无法move on了。
b*******r
发帖数: 713
6
“movidius适合于不方便联网做inference的场合”
你是说用户不用把图像发到网络服务器,在服务器上做inference之后再发回来对吗?

【在 x*****2 的大作中提到】
: movidius适合于不方便联网做inference的场合,例如无人直升机大疆就在用。
:
: :戒断反应很强烈,今夜无法move on了。
: :

w***g
发帖数: 5958
7
其实在小型服务器上做demo可能也是有用的。这也是我买这个的主要原因。
现在数据中心还有大量老的服务器没法装GPU。目前用CPU inference,
200x200的图片一秒钟10张的样子。如果装上这个能够把throughput增加
10倍,那么作用还是很明显的。而且便宜!

【在 x*****2 的大作中提到】
: movidius适合于不方便联网做inference的场合,例如无人直升机大疆就在用。
:
: :戒断反应很强烈,今夜无法move on了。
: :

w*****r
发帖数: 197
8
Intel对于dl的解决方法应该还处于混沌阶段,尚未收敛,不同部门方案,road map听
来的都不一样。现阶段下大力气跟进,有风险。


: 其实在小型服务器上做demo可能也是有用的。这也是我买这个的主要原因。

: 现在数据中心还有大量老的服务器没法装GPU。目前用CPU inference,

: 200x200的图片一秒钟10张的样子。如果装上这个能够把throughput增加

: 10倍,那么作用还是很明显的。而且便宜!



【在 w***g 的大作中提到】
: 其实在小型服务器上做demo可能也是有用的。这也是我买这个的主要原因。
: 现在数据中心还有大量老的服务器没法装GPU。目前用CPU inference,
: 200x200的图片一秒钟10张的样子。如果装上这个能够把throughput增加
: 10倍,那么作用还是很明显的。而且便宜!

x*****2
发帖数: 117
9
是的。轻量级终端不可能上GPU,所以要么靠网络,要么用像movidius这样的本地加速。

:“movidius适合于不方便联网做inference的场合”
x*****2
发帖数: 117
10
嗯,值得一试。不过,这东西在performance上是否会比i7或者Xeon强,我依然持审慎
的态度。当然了,如果服务器上还有其它任务,这东西解放大量CPU时间肯定不成问题。

:其实在小型服务器上做demo可能也是有用的。这也是我买这个的主要原因。
:现在数据中心还有大量老的服务器没法装GPU。目前用CPU inference,
1 (共1页)
进入Programming版参与讨论
相关主题
nv的显卡能战胜intel的CPU么这个版看来是毁了
没人讨论这个?求教 网络大侠, 如何提高网卡吞吐量
并行可以降低计算复杂度??xeon phi就是翔啊
妈的怎么那么多鸡毛语言/软件这里有人气,请教个小白问题。 (转载)
关于服务器host服务器做开发,有人愿意share cost吗?
Re: 谁给讲讲NVDA和INTC的关系 (转载)搞deep leaning是自己买台带GPU的服务器还是用AWS划算?
1-2ms内反馈工作用还是得有desktop啊
WhatsApp, SnapChat 都有自己的数据中心吗?GPU高手谈谈怎么利用GPU做data intensive的计算和mapreduce 吧
相关话题的讨论汇总
话题: movidius话题: inference话题: 服务器话题: apt话题: 404