t**r 发帖数: 3428 | 1 有大牛可以说说scikit-learn哪些方面不如tf么?
刨除掉tf有谷歌cloud支持这方面。单就算法来说。 |
x****u 发帖数: 44466 | 2 tf支持gpu啊,速度优势太大
【在 t**r 的大作中提到】 : 有大牛可以说说scikit-learn哪些方面不如tf么? : 刨除掉tf有谷歌cloud支持这方面。单就算法来说。
|
d****n 发帖数: 12461 | 3 tensorflow比theano慢。而且一般的云环境好像很少有gpu集群的。
【在 x****u 的大作中提到】 : tf支持gpu啊,速度优势太大
|
x***4 发帖数: 1815 | 4 完全不同两样东西。scikit里面是各种各样统计方法,tf是nn。
【在 t**r 的大作中提到】 : 有大牛可以说说scikit-learn哪些方面不如tf么? : 刨除掉tf有谷歌cloud支持这方面。单就算法来说。
|
C*****5 发帖数: 8812 | 5 新的1.0版已经比theano快了。
【在 d****n 的大作中提到】 : tensorflow比theano慢。而且一般的云环境好像很少有gpu集群的。
|
x****u 发帖数: 44466 | 6 th改一下rnn模型,编译时间令人发指的长啊
一块好的gpu等于100块cpu,这个成本差距太大了。就算你是土豪不差钱,大部分搞研
究的都差钱,也不会陪你玩cpu云啊。
【在 d****n 的大作中提到】 : tensorflow比theano慢。而且一般的云环境好像很少有gpu集群的。
|
w***g 发帖数: 5958 | 7 你这个确认了我长久以来的观察和猜测。
【在 d****n 的大作中提到】 : tensorflow比theano慢。而且一般的云环境好像很少有gpu集群的。
|
d****n 发帖数: 12461 | 8 那我可以试试。不过现在生产环境是python2.7+centos6,没机会用tf1.0
【在 C*****5 的大作中提到】 : 新的1.0版已经比theano快了。
|
d****n 发帖数: 12461 | 9 对,tf编译快,运行慢。但是即使简单模型也要迭代很多次,最后好像一个模型从编译
到出结果的时间还是theano快。
gpu的问题是更新太快,当代的能坚持2年就不错了,但是cpu已经完全虚拟化了,即使
是硬件cpu也可以在市场上3-5年,符合大部分项目的研发周期。所以gpu目前不符合大
多数公司的采购模式和开发模式。
【在 x****u 的大作中提到】 : th改一下rnn模型,编译时间令人发指的长啊 : 一块好的gpu等于100块cpu,这个成本差距太大了。就算你是土豪不差钱,大部分搞研 : 究的都差钱,也不会陪你玩cpu云啊。
|
x****u 发帖数: 44466 | 10 CPU多一倍寿命,但GPU效率是100倍,这个差距还是太明显啊
现在CS最前端的高性能计算,要不是走GPU路线,要不是走众核非x86模式,都是主频摩
尔定律停滞的结果
【在 d****n 的大作中提到】 : 对,tf编译快,运行慢。但是即使简单模型也要迭代很多次,最后好像一个模型从编译 : 到出结果的时间还是theano快。 : gpu的问题是更新太快,当代的能坚持2年就不错了,但是cpu已经完全虚拟化了,即使 : 是硬件cpu也可以在市场上3-5年,符合大部分项目的研发周期。所以gpu目前不符合大 : 多数公司的采购模式和开发模式。
|
C*****5 发帖数: 8812 | 11 要编译快上torch,编译时间=0
【在 d****n 的大作中提到】 : 对,tf编译快,运行慢。但是即使简单模型也要迭代很多次,最后好像一个模型从编译 : 到出结果的时间还是theano快。 : gpu的问题是更新太快,当代的能坚持2年就不错了,但是cpu已经完全虚拟化了,即使 : 是硬件cpu也可以在市场上3-5年,符合大部分项目的研发周期。所以gpu目前不符合大 : 多数公司的采购模式和开发模式。
|
k****i 发帖数: 101 | 12 cpu版neon贼快
gpu一出 然并暖
【在 w***g 的大作中提到】 : 你这个确认了我长久以来的观察和猜测。
|