由买买提看人间百态

topics

全部话题 - 话题: 计算速度
1 2 3 4 5 6 7 8 9 10 下页 末页 (共10页)
f*****6
发帖数: 5
1
来自主题: Computation版 - 问一个提高matlab计算速度的问题!
应该是分块算法吧,主要是通过cache-awareness提高计算速度,一般将好的cache-
awared算法可以提高10倍左右的速度。
M*******p
发帖数: 5626
2
小李韧性依旧,搅技依旧,但是计算速度和形势判断都明显不如巅峰时期。
s***g
发帖数: 1250
3
是通过GPS吗?这样的话,室内不就不能计算速度了
d******a
发帖数: 32122
4
上NVIDIA独立显卡,然后用CUDA是否可以大幅度提高计算速度?
a***n
发帖数: 3633
5
来自主题: Linux版 - 怎么估算RPi的计算速度?
请问怎么可以估计raspberry pi对矩阵向量的计算速度?
就像在DSP C64x 那样告诉了矩阵的维数,就可以大致估计
一下需要的时间?
http://www.ti.com/lsds/ti/dsp/c6000_dsp/c64x/benchmarks.page

发帖数: 1
6
在计算机时代,有个著名的摩尔定律,就是说同样成本每隔18个月晶体管数量会翻倍,
反过来同样数量晶体管成本会减半,这个规律已经很好地吻合了最近50年的发展,并且
可以衍生到很多类似的领域:存储、功耗、带宽、像素。
两年前的这个月是摩尔定律发表50周年,整整半个世纪。当时IEEE Spectrum为了纪念
摩尔定律50周年,特地发表了四篇关于摩尔定律的文章。其中一篇的题目叫“Moore’s
Law is Dying (and That Could Be Good)”,说的是摩尔定律不可能继续下去了。
1965年微芯片上的元件数增加了1倍,Gordon Moore于是预言这一趋势近期内将继续。
1975年他修改为每两年翻一翻,后来又说是18个月,或者说按指数律增长,每年46%。
这就是摩尔定律。摩尔定律预言了半导体产业50年的发展。摩尔预言了一个光辉的未来
,改变了世界。
这样高速的增长在其他产业是见不到的。美国的主粮玉米从1950年以后平均产量每年增
长2%,蒸汽涡轮式发电机把热能转换为电能,其效率在20世纪年增长率为1.5%,而1881
-2014室内灯光有效性(流明每瓦)年平均增长2.... 阅读全帖

发帖数: 1
7
【 以下文字转载自 Physics 讨论区 】
发信人: daguanyuan (jiazheng), 信区: Physics
标 题: [转帖]潘建伟等的量子计算和量子通讯也都是假的?
发信站: BBS 未名空间站 (Sun Jan 20 11:43:16 2019, 美东)
http://club.kdnet.net/dispbbs.asp?id=13076131&boardid=1
量子计算机和永动机—兼评郭光灿院士在深圳高交会上的报告
原创物理研究 2018-11-23 17:59:57
量子计算机和永动机—兼评郭光灿院士在深圳高交会上的报告
量子计算机和永动机
— 兼评郭光灿院士在深圳高交会上的报告 —
梅 晓 春
福州原创物理研究所
2018年11月15日上午,中国科技大学量子信息专家,中国科学院院士郭光灿教授在
深圳高交会上发表演讲。看完报道,本人觉得有必要进行评论,并再次提出,量子计算
机违背自然界的基本原则和事物的基本逻辑,类似于永动机,是根本造不出来的。
郭光灿院士在报告中有三点值得关注:
1... 阅读全帖
t******a
发帖数: 140
8
财新网】(记者 于达维
财新记者个人主页——在这里“遇见作者”于达维
财新记者

实习记者 陈梦凡)1月9日,2014年度的国家自然科学一等奖被颁给了清华大学教授
、中南大学校长张尧学团队的项目——“网络计算的模式和基础理论研究”。但这项研
究是否原创,是否具备创新性以及是否具备产业化的前景,在中国计算机学界引发争议


这项技术被俗称为“透明计算”。科学网一篇名为《解读自然科学一等奖:透明计
算“云”时代》的报道这样写到:一个由中国科学家提出、定义、设计并实现的计算机
领域的原创成果,斩获了中国基础研究桂冠——2014年度国家自然科学奖一等奖。这就
是被国外同行称为“先于云计算、包含云计算”的网络计算理论及模式——“透明计算
”。

但在科学网上述报道下方的评论栏内,一度有不少网友对该奖提出质疑,不少自称
码农和计算机业内人士的网友都评论称此奖“太水”。1月15日,财新记者在科学网上
再次打开这篇报道时,所有的评论都没有了。

虽然这篇报道下方的评论“消失”了,但近日在科学网博客、新浪微博、知乎等平
台上,依然不乏对此奖的质疑之声。

在网络平台之外,也有数位国内计... 阅读全帖
a**********u
发帖数: 28450
9
摘要:在这位研究员看来,也正是因为没法实现,这个项目就没法申请科技进步奖,只能
申请自然科学奖,但是大家更没法认可。"这个奖是有问题的,但是...自1999年国家科学
技术奖励制度改革之后,国家自然科学一等奖出现了多次空缺。2002年颁给了蒋锡夔等
人的"物理有机化学前沿领域两个重要...
获国家自然科学奖一等奖的“透明计算”,究竟是“开启了计算机新时代”,还是“一
个基本无法实现的好概念”,业内存有争议
(记者 于达维 实习记者 陈梦凡)1月9日,2014年度的国家自然科学一等奖被颁
给了清华大学教授、中南大学校长张尧学团队的项目——“网络计算的模式和基础理论
研究”。但这项研究是否原创,是否具备创新性以及是否具备产业化的前景,在中国计
算机学界引发争议。
这项技术被俗称为“透明计算”。科学网一篇名为《解读自然科学一等奖:透明计
算“云”时代》的报道这样写到:一个由中国科学家提出、定义、设计并实现的计算机
领域的原创成果,斩获了中国基础研究桂冠——2014年度国家自然科学奖一等奖。这就
是被国外同行称为“先于云计算、包含云计算”的网络计算理论及模式——“透明计算
”。
但在科学网上述... 阅读全帖
b***y
发帖数: 372
10
【 以下文字转载自 ChinaNews 讨论区 】
【 原文由 sleetrain 所发表 】
中国速度最快的计算机曙光3000露面
2001-02-17 19:10:43
用一半的设备,48小时的精确天气预报数据处理只需1小时38分
钟;用1/4的设备,一个月的气候预报仅用15分钟;用1/16的设备
,1000万人每人每天可以在网上点击800次网页;用1/32的设备,10
00万人每人每天可以收发7封“伊妹儿”,足以为全国网民服务。中
国运行速度最快的高性能计算机———曙光3000超级服务器今天在北
京亮相,它的峰值计算速度达到每秒4032亿次。此前,中国最快的计
算机的运算速度为每秒3800亿次。
研制经费高达6000万元的曙光3000由70个节点(280个处理机)
构成,其运算速度比1986年启动863计划时所预定的2000年计算机主
题每秒100亿次交账目标还要快40倍,排在全世界运算速度最快的500
台高性能计算机的第80位左右,计算能力超出国外目前对我国禁运的
高端计算机一个数量级。据介绍,高性能计算机一般分两种,一种是
超级计算机,如我国的神威计算机,目前世界最快的由IB
C**********e
发帖数: 23303
11
纽约11月17日 全球超级计算机TOP 500组织17日在美国正式发布了全球超级计算机500
强最新排行榜,中国国防科技大学研制的“天河二号”超级计算机,以每秒33.86千万
亿次的浮点运算速度,第四次摘得全球运行速度最快的超级计算机桂冠。
全球运行速度第二快的超级计算机,是美国能源部下属橡树岭国家实验室的“泰坦”,
其浮点运算速度为每秒17.59千万亿次,美国劳伦斯-利弗莫尔国家实验室的超级计算机
“红杉”在此次全球超级计算机500强排行榜中位列第三。
由国防科大研制的“天河二号”超级计算机系统,以峰值计算速度每秒54.9千万亿次、
持续计算速度每秒33.9千万亿次双精度浮点运算的优异性能位居榜首,成为全球最快超
级计算机。
在最新全球超级计算机500强排行中,全球最快的五台超级计算机中,有三台为美国所
拥有。但美国能源部仍将投入巨资打造更快的超级计算机。
据报道,11月14日,总部位于纽约州的计算机巨头美国国际商用机器公司(IBM)宣布了
一项3.25亿美元的协议,向美国能源部提供一种新型超级计算机,其数据传输的速度和
效率均超过了市面上其他的硬件系统。这两台超级计算机分别名为Si... 阅读全帖
m**d
发帖数: 21441
12
据央视新闻8月11日消息,量子芯片相当于未来量子计算机的“大脑”,研制成功后可
实现量子的逻辑运算和信息处理。有了计算,量子的存储及控制技术也必不可少。这款
三明治型的固态量子存储器,在低温有磁场的辅助设备中才能工作。
中科院量子信息重点实验室研究员周宗权表示,下一步发展方向,要把这个量子存储器
做小做得齐整化,以延长它的寿命,最终我们希望做成一个像经典的便携式U盘一样方
便使用的器件,实现超远距离的量子态量子信息的传输。
量子计算机以其惊人的计算速度和性能被认为即将颠覆现有的普通计算机,“量子芯片
”作为量子计算机的“大脑”,是体现和普通计算机差异的核心。目前,国内外研究机
构都开始对这一领域展开了研究,而中国也无疑已经走在了前列。
在8月4日出版的《自然》杂志的一篇封面文章中,与马里兰大学联合量子研究所(JQI)
和量子信息和计算机科学联合中心成员Christopher Monroe一起合作的研究人员提出了
第一个完全可编程和可重新配置的量子计算机模块。
上周,《物理评论快报》(Physical Review Letters)报道称,牛津大学教授的研究
实现了量子计算机研发进程的一... 阅读全帖
C*****z
发帖数: 2050
13
那就正常了,215/60R16比215/45R17直径小1"多,当汽车按原始轮胎尺寸计算的速度是
72 mph的时候,实际速度才大约68 mph,而表显速度还往往比计算速度高一些。
s********0
发帖数: 51
14
aws $.65的GPU 就只有8个core, 而那个电脑有1500多个,这个计算速度的差距应该挺
大的吧。现在用H2O来做deep learning,我用domino测试了一下,似乎并行计算的效率
挺高的。如果运算速度真的可以提高1000多倍,那还是挺爽的。
t***h
发帖数: 5601
15
来自主题: Military版 - 方舟子: 不透明的“透明计算?
“透明计算”获大奖引发诸多争议
2015-01-17  来源:财新网  作者:于达维 陈梦凡
【财新网】(记者 于达维 实习记者 陈梦凡)1月9日,2014年度的国家自然科学一等
奖被颁给了清华大学教授、中南大学校长张尧学团队的项目“网络计算的模式和基础理
论研究”。但这项研究是否原创,是否具备创新性以及是否具备产业化的前景,在中国
计算机学界引发争议。
这项技术被俗称为“透明计算”。科学网一篇名为《解读自然科学一等奖:透明计
算“云”时代》的报道这样写到:一个由中国科学家提出、定义、设计并实现的计算机
领域的原创成果,斩获了中国基础研究桂冠。但在科学网上述报道下方的评论栏内,一
度有不少网友对该奖提出质疑。1月15日,财新记者在科学网上再次打开这篇报道时,
所有的评论都没有了。
在网络平台之外,也有数位国内计算机专家接受财新记者和其他媒体采访对该奖提
出质疑。尚有专家言语激烈。
在许多质疑者眼中,“透明计算”既缺乏理论创新、也缺乏应用突破;相对计算机
业内的前沿技术来说,最多是对一些成熟的开源应用,做了一定的集成和二次开发。
中科院计算所一位暂时不愿具名的研究员告诉财新记者,他的观点... 阅读全帖
y**b
发帖数: 10166
16
今天整理一下计算数据,吓一大跳,有很多efficiency>100%的情况。不仅如此,计算
规模越大(用到节点数越多),该情况越显著。
小规模计算(最多使用8节点)普遍低于100%;
中等规模计算(最多使用64节点)竟然全部大于100%;
大规模(最多使用1024个节点)在32节点下效率竟然达到2000%,768节点仍然有130%,
1024节点才降到87%。
我这个计算的特点是对内存要求极低,但对cpu要求非常高。确实具备了凑巧能把数据
放进cache的可能?
另外当时做这些计算用的是自己费力不讨好编译的intel mpi(同时还编译了openmpi,
稳定性差些就没采用),没用原机默认的mpi库(或者当时就没有,但后来os升级后又都
提供了),会不会有啥影响,现在都重算一遍是不可能了。
d******a
发帖数: 32122
17
来自主题: Hardware版 - 用GPU加快计算速度是自动的吗?
比如我原先使用cpu上自带显卡,完全依靠CPU计算。我插入一块GTX 1060显卡,那么
7zip的解压压缩速度立刻加倍?Microsoft R (据说根据显卡优化了)运行速度立刻加
倍?
还是我必须自己根据cuda写代码?
自己手动写代码就没劲了
我不玩游戏
g*****a
发帖数: 340
18
来自主题: Computation版 - 问一个提高matlab计算速度的问题!
是不是说用matlab对于矩阵计算的优势提高element by element运算的速度?
或者是把多个二维矩阵的运算放到一个大的三维矩阵中,理论上应该可以提高速度的。
s******n
发帖数: 6806
19
来自主题: Computation版 - 请教一个计算速度的问题
一直以为matlab计算很慢,所以在学着用GSL,
在求解一个线性系统Ax=b;
A大概是1000x1000的稀疏矩阵。
1.在matlab里面直接用x=A\b; 小于10秒的时间结果就出来了。
2. 但是,同样的数据,一样的规模,我在VC里面用GSL去算,
分别用了 LUsolver, svdSolver,和householder solver,
都非常慢,最快的是LUsolver,用了大概2.5mins。其他两个都大于5分钟,
我就给程序stop了。
这个速度的比较让我很失望,不知道为什么会差这么多,
如果这样那还不如就用matlab算了。
大家用过GSL里这些solver的,觉得速度怎么样呢?
m*****n
发帖数: 5611
20
【 以下文字转载自 Automobile 讨论区 】
发信人: mifepristone (弃婴), 信区: Automobile
标 题: 速度表快一点还是慢一点都很正常
发信站: BBS 未名空间站 (Wed Dec 28 02:01:11 2011, 美东)
因为现在速度表都不是传统机械速度表,都是先用霍尔效应传感器
将变速器输出轴转速数字化,再输入ECU进行运算获得.
速度计上有几个齿,转动的时候霍尔效应传感器就产生几个电脉冲,
计算机根据电脉冲的个数来计算速度.这个齿数类是AD转换器的位数,
齿数越高,测量精度越高.但是由于速度计体积限制,齿数都是非常有限
的几个.
现在假如速度计上有10个齿,那么速度计带来的理论误差是10%,也就是
说,如果你速度表读数为70mph,那么真实速度应该是66-74mph之间,所以
你用GPS测量到的速度快了5mph还是慢了5mph,都是正常的AD转换误差.
如果车速在70mph的时候要得到精确到个位的速度,那么误差必须在1%左右,
这样必须有100个齿,这对直径只有几个厘米的速度计来说完全是不可能
做到的,所以任何车都不能做到精确到个位的车... 阅读全帖
m**********e
发帖数: 12525
21
来自主题: Automobile版 - 速度表快一点还是慢一点都很正常
因为现在速度表都不是传统机械速度表,都是先用霍尔效应传感器
将变速器输出轴转速数字化,再输入ECU进行运算获得.
速度计上有几个齿,转动的时候霍尔效应传感器就产生几个电脉冲,
计算机根据电脉冲的个数来计算速度.这个齿数类是AD转换器的位数,
齿数越高,测量精度越高.但是由于速度计体积限制,齿数都是非常有限
的几个.
现在假如速度计上有10个齿,那么速度计带来的理论误差是10%,也就是
说,如果你速度表读数为70mph,那么真实速度应该是66-74mph之间,所以
你用GPS测量到的速度快了5mph还是慢了5mph,都是正常的AD转换误差.
如果车速在70mph的时候要得到精确到个位的速度,那么误差必须在1%左右,
这样必须有100个齿,这对直径只有几个厘米的速度计来说完全是不可能
做到的,所以任何车都不能做到精确到个位的车速测量
那么速度计里面究竟有几个齿呢?其实一般也就10个左右.所以一般也就是
10%左右的精度.
h*******j
发帖数: 836
22
来自主题: Computation版 - 问一个提高matlab计算速度的问题!
刚才听一个台湾哥们说好像matlab里面通过把2维数组存到3维(或者高维)提高计算线
形方程组或者矩阵的速度,据说此法是matlab特有的。他忘了具体的。我百思不得其解
,而且也没找到这个。哪位达人解释一下!多谢!
s*********d
发帖数: 19
23
来自主题: Computation版 - matlab 计算速度
调用一个2层的for循环,次数大概在400×1000左右,
循环内部只是用到向量的点乘、加法和读写文件操作,每次都是用同一个变量计算后直
接将结果写入文件
开始运行速度很快,但是运行最外层for循环的最后1/4左右时,运行效率降低很多
大概什么地方占用了系统资源?
z****s
发帖数: 192
24
用Fortran和C(not C++)一般计算速度会快很多。
以前再决定做数值计算用Fortran或C的时候曾很纠结。
后来看了一位大牛的文章决定用Fortran,现在没后悔过。
这里有一个Fortran和C谁快的比较的讨论,很有意思:
http://stackoverflow.com/questions/146159/is-fortran-faster-tha
d***a
发帖数: 13752
25
在cluster上并行效率超过100%,对一些计算/通讯比很高的程序来说,根本就不是什么
异常现象。最常见的原因是cache总和变大。一个处理器有8MB cache,32个处理器的
cache加起来就有256MB。这个现象,对搞高性能计算的人来说,是基本常识,读文献时
经常可见。我自己做实验也看到过好些次。
y**b
发帖数: 10166
26
内存这个一般倒是都会做些分析,毕竟并行计算并不只是speedup,内存够用也非常重
要。有些计算对内存需求极大,非得到多个节点上均分一下才能算得动,典型的如三维
边界元方法。
好的scalability很重要的一点就是problem size增大的时候节点内存无需增加或者只
需缓慢增加,而且还能保持iso-efficiency。对不同的具体问题这种scalability都是
不同的,一般需要推演相关公式,如三维差分流动和三维离散元就有不同的
scalability,做深度耦合并行的时候就得很注意。
但是cache这东西实在很敏感,好像也没见到啥理论分析,不过我是搞应用的这方面知
之不深。
m**u
发帖数: 541
27
撇开市场, 就纯编程的角度来讲,仍然推荐C++,不要使用.NET啥的。对于你的情况来
说,你的软件工程复杂度很低,C++是个很好的平衡,既保证了计算速度又保证了一定
的高级语言特性用于处理相对复杂一些的情况。
.NET也好,Java也好,俺测试的结果和C++做计算还是有差距的。
m**u
发帖数: 541
28
撇开市场, 就纯编程的角度来讲,仍然推荐C++,不要使用.NET啥的。对于你的情况来
说,你的软件工程复杂度很低,C++是个很好的平衡,既保证了计算速度又保证了一定
的高级语言特性用于处理相对复杂一些的情况。
.NET也好,Java也好,俺测试的结果和C++做计算还是有差距的。
i*****d
发帖数: 5
29
我要在UNIX平台上,用C语言调用一个仿真软件,为提高计算速度,希望
能用多CPU同时运行计算,如何实现呢?
谢谢各位大虾指教!
j**u
发帖数: 6059
30
☆─────────────────────────────────────☆
cswbww (因为俗,所以不可耐) 于 (Thu Oct 25 00:50:32 2007) 提到:
发信人: cswbww (因为俗,所以不可耐), 信区: JobHunting
标 题: 问问做学生时搞计算的
发信站: BBS 未名空间站 (Thu Oct 25 00:20:30 2007)
如果不是用C++,而是用matlab之类的,有自告奋勇跟导师讲,改C++编的吗?
☆─────────────────────────────────────☆
galaxy (明月清风) 于 (Thu Oct 25 03:49:51 2007) 提到:
这个牛,呵呵

☆─────────────────────────────────────☆
jzxu (自然) 于 (Thu Oct 25 08:33:00 2007) 提到:
如果matlab的计算速度对你的问题足够的话,很难想象老板会答应你花很多时间在C++
coding上
☆───────────────────────
a**a
发帖数: 416
31
来自主题: Computation版 - 请教一个计算速度的问题
不错.即使是稀疏矩阵计算, 里面使用的实际上是分块稀疏矩阵算法, 每一小块
又使用稠密的矩阵算法, 调用的是底层blas库, matlab的情况就是MKL. 所以
底层的blas库对于稀疏矩阵计算的效率也是至关重要的。
w****y
发帖数: 2501
32
gps能比较精确给出的是经度和纬度吧?如果是这样的话,那就只有角坐标。光有角坐
标是不能计算速度的,要有弧长(“海拔”)才行。按照dsb所说如果gps给的是大圆速
度,这个大圆就跟“海拔”有关了。gps认为的“海拔”越高,报告的速度就越快。
h****e
发帖数: 2153
33
内存的速度都是慢的,总线啥的貌似都跟不上处理器的速度了。
n******7
发帖数: 12463
34
我说的是data或者参数split
如果你需要测试不同data或者参数的结果,每个job分别处理不同的data/parameter就
好了
这是最简单的利用多核的方式
STATA我没用过,不知道改成C#能有多少提高
不过我一年前遇到过类似的情况
我的code开始是用R写的,本来够快
后来加了一些步骤之后慢的不行了
我就改成了java,速度大概50X以上
后来我又改成多线程了,并行度接近100%,所以速度是16X
这样运行时间降低了大概3个数量级
不过我要提醒你一点,java这样的通用语言统计方面的包远不如R之类的专业语言
不少东西我只好自己实现,很蛋疼
我估计你用C#也会有这个问题
s*****c
发帖数: 25
35
来自主题: TexasHoldem版 - 免费holdem odds 计算app
很不错啊,而且计算速度很快。可以大约说下multi way的range vs range 算法吗?比
如hero底牌对抗两个range.
g****7
发帖数: 1104
36
来自主题: Movie版 - 大脑是有计算速度极限的
这个解释了为啥梦中时间过得比现实快很多。
因为做梦都是很大脑不需要分配线程给其他感知器官,把计算能力集中于做梦之上,所
以可以在瞬间发生很多事情。而醒来之后大脑的思考能力就受到了限制。
从这一点出发,如果能够让人在梦中思考将是大大提高智力的渠道!
T******e
发帖数: 18290
37
来自主题: Joke版 - 科学家的计算能力
哦,其实人的智商是多方面的,有的计算速度很快的人,其实当银行出纳最合适
A*****4
发帖数: 465
38
CPU: Intel i7-960
Memory: G.Skill 2×4G
Motherboard: GIGABYTE GA-X58A-UD3R LGA 1366 Intel X58 SATA 6Gb/s USB 3.0 ATX
感觉是不是memory小了点?要不要再加一个4G的内存条?
CPU应该换成i7-2600的吗? 但2600都是LGA1155的,不知道会不会对计算速度有影响?
F****3
发帖数: 1504
39
来自主题: Hardware版 - 请教配置个搞计算的台式机
你的电脑真强大啊!
光CPU就25686多分。。。
可惜多核运算对我没用,我需要磁盘IO throughput大,可能只能配硬件RAID 卡
楼主:我觉得你还是搞一个计算中心的账户放到node上面省事很多。我买的工作站吵死
人,晚上只能堵住耳朵睡。我的一个朋友借我的账户跑并行计算,速度据他说很牛逼,
不过他搞的什么进化算法并行程度很高。
n******7
发帖数: 12463
40
现在mpi也可以做shared memory计算
纯用mpi比mpi+openmp性能还好
不过这是我同事说的,他用纯mpi做了一个hybrid的并行项目
y**b
发帖数: 10166
41
mpi一直可以做shared memory计算,在一台机器的内存里面通讯,性能能不好吗。
用mpi比mpi+openmp性能还好,很多情况是这样的,我做的情况也是如此。但是不能排
除有些情况不是如此。
关键是,mpi从设计到完成比openmp复杂太多。一个项目,时间上很可能不允许做mpi(
没个半年设计、开发、调试、大规模测试很难搞定),但是openmp很简单,几天几周基
本都能搞定。
mpi一旦做好了,就不是openmp能比的了。openmp只能运行在一个节点或一台工作站上
,mpi就没这个限制了,几百几千个节点并行的威力没法比。
n******7
发帖数: 12463
42
就是跟串行的比较
1个core 要200h
64个core 只要1h
明显不对
不过paper已经发了
也没人管了
我感觉并行最关键的还是问题的领域
我们领域的问题基本都是高度可并的
其实单机并行我已经觉得很爽了
现在版上的千元双路机都有16核32线程
单机并行就可以缩短运行时间一个数量级
很客观了
也准备找机会玩玩MPI,一直对分布式计算很有兴趣
a***n
发帖数: 3633
43
来自主题: Linux版 - 怎么估算RPi的计算速度?
谢谢了。我现在还没有程序,就是想先估算一下,不知道有没有
像TI那样的计算公式,告诉矩阵的维数就可以大概知道需要多少
个cycle。
我打算用atlas库。之前我研究了一下,有可能rpi不占优,ARMv6毕竟有些老。
D***r
发帖数: 7511
44
如果计算速度足够快,算法足够先进
数据来源或representation并不重要,只要量大、信息包含完整就成
你知道twitter的一个project怎么处理文本信息的吗
没有任何语言分析,甚至连词都不看,只看四个字母组成的序列
比如一条tweet是I am happy today.
那对应的feature就是I_am, _am_, ...happ,appy, ppy_....
最后根据这个,用统计方法居然能算出来语言包含的情绪
这对搞语言学分析的人是致命一击
因为只要数据在,就能算出几乎所有东西
当然,你得知道想要什么,这个还是得看应用背景

groups

发帖数: 1
45
看报道上说DNA可以并行计算,速度大大超过传统计算机,about 1000 petaFLOPS
could be reached,。最近又实现了在DNA上存储电影。这项编码技术可以将215PB(
petabytes)的数据打包进仅一克的DNA分子中,相当于2亿部电影!在摩尔定律已经停
滞的今天,没想到生物领域却做出了这么大的突破,令我对生物千老刮目相看!
N*********e
发帖数: 293
46
后半段暴露了你的浅薄

看报道上说DNA可以并行计算,速度大大超过传统计算机,about 1000 petaFLOPS

发帖数: 1
47
听到风就是雨的,离应用还早着呢。

看报道上说DNA可以并行计算,速度大大超过传统计算机,about 1000 petaFLOPS
k******n
发帖数: 35
48
来自主题: Computation版 - 请教一个计算速度的问题
gsl用的是dense algorithms。在matlab里,如果你的矩阵是稀疏的,matlab会调用
umfpack来求解。即使对稠密矩阵,gsl也有可能比matlab慢,因为matlab用intel的
LAPACK。由于技术的原因,gsl还没有办法把LAPACK封装在其中,接口是主要的问题。
对于单纯的矩阵计算,超越matlab的效率是很难的。Actually, you are competing
with Intel's MKL and Tim Davis' UMFPACK.
K*****y
发帖数: 1793
49
来自主题: Computation版 - matlab 计算速度
有时候计算占用内存太大,容易中途溢出。如果不写文件,前面的工夫就全废了。
j**u
发帖数: 6059
50
来自主题: Computation版 - matlab 计算速度
这个要顶一下。
我大二的时候总结:运行计算程序和打游戏一样,要养成常常存盘的好习惯。
1 2 3 4 5 6 7 8 9 10 下页 末页 (共10页)