m*****t 发帖数: 2800 | 1 做毕业论文,要写CFD代码,听说有个PETSc,还有个ScaLAPACK好像能帮不少忙,虽然以前有点MPI的经验,但是看起官方网上的那些Tutorial还是糊里糊涂,就是一大堆函数和功能的简单列举,完全不象正规教科书那样由浅入深。感觉那些说明文档是面向经常编程很熟悉各种语言的用户,而像我这些偶尔才编程解决一些应用问题的,学起来真的需要一个过程。谁知道该怎样入门啊?本人只会Fortran和一点C,挺讨厌指针,没有C++经验,正在学Python。
看版里的讨论,好像PETSc内容比ScaLAPACK更全面一点,但名气稍差一点,我该学哪个?
后来又听说有个叫Trilinos,好像比PETSc更强大,功能更多,看得都快找不着北了。 |
|
o**n 发帖数: 1249 | 2 scalapack是lapack的subset,跟petsc不是一个东西阿,你看你到底要干什么。要用
petsc就下点别人的source,看看大家怎么用好了。
另外,指针可是个好东西阿,不要指针还学啥C呢。
然以前有点MPI的经验,但是看起官方网上的那些Tutorial还是糊里糊涂,就是一大堆
函数和功能的简单列举,完全不象正规教科书那样由浅入深。感觉那些说明文档是面向
经常编程很熟悉各种语言的用
个? |
|
a********a 发帖数: 61 | 3 Do you guys use PETSc and ScaLapack in your code? |
|
L******r 发帖数: 199 | 4 Hi, I have a question about calling KSP of PETSc in Python.
Can anyone provide help or example program?
Thanks. |
|
x*****u 发帖数: 3419 | 5 you can write to the petsc group directly. good luck. |
|
d******a 发帖数: 32122 | 6 ☆─────────────────────────────────────☆
benature (haha) 于 (Tue Jul 3 20:44:35 2012, 美东) 提到:
http://news.sina.com.cn/c/2012-07-04/064824709362.shtml
□ 本报记者 李媛
前海景点公厕
有了免费手纸
端午小长假,一些来青岛旅游的细心游客发现,岛城前海一线一些景区的公厕有了
免费提供的卫生纸。6月24日上午,记者来到位于第二海水浴场附近的花石楼景点,发
现景区附近的两个公厕内都已经安装了免费的大盘卫生纸。
“谁没有个紧急情况?出来旅游上洗手间是个大问题,有免费的手纸用当然很方便
了,青岛这一点很超前。”来自淄博的游客孙小姐对于公厕免费提供手纸赞不绝口。
记者现场随即采访了几位游客,大家都表示对于青岛旅游的印象也因此加分。
据有关部门统计,旅游旺季栈桥景点附近公厕每天的使用人数就能达到两万多人。
虽然从表面上来看,只是公厕了多了卷手纸,但这一小小的举动无形中却为两万多游客
提供了便利,也令他们倍感贴心。
自6月15日起,岛城开始了前海旅... 阅读全帖 |
|
发帖数: 1 | 7 太湖之光的CPU sw26010在设计取向上是针对“暴力浮点”优化的,出现上面这个结果
(FLOPS强,某些其他测试不太好)意料之中。
比较显著的一个指标是这个CPU的内存带宽/浮点比率达到令人难以置信的1/22.4=0.
045 Byte/FLOP。作为对比(数据来源Yokota,J Algo Comp Tech, 7,3,2013):
INTEL Xeon E5 2690: 0.211
AMD Opteron 6284 SE: 0.235
NVIDIA Fermi GF110: 0.266
IBM PowerPC A2(BG/Q):0.208
Fujitsu Sparc64(FX10):0.359
相比较而言sw26010的内存带宽太小,很多操作都会卡在内存上。实际应用上,优化好
的FMM或者DGEMM大概需要0.2,使用特殊向量指令还可以更低,3D FFT大概需要0.6~0.
9, stencil大概2~3,spmv大概5。在x86上FMM/DGEMM是compute bound,后面几个都
是memory bound,而在sw26010上这些操作几乎全都是memory boun... 阅读全帖 |
|
s**u 发帖数: 2294 | 8 麻烦同胞给refer一下,多谢,老婆过几个月要生孩子了,希望尽快解决工作问题,多
谢!
附上我的技术总结供参考。
Skills
• Quick and adaptive learner able to absorb and apply technology to
solve a wide variety of complex problems
• Object-oriented code design and implementation based on software
engineering principles
• Software development using C/C++, Python, Matlab and Fortran 77/
90 in a Unix, Linux or Windows environment
• Excellent knowledge of high performance computing architectures
using Message Passing Int... 阅读全帖 |
|
|
s**u 发帖数: 2294 | 10 我是化工的博士,但是从本科到博士都修了几乎所有计算机的课程,在博士毕业后在th
计算机做的博后,又去了一个研究机构也做的计算机方面的工作。主要是做高性能计算
,并行计算等,各种语言写程序也不错。
我主要做高性能计算,在并行计算和代码优化方面有很多项目经验。数学基础也比较好
。自己写代码方面,Unix, Linux and Windows; C/C++, Fortran 77/90, Matlab and
Python; MPI, OpenMP, PETsc, Trilinos; gdb, Totalview, Valgrind; Code level
tuning with Vtune and Oprofile; BLAS, LAPACK, FFTW, direct and iterative
solver都没问题。
因为之前想做研究,所以看到一个老师和我可能有互相弥补合作能做好文章,就到美国
来博后了。事实上,因为各有所长,半年了我的东西已经差不多了,可以写文章了,也
是这个领域少有人做的东西。不过因为funding等问题,老板到期不准备再续了。而我
也觉得自己非常希望回到计算机领域... 阅读全帖 |
|
p***c 发帖数: 94 | 11 【 以下文字转载自 Returnee 讨论区 】
发信人: petsc (你快乐所以我快乐), 信区: Returnee
标 题: 请问海归以后是如何报美国这边的税的?
发信站: BBS 未名空间站 (Sat Feb 16 13:41:00 2013, 美东)
人走了回国以后,公司还会给你寄W-2吗?只能是美国国内的地址码?人在国内怎样才
可以拿回那点血汗钱?无卡。
谢谢。 |
|
x**********8 发帖数: 3151 | 12 独立日长周末;Smoky Mountain 报名名单总结和需要帮忙订一下Cabin
订Cabin时间--星期五 July 6;
Check out ----星期日 July 8,
有希望早点订(从星期四--July 5 开始)的同学请跟帖告知
报名名单总结如下(男女比例1:1);
-- 如有变动,请马上跟帖告知,谢谢
其他在Waiting List里的同学候补, 谢谢支持和理解
女:
xixihaha (Optional)
bluewhite(Optional)
qt (Optional)
frown
littlebubby
Astrid (2)
jinpingren
男:
MiMan
xiaoxiaobai
chill104 (Waiting List)
schen17
petsc
cz01 (2)
thinwiteduke |
|
c***r 发帖数: 1570 | 13 【 以下文字转载自 Computation 讨论区 】
发信人: caoer (caoer), 信区: Computation
标 题: openmpi 和mpich哪个比较好
发信站: BBS 未名空间站 (Mon Mar 8 20:39:51 2010, 美东)
小弟要用Petsc并行计算,manual上好像用mpich,openmpi据说也很好,请问那个比较
好?多谢 |
|
c***r 发帖数: 1570 | 14 多谢,那我还是用Mpich吧,petsc好像默认也是mpich2 |
|
f**********w 发帖数: 93 | 15 推荐petsc包,自带很多解线性方程的方法,可以并行 |
|
|
c***r 发帖数: 1570 | 17 for the large sparse matrix, try petsc |
|
L***n 发帖数: 6727 | 18 恩,你是说trilinos么? 想不起来其他山头大的c++framework了,petsc山头也大不过
是C的,framework基本就这两大山头吧,底层调用blas, umfpack之类的就行了干嘛重
新开发一遍啊, |
|
N***r 发帖数: 2539 | 19 try the open source package PETSc
it needs a bit learning though |
|
L***n 发帖数: 6727 | 20 如果有时间写代码不是急着实现算法还是C++最靠谱,
直接调用大量成熟的库,或者用成熟的framework
trilinos或者PETSc作科学计算,scipy还差不少
在 mitbbs2715 (好吃不懒做) 的大作中提到: 】 |
|
l*****i 发帖数: 3929 | 21 10k variables用Petsc是不是有点奢侈,呵呵。 |
|
|
i****a 发帖数: 15 | 23 you could also use PETSC. |
|
|
j****x 发帖数: 943 | 25 python is not that good in parallel computation, at least so far, although I
found out recently PETSc has a python interface. |
|
c***r 发帖数: 1570 | 26 agree, lapack, petsc may accelerate your computation a lot, what you need
just add the head file and call the specific function, then link with these
library, not very hairy |
|
s**u 发帖数: 2294 | 27 【 以下文字转载自 Postdoc 讨论区 】
发信人: sasu (杉树), 信区: Postdoc
标 题: 我们碰到的大麻烦——急寻计算机工作和博后机会
发信站: BBS 未名空间站 (Thu Apr 5 14:58:18 2012, 美东)
我是化工的博士,但是从本科到博士都修了几乎所有计算机的课程,在博士毕业后在th
计算机做的博后,又去了一个研究机构也做的计算机方面的工作。主要是做高性能计算
,并行计算等,各种语言写程序也不错。
我主要做高性能计算,在并行计算和代码优化方面有很多项目经验。数学基础也比较好
。自己写代码方面,Unix, Linux and Windows; C/C++, Fortran 77/90, Matlab and
Python; MPI, OpenMP, PETsc, Trilinos; gdb, Totalview, Valgrind; Code level
tuning with Vtune and Oprofile; BLAS, LAPACK, FFTW, direct and iterative
solver都没问题。
因为之前想做研究,... 阅读全帖 |
|
|