H**l 发帖数: 38 | 1
咱也从理工科生的角度来打个比方啊,修行就象数值分析里gradient descent算法,定
一个目标函数,然后开始循环,每个循环可以找个方向和设定不同的步长,然后等待慢
慢收敛到最优(即通常是最大化或最小化目标函数)。修行但又更难,因为其实没有目标
函数,但还是要设定不同的阶段目标。每个人的目标,方向,和步长还不一样,算法难
收敛,容易发散,等等。
咱也了解出离心菩提心很重要,但现阶段还远不能战胜贪嗔痴。例如,酒席中看着一桌
的肉,偶尔会去想象他们生前的样子甚至死亡的痛苦,但很多时候终于没能抵挡住久远
的习气和外在环境。看了电影matrix,特喜欢里面cypher的话,I know this steak
doesn't exist. I know that when I put it in my mouth, the Matrix is telling
my brain that it is juicy and delicious. After nine years, you know what I
realize? Ignorance is bliss. 咱是不是太悲观了,呵呵,... 阅读全帖 |
|
P**********n 发帖数: 6311 | 2 从单细胞开始,生物都是 sense gradient |
|
h*d 发帖数: 19309 | 3 发信人: strong (大拿~恭祝清华百年华诞), 信区: TsinghuaCent
标 题: 清华大学的2010
发信站: 水木社区 (Sun Apr 24 14:46:09 2011), 站内
清华大学的2010
注:本文由水木社区BBS世纪清华版(TsinghuaCent)整理,各项资料来自清华大学网
站、清华大学新闻网、北京协和医学院(清华大学医学部)网站和水木社区BBS世纪清
华版等。
正文:
本文系统总结2010年度清华大学、北京协和医学院(清华大学医学部)师生校友荣获的
各类学术和社会荣誉、学科竞赛成绩以及学校在教学科研领域中获得的各类成果和进展
。限于篇幅,在关于各类获奖成果的统计中,本文仅统计获得过一等奖、金奖(国家科
学技术奖除外)以上的成果(绩)。
*********************
一.最高荣誉
●清华大学数学科学中心主任丘成桐教授获得2010年沃尔夫(Wolf)奖,以表彰他在几
何分析领域的贡献,以及在几何和物理的多个领域都产生的“深刻而引人注目的影响”
。这是丘成桐继1982年获得菲尔茨奖后,再... 阅读全帖 |
|
y***y 发帖数: 14 | 4 好像理工科统一的书,上下册,学一年,有没有包括下面这些?Multivariable
calculus; vector functions, line integrals, total differentials, gradient,
implicit functions, coordinate systems, Taylor's expansion, extrema,
multiple integrals, vector fields, surface integrals, Stokes's theorem
谢谢 |
|
a***y 发帖数: 19743 | 5 http://www.displaymate.com/Nexus_One_ShootOut.htm
主要几点包括
1. lots of artifacts and noise
2. corse steps in color gradient; tint on white
3. diagonal and subpixel rendering bugs
4. only 16-bit with just 32 or 64 intensity levels
5. color accuracy is poor; often over saturate bright colors; excessive edge
and sharpness processing.
6. 15.5% reflection is relatively high. combined with relatively low peak
white brightness, it is difficult to see in high ambient light environment.
6. Gaudy picture qua |
|
a***y 发帖数: 19743 | 6 https://plus.google.com/107117483540235115863/posts/gcSStkKxXTw
Icon Ambulance
One Sunday morning, January 6th, 2008 I was attending religious services
when my cell phone vibrated. As discreetly as possible, I checked the phone
and noticed that my phone said "Caller ID unknown". I choose to ignore.
After services, as I was walking to my car with my family, I checked my cell
phone messages. The message left was from Steve Jobs. "Vic, can you call me
at home? I have something urgent to discuss" it... 阅读全帖 |
|
i*e 发帖数: 352 | 7 我的new ipad有一个角落颜色明显不对,偏黄,gradient。换了一个,均一多了,但是
在home键上面2cm左右有个坏点,不很影响使用,也就算了。但是这次new ipad的屏幕
QC真不是太好。 |
|
b****u 发帖数: 1027 | 8 我有同感,在美工上觉得吃力.
多看范例和学习自己喜欢的网站设计很重要,不能只看不练手
页面设计方面,我觉得要抓住以下几点:
1. html + css standard, 尽量用 tableless laytout, 因为是业内的标准.
2. 使用流行的设计元素,比如 gradient, transparency, reflection 等流行的设计元
素,让人一看就知道是新型的网站设计,如果看着象 1999 年的网站就落伍了.
3. 和谐的颜色搭配, 这太重要了, 颜色要搭配,要能突出主题,又能 体现 |
|
f*******w 发帖数: 407 | 9 找人做两个网页,有意者请进
本人不是IT,所以希望找人来帮尽快完成。比常见的稍微复杂一点,但应该不会太难。
请站内联系。
Prefer to be done using JavaScript and php.
Page # 1: a dynamic table with functions to add/delete row and column. The
content of the table, cell values, row/column titles, are all retrieved from
database. There is an "add new column"/"add new row" button at the corners
of the table. Clicking the button, the table will add column/row to the
existing table. The content of the cells of the added column/row are to
selected from drop down... 阅读全帖 |
|
a***y 发帖数: 19743 | 10 自己在别人网站基础上重写一个网站,用Coda 2手工。
基本上就是全CSS的来layout的。
很多新的东西,比如gradient
其实动画什么的js都去掉了。
搞个Dreamweaver CS6看能否帮助layout
结果打开来全是乱的。
其实在Safari和Firefox里显示都比Dreamweaver里正常多了。
Adobe看来是跟不上时代。怪不得虽然Dreamweaver算是很强的网页编辑软件了,但是高
手还是都是手工而且不是WYSIWYG。
吐糟一下! |
|
v***r 发帖数: 1046 | 11 【 以下文字转载自 Biology 讨论区 】
发信人: valar (和光同尘), 信区: Biology
标 题: 请教一个彩图转黑白梯度的问题
发信站: BBS 未名空间站 (Tue Nov 15 17:19:01 2011, 美东)
彩图是用HSV colormap代表不同的数据大小,已经存成tiff文件了。现在想把图转成黑
白梯度,但是HSV colormap转化gradient时,极大值和极小值都变成深黑的。哪位制图
达人指点迷津,不胜感激! |
|
X*****r 发帖数: 2521 | 12 【 以下文字转载自 EE 讨论区 】
【 原文由 Xfilter 所发表 】
我想找到一个函数的最小值
这个函数不是convex的
也不是concave的
我使用gradient decent 的方法来找到最小值,可是每次这个方法找到的都是
local minimum,而不是global minimum,
请问还有什么方法可以达到那个global optimum?
多谢了 |
|
a***n 发帖数: 404 | 13 rrdw:
Maxent/logistic regression, gradient-descent and Newton optimization methods
3X. |
|
P********e 发帖数: 2610 | 14 【 以下文字转载自 Graphics 讨论区 】
发信人: PaulPierce (Paul), 信区: Graphics
标 题: About from edge to region
发信站: BBS 未名空间站 (Sun Sep 23 02:08:28 2007), 转信
I've got edges using Canny's
however, most of the edges are not circular (the regions are circular),
due to h2(lower limit of the gradient magnitude)
some my question is, how to from edges to get regions?
thanks.
any suggestion is welcome |
|
c********u 发帖数: 522 | 15 我准备申请明年的CS的硕士,这个summer和fall想选一些打基础的课.
有个老师推荐了data structure and algorithm, JAVA, 等等
我想知道要是准备数学基础的话,是应该上caculus是吧,学校的数学系的caculus分123
个等级,对于CS学生,需要学很深吗?
例如等级2的课程介绍是:Transcendental functions, techniques of integration,
numerical integration, improper integrals, sequences and series with
applications, complex variables and parmetrization of curves
等级3的课程介绍是:Vector operations, vector representation of planes and
curves, functions of several variables, partial derivatives, gradient,
tangent planes, op |
|
B****x 发帖数: 17 | 16 http://blog.sina.com.cn/s/blog_661c16d00100kc51.html
机器学习大家谈(转贴)(2010-03-17 21:42:19)转载
标签:杂谈 分类:学术科研
闲着无事,想写点一些我所了解的machine learning大家。由于学识浅薄,见识有限,
并且仅局
限于某些领域,一些在NLP及最近很热的生物信息领域活跃的学者我就浅陋无知,所以
不对的地方大
家仅当一笑。
Machine Learning 大家(1):M. I. Jordan
在我的眼里,M Jordan无疑是武林中的泰山北斗。他师出MIT,现在在berkeley坐
镇一方,
在附近的两所名校(加stanford)中都可以说无出其右者,stanford的Daphne Koller
虽然也
声名遐迩,但是和Jordan比还是有一段距离。
Jordan身兼stat和cs两个系的教授,从他身上可以看出Stat和ML的融合。
Jordan 最先专注于mixtures of experts,并迅速奠定了自己的地位,我们哈尔滨
工业大
学的校友徐雷跟他做博后期间,也在这个方向上沾光不少... 阅读全帖 |
|
j*****n 发帖数: 1545 | 17 有一个functon f(x,y), 要找optimum. 直接优化x和y难度很大, 但是可以分别优化:
固定y, 优化x; 固定x, 优化y. 而且这个分别优化能够保证是 global optimum.
我的问题是我的这个迭代的算法能保证最后的结果是最优吗?
step 1: fix y_0, update x_0 to the optimal solution x_1
step 2: fix x_1, update y_1 to the optimal solution y_2
step 3: go to step 1 and iterate until convergence.
我觉得好像和conjugate gradient系列的算法很像, 但我一下想不出来我这个算法是对
还是错. 求指点. 如果有定理之类的可以参考最好!! |
|
d******e 发帖数: 7844 | 18 这个和conjugate gradient差不多少呢吧。
你这不就是一个bi-convex问题么,你这么算十有八九都不是global解 |
|
j*****n 发帖数: 1545 | 19 我也意识到不能保证global optimum了, 不过我不赞同 "十有八九都不是global解",
因为他在每个方向上都能找到最优解,所以不像gradient descent之类的方法(
neighbor的定义很local), 它的neighbor定义是很大的, 只要initial在某个很大的范
围内,就能找到最优解. |
|
p*********g 发帖数: 226 | 20 Shai 这张 paper 实在是个大joke,无非是优化里的 stochastic gradient descent
的一个 verbatim 应用。 |
|
K****n 发帖数: 5970 | 21 也没啥好展开的,goog公开的slides上nn的layer和weights蜡样多,虽然有些
convolutional nn layer收敛可能偏快,但是总体比起来'非deep'的,比如几个
billion features的logistic regression或者其他一层的regression之类的肯定要慢
多了,假设都是用差不多的stochastic gradient method的话? |
|
k*******r 发帖数: 355 | 22 问题是goog 从这个neural network 的deep learning 得到了任何实际好处吗? 就纯粹
的classification或ranking而言,我看不出这个比一般的gradient boosting tree好
在哪里。 |
|
d**********3 发帖数: 1186 | 23 Hello All Members,
We will hold SQL PASS Career Talk on Jun 9th.
(Jun 9, 2015 9:00 PM - 10:30 PM CST)
Please register for How to Start the Career as Data Scientist on Jun 9, 2015
9:00 PM CDT at:
https://attendee.gotowebinar.com/register/5891367287069457410
After registering, you will receive a confirmation email containing
information about joining the webinar.
------------------------------------------------------
About this Session,
How to Start the Career as Data Scientist
In this talk, Yong,... 阅读全帖 |
|
G*****7 发帖数: 1759 | 24 看具体做什么了。
大规模gradient descent优化比如训练neural nets,或者前后有依赖性的计算,拼主
频;
大规模least square, linear systems,拼gflops,也就是主频+并行核+新版sse;
生物的基因分析、数据库密集应用,就要看io了。 |
|
|
|
g*****y 发帖数: 7271 | 27 来自主题: Programming版 - 一个算法题 boundary pixel 也可以是 local minimum吧?基本上,沿着x,y一步一步往gradient最大的方向走,最多2N步就找到了吧。
integers,
and |
|
p****n 发帖数: 148 | 28 来自主题: Programming版 - 一个算法题
gradient最大的方向走,最多2N步就找到了吧。
为什么“最多2N步就找到了”
例如,如何处理螺旋下降? |
|
O*******d 发帖数: 20343 | 29 来自主题: Programming版 - 一个算法题 "gradient最大的方向走" |
|
p****n 发帖数: 148 | 30 来自主题: Programming版 - 一个算法题 请在下面7X7的矩阵上演示一下"gradient最大的方向走" “最多2N步就找到”
假定从左上角1048开始
1048 1047 1046 1045 1044 1043 1042
5041 5040 5039 5038 5037 5036 1041
1026 1025 1024 1023 1022 5029 1040
1027 5026 5025 5024 1021 5022 1039
1028 5019 1018 1019 1020 5015 1038
1029 5012 5011 5010 5009 5008 1037
1030 1031 1032 1033 1034 1035 1036 |
|
r*****3 发帖数: 143 | 31 中文名: HTML5 & CSS3 (第1版)
原名: HTML5 and CSS3: Develop with Tomorrow's Standards Today
作者: Brian P. Hogan
图书分类: 软件
资源格式: PDF
版本: 英文文字版/更新源代码
出版社: Pragmatic Bookshelf
书号: 978-1934356685
发行时间: 2011年
地区: 美国
语言: 英文
简介:
内容介绍:
HTML5 and CSS3 are the future of web development, but you don't have to wait
to start using them. Even though the specification is still in development,
many modern browsers and mobile devices already support HTML5 and CSS3.
This book gets you up to speed on the new HTML5 elements ... 阅读全帖 |
|
y****e 发帖数: 23939 | 32 I paste the full code to if anybody can help me out.
the function refalifn and refalifnfast are good to compile on vc++.
But the function refalidf and refalifdf will have this LNK2019 error on vc++
. Same code compiles OK on g++. It must be some kind of restraint with
visual c++.
static double refalifn(const gsl_vector * v, void *params)
{
Dict *dict = (Dict *) params;
double x = gsl_vector_get(v, 0);
double y = gsl_vector_get(v, 1);
double a = gsl_vector_get(v, 2);
EMData *t... 阅读全帖 |
|
r*****3 发帖数: 143 | 33 SUMMARY
Hello! HTML5 & CSS3 is written for the web designer or developer who wants a
fast, example-oriented introduction to the new HTML and CSS features. This
snappy, user-friendly, and fun guide will get you started right away.
ABOUT THIS BOOK
Whether you're building web pages, mobile apps, or desktop apps, you need to
learn HTML5 and CSS3. So why wait? Hello! HTML5 & CSS3 is a smart, snappy,
and fun way to get started now.
In this example-rich guide to HTML5 and CSS3, you'll start with a user... 阅读全帖 |
|
p*****y 发帖数: 1049 | 34 这两天我恰好也在研究这个问题,
我知道最快的办法是conjugate gradient iterative method
线性算法 |
|
p***o 发帖数: 1252 | 35 电网? 你看B是不是symmetric diagonally dominant,是的话可以用ICCG。
规模大了比如 N > 1,000,000 可以试试algebraic multigrid preconditioned
conjugate gradient.
不过N才60000,这种问题按理说直接LU分解也耗不了那么多内存,你还是
先研究研究matlab里/和\的区别吧。 |
|
g****t 发帖数: 31659 | 36 各种precondition算法,都需要有经验,能把例外情况修补完毕,
对楼主可能太难了。我推荐Cholesky分解。省事省心。
如果只要估计解,那最省内存的方法其实是recursive least square之类的
东西,可以一行一行进数据。
电网? 你看B是不是symmetric diagonally dominant,是的话可以用ICCG。
规模大了比如 N > 1,000,000 可以试试algebraic multigrid preconditioned
conjugate gradient.
不过N才60000,这种问题按理说直接LU分解也耗不了那么多内存,你还是
先研究研究matlab里/和\的区别吧。 |
|
Y**G 发帖数: 1089 | 37 http://www.linuxjournal.com/content/containers%E2%80%94not-virt
Cloud infrastructure providers like Amazon Web Service sell virtual
machines. EC2 revenue is expected to surpass $1B in revenue this year. That'
s a lot of VMs.
It's not hard to see why there is such demand. You get the ability to scale
up or down, guaranteed computational resources, security isolation and API
access for provisioning it all, without any of the overhead of managing
physical servers.
But, you are also paying for lot o... 阅读全帖 |
|
g*********e 发帖数: 14401 | 38 大家觉得那种有好几个billion参数的machine learning (比如可以算好几个billion
parameter的gradient descent) 算技术吗? |
|
T********i 发帖数: 2416 | 39 Gradient boosting之类的regression前几年有人用来赚了很多钱。
至于深度学习,我听到的是没人敢用。拟合太好了是一件很吓人的事情。这不是与天斗
与地斗,是与人斗的零和博弈。换你你敢用么? |
|
n*****3 发帖数: 1584 | 40 May I ask how they make money by using GBM? predict in the street?
Gradient boosting之类的regression前几年有人用来赚了很多钱?? |
|
w***g 发帖数: 5958 | 41 所谓“深度”,是特指训练三层以上的神经网络。小于三层就是浅的,大于三层就是深
的。
神经网络在90年代火过一阵,各种理论早就已经成熟了。back propagation的理论跟
网络深度是无关的,但实际运行的时候就是发现层数大于三的话就训练不上去。
所以相当长一段时间内神经网络在机器学习方面被SVM等“浅度”神经网络特例压得
抬不起头。90年代神经网络拿funding得时候,应该把深浅网络都promise了拿过一遍
钱了。
然后没有deliver,并且把整个人工智能得名声都搞臭了。现在把训练深度网络的问题
部分解决了,需要旧瓶装新酒再拿一次钱。因为“神经网络”的名声已经臭了,
所以造出来“深度学习”这个概念来乎悠人。
(CNN的经典论文LeCun 1998 Gradient-based learning applied to document
recognition.)
然后来说这个“部分解决”的问题。现在深度网络可以训练了,不是理论有了突破,
而是靠的大数据+快硬件。如果按传统的机器学习套路,一个对象先提取一个特征,
然后应用学习算法,这个数据量其实还是不够大的。各种深度学习的一个典... 阅读全帖 |
|
l***j 发帖数: 59 | 42 神经网络这东西也不算什么新东西,而且跟传统的机器学习模型有着千丝万缕的联系,
你甚至可以把它想象成把一堆logistic regression用factor analysis的思想攒到一起
,训练方法也是传统ml用滥了的gradient descent
所以说 神经网络并不是那么太新的东西 认真学过传统ml方法的 就会明白我说的
个人认为 最大的机会是应用而不是理论创新
可以结合目前你的工作 把神经网络一个个替换掉目前的东西 看看有什么提高 然后吹
嘘一通 靠这个上位 这才是投资最少见效最快的。等这个技术滥大街了,你早就上位了
,也就不用担心技术落后了。新来的技术牛逼的,会成为你的手下。
至于技术学起来不难 门槛低 这都不是问题。你要是光想跟人拼纯技术,真不一定比刚
毕业的phd高多少。
有工作经验的优势在于,行业知识!行业知识!行业知识!这个才是让你脱颖而出体现
独特价值的地方。
技术是重要,但也是为商业服务的,不断提高自己的行业知识,这是让自己的工作持续
安全的关键 |
|
w***g 发帖数: 5958 | 43 1. reduce_sum vs reduce_mean:
reduce_sum会导致你的gradient和minibatch size相关,以至于
需要根据不同的minibatch size调整learning_rate。
用reduce_mean没这个问题。
2. mean(sqr(error)) vs sqrt(mean(sqr(error)))
和上面的相似,前者的问题是需要根据error绝对值调整learning_rate。
error太大甚至会溢出。
上面这两个都是数学上等价,但是实现上的坑。
你把这两个改了, 用learning_rate = 0.01,隔1000个
iteration打印状态,就能看到正常收敛了。 |
|
L****8 发帖数: 3938 | 44 这些操作 可以保证 自动 back-propagate gradient ? |
|
b*******e 发帖数: 217 | 45 Reinforcement learning 和你想的这个so far 最接近。可以看看deep reinforcement
learning , deep q learning, policy gradient based learning什么的。
Ml 分三大类: supervised learning, unsupervised learning, reinforcement
learning. Reinforcement learning 介于supervise 和unsupervised 之间 |
|
m****o 发帖数: 182 | 46 tensorflow应该不久也会推出gradient boosting,到时候就不用几个库之间折腾来折
腾去了。
点. |
|
m****o 发帖数: 182 | 47 tensorflow应该不久也会推出gradient boosting,到时候就不用几个库之间折腾来折
腾去了。
点. |
|