由买买提看人间百态

topics

全部话题 - 话题: gradients
1 2 3 4 5 6 7 8 9 10 下页 末页 (共10页)
j******i
发帖数: 844
1
关于血小板和succrose gradient都没有经验,想向这方面有经验的人请教一下。
我是google的protocol。血小板是医院用过期的,所以variation比较大,也不能保证
供应及时。所以我经常觉得拿到的gradient差距比较大。我难以根据分层来确定每一层
是什么细胞器官。我也试图用比如vwf的抗体来确认起码alpha granule那个fraction,
但可能血小板太浓或者我分离的时候互相污染,效果不理想(感觉到处都有点)。我想
就这种gradient发文章的时候总不能你说是哪个fraction就算吧,以前做过这个实验的
牛人是怎么解决这个问题的?
r**********e
发帖数: 194
2
来自主题: DataSciences版 - 有关Stochastic Gradient Descent
你需要去读一下相关的材料,理解Gradient Descent,Stochastic Gradient Descent
和Batch Gradient Descent的区别和联系。一般来说,计算梯度如果在数据量很大的时
候根本算不了,就算内存足够大计算速度也很慢,随机梯度下降法减少了每一步计算梯
度所需要的数据量,大大加快了计算速度。尽管需要的iteration增加了指数级别但总
的计算时间缩短了。在很多real-world online learning的问题中SGD很好的解决了由
于数据进来的方式是sequential的导致GD不能work的情况,而且通过增加iteration的
次数来有效减少每一次iteration所需要的计算量,是一个非常有效的算法。
l********7
发帖数: 2974
3
决策树(分类或回归)和boosting是各自独立的概念,不过用决策树算法做弱学习机的
gradient boosting算法比较典型和常用。
gradient boosting简单一般地说,就是基于泛函空间的系综学习(ensemble learning
)。
不过,顺便评论一句:机器学习算法繁多,目的是模拟人脑的智能功能。如果人类自己
的智能都不能很好学习、理解的事,指望机器“智能”给你带来魔术式的奇迹结果,是
初期接触机器学习和人工智能的人常见的想法。所以,这里版上有人曾经神叨叨声称“
人工智能草菇,你们个人就别想了”的奇谈怪论,最好当娱乐笑话,笑笑就好。。。呵呵

发帖数: 1
4
Thanks. 直觉告诉我拿这炒股可能是不行,也不可能斗过花街的程式。做参考可能行


: 决策树(分类或回归)和boosting是各自独立的概念,不过用决策树算法做弱学
习机的

: gradient boosting算法比较典型和常用。

: gradient boosting简单一般地说,就是基于泛函空间的系综学习(ensemble
learning

: )。

: 不过,顺便评论一句:机器学习算法繁多,目的是模拟人脑的智能功能。如果人
类自己

: 的智能都不能很好学习、理解的事,指望机器“智能”给你带来魔术式的奇迹结
果,是

: 初期接触机器学习和人工智能的人常见的想法。所以,这里版上有人曾经神叨叨
声称“

: 人工智能草菇,你们个人就别想了”的奇谈怪论,最好当娱乐笑话,笑笑就好。
。。呵呵

e*******e
发帖数: 248
5
解一个linear equation system (overdetermined system),用MATLAB的backslash的
结果比用gradient descent (用的neural network)解得的结果差很多。不知道是什么
原因?
查了一下,backslash用least square方法先把overdetermined system的coefficent
matrix变成square matrix,然后用Gaussian elimination。
这种方法为什么比用gradient descent方法得到的结果差很多呢?
M*******C
发帖数: 183
6
需要做gradient temperature, 比如60-67C,在电脑上ABI 7300 上弄了几下,想输入
60.0-67.0, 不行。翻看了一下手册,没看到关于gradient的。不知是7300没有这个功
能还是我没找到? thx
l****j
发帖数: 70
7
个人理解:
continuous Percoll gradient是在高速离心中由于重力的原因,自身产生连续梯度。
discontinuous Percoll gradient是不同浓度的percoll,比如15%,20%,30%三层梯度
e*******e
发帖数: 248
8
解一个linear equation system (overdetermined system),用MATLAB的backslash的
结果比用gradient descent (用的neural network)解得的结果差很多。不知道是什么
原因?
查了一下,backslash用least square方法先把overdetermined system的coefficent
matrix变成square matrix,然后用Gaussian elimination。
这种方法为什么比用gradient descent方法得到的结果差很多呢?
p*******n
发帖数: 171
9
估计这个问题发在这里比较有用。各位大牛给点建议吧。
【 以下文字转载自 Statistics 讨论区 】
发信人: peakgreen (燕麦), 信区: Statistics
标 题: 问一下python 或者是 R 里面 gradient boosting model 的问题
发信站: BBS 未名空间站 (Fri Oct 3 22:14:20 2014, 美东)
以前没有用过,想问一下,不论是R里面的gbm,还是python里面的
GradientBoostingClassifier, 怎么能够知道最后 gradient boosting model 的
coefficients and boosting tree 呢?谢谢啊!
b****r
发帖数: 27
10
steepest decent每一步都沿梯度方向优化,属于“每一步都跑得最快”,但是由于容
易冲过头,所以动不动推倒重来
conjugate gradient每一步都不是最快的,但是具有自我修正的能力,最终效率反倒优
于每一步最快的
宽敞的马路上赛跑,每一步跑最快的最先到达;曲里拐弯的小胡同里赛跑,每一步跑得
最快的,不但不能最先到达,反而头破血流
这就是所谓“极权制度短期高效、长期低效”的原因。幻想通过几百年来已被唾弃的极
权制度实现中国崛起的,都是想多了
m***i
发帖数: 4637
11
来自主题: Immigration版 - The Gradient Progress of 485 in TSC and NSC
The Percentage of Approved Cases in Their Months
(Analysis from Dymu website Jun 7, 2012 data)
(对,这里指的是所有485,同一月里485有相同的 审理 但不是 审批 机会)
TSC, antichronically
Jun 0.002309469 1 out of 433
May 0.027849324 173 out of 6212
Apr 0.113438698 1213 out of 10693
Mar 0.209561438 2652 out of 12655
Feb 0.19389771 2650 out of 13667
Jan 0.374643325 4858 out of 12967
Dec 0.678077744 5852 out of 8834
Nov 0.659384197 7309 out of 10779
Oct 0.808317168 6667 out of 8248
TSC Total: from Oct ... 阅读全帖
m***i
发帖数: 4637
12
来自主题: Immigration版 - The Gradient Progress of 485 in TSC and NSC
The gradient pattern according to their receipt numbers
approve total percentage
029/10k 2 689 0.002902758
21-May 028/10k 15 2401 0.006247397
027/10k 91 2360 0.038559322
026/10k 147 2568 0.057242991
20-Apr 025/10k 356 2748 0.129548763
024/10k 275 2720 0.101102941
023/10k 360 2735 0.131627057
022/10k 524 2924 0.179206566
021/10k 601 2913 0.206316512
12-Mar 020/10k ... 阅读全帖
h*****u
发帖数: 201
13
一般是这样来实现连续梯度的:
在centrifugue tube里先放高浓度的percoll suspension, 比如33%percoll,然后放低
浓度的,比如0% percoll。静置一晚上,扩散过程自然能形成连续梯度。要用的时候,
在上面放样品离心。有的protocol用sucrose gradient, 方法类似
a********u
发帖数: 325
14
要用4-15%gradient胶跑样品,同时要native的。我做好的胶当蓝色的考马斯亮兰的
前沿跑到接近下端三分之一处时,就完全扭曲了,看上去就像是山峦起伏,怀疑是15%
的胶先凝了,而且没有横向分布好,于是降低15%胶里的TEMED和APS用量,但是改善不
大。做了很多次,改变倒胶的速度,而且倒胶时横向移动杯子,让胶流下时更均匀点儿
,但是都没用。
各位高手有没有好办法解决这个问题?
r******g
发帖数: 600
15
BN 的 gradient gel很难做的,自己去买啊
想办法convince老板,容易得多啊
s******y
发帖数: 28562
16
最近我用的是Genscript 的precast gradient gel. 质量还不错。而且关键是只需要4
块钱一片,比大部分公司便宜了一倍。你不妨和你老板说说,让他买这个。
唯一要注意的是。他们的胶虽然直接可以放在Biorad 的tank 里,但是必须用SDS-MOPS
buffer跑 (和invitrogen 的类似)。要放在invitrogen的tank 里也行,但是要加一
个adapter.
G***G
发帖数: 16778
17
来自主题: Biology版 - gradient in R
given a vector x=c(1,3,8,9,10,12,.....,150)
any function in R to calculate its gradient?
Thank you.
c**l
发帖数: 159
18
Reference is here. You need to read it over.
D. Brandwood, “A complex gradient operator and its application in adaptive
array theory,” Microwaves, Optics and Antennas, IEE Proceedings H, vol.
130, 1983, pp. 11-16.
l*r
发帖数: 5
19
来自主题: Macromolecules版 - 哪里可以找到density gradient?
哪位能提供density gradient有关信息? 哪里能测?买一个太贵了.
多谢!
t****1
发帖数: 232
20
来自主题: Macromolecules版 - gradient copolymer
有什么方法可以最直接的看出gradient copolymer和random的区别,主要是结构上的区
别,怎样才能表征?
t****1
发帖数: 232
21
来自主题: Macromolecules版 - gradient copolymer
Tg是有不同,但是无法证明Tg不同就一定是gradient,不知道Raman能不能看出来?
t****1
发帖数: 232
22
来自主题: Macromolecules版 - gradient copolymer
取了不同时间的样品,然后做NMR分析组分,用链长和组分作图,得到Boltzman分布的
话就是gradient了,不过这个方法还是没有直观的image好,现在也只能这样了。
j******e
发帖数: 64
23
来自主题: Mathematics版 - 问gradient based methods
一般情况下我用newton raphson (因为只知道这个),
对于f(x), 当x是scalar或者vector的时候效果很好。
但是当x是matrix的时候,dimensionality很高的时候
就不太行了。请问有什么其他的gradient based method
比较好用, for matrix? Thanks.
e********0
发帖数: 259
24
来自主题: Mathematics版 - 包子悬赏问题:polymomial's gradient
if p(x)is a polynomial homogeneous of degree m, where x is a n dimensional
vector.
Prove: x*gradient(p(x))=mp(x), where "*" represents dot product.
write down the whole proof, and you'll get 20 weibi.
S******y
发帖数: 1123
25
Hi. guys,
I am trying to write my own Stochastic Gradient Ascent for logistic
regression in R. But it seems that I am having convergence problem.
Am I doing anything wrong, or just the data is off?
Here is my code in R -
lbw <-
read.table("http://www.biostat.jhsph.edu/~ririzarr/Teaching/754/lbw.dat"
, header=TRUE)
attach(lbw)
lbw[1:2,]
low age lwt race smoke ptl ht ui ftv bwt
1 0 19 182 2 0 0 0 1 0 2523
2 0 33 155 3 0 0 0 0 3 2551
#-----R implementation of l
f*********k
发帖数: 3
26
比如Neural Network Training Algorithm中的著名的Moller的SCG(Scaled Conjugate
Gradient)训练算法
http://pages.cs.wisc.edu/~huangyz
p*******n
发帖数: 171
27
以前没有用过,想问一下,不论是R里面的gbm,还是python里面的
GradientBoostingClassifier, 怎么能够知道最后 gradient boosting model 的
coefficients and boosting tree 呢?谢谢啊!
G***G
发帖数: 16778
28
来自主题: Statistics版 - gradient in R
given a vector x=c(1,3,8,9,10,12,.....,150)
any function in R to calculate its gradient?
Thank you.
h***i
发帖数: 3844
29
来自主题: Statistics版 - gradient in R
gradient needs x and y, right? Or I misunderstand some thing here?
E**********e
发帖数: 1736
30
来自主题: DataSciences版 - 有关Stochastic Gradient Descent
我试了一下自己写的Stochastic Gradient Descent。 简单的数据比如就只有两个
features。 结果和newton raphson 迭代的结果差不多。 但是一般feature 多了。 结
果差别很大。 我知道SGD 能保证global minimum。但几个测试结果都让人怀疑SGD是
不是很有效。同样的数据用package里的GSD,结果页差很多。但是GSD好像还是比较说
得上的算法。诸位有是么看法。
f******k
发帖数: 297
31
来自主题: DataSciences版 - 有关Stochastic Gradient Descent
一般能用牛顿当然用牛顿了,那个是平方收敛。QN也是gradient based method, 最多
就是线性收敛,而且收敛速度和二次项的condition number有关。
E**********e
发帖数: 1736
32
来自主题: DataSciences版 - 有关Stochastic Gradient Descent
我试了一下自己写的Stochastic Gradient Descent。 简单的数据比如就只有两个
features。 结果和newton raphson 迭代的结果差不多。 但是一般feature 多了。 结
果差别很大。 我知道SGD 能保证global minimum。但几个测试结果都让人怀疑SGD是
不是很有效。同样的数据用package里的GSD,结果页差很多。但是GSD好像还是比较说
得上的算法。诸位有是么看法。
f******k
发帖数: 297
33
来自主题: DataSciences版 - 有关Stochastic Gradient Descent
一般能用牛顿当然用牛顿了,那个是平方收敛。QN也是gradient based method, 最多
就是线性收敛,而且收敛速度和二次项的condition number有关。
w*******y
发帖数: 60932
34
pretty good deal for summer
Kenneth Cole Aviator Sunglasses with Gradient Lenses and 100% UV Protection
in Black, Gunmetal Gray or Gold!
List Price $129.99
Savings $120.00 (93%)
Price: $9.99 + 5 shipping
1saleaday.com
w******t
发帖数: 16937
35
来自主题: Living版 - 想设计个logo
分特,想看专业的?
看这个。声明:因为网络安全原因,我删去了一些必须删去的内容。
http://schema.org/WebPage">Google