m*****n 发帖数: 4015 | 1 CS 和其他专业不一样。别的专业 比如EE ,念到博士 很正常 因为即便是博士做的东
西也很基础 应用范围广泛。
CS念到博士这个层次就有点偏冷门了。比如你学了个编译器优化 全美国对口的职位就
没几个。如果直接去一个网络公司做马工, 还真是可惜了自己的专业。 |
g******t 发帖数: 11249 | 2 只有县中学出身的phd毕业才跑去当码农
【在 m*****n 的大作中提到】 : CS 和其他专业不一样。别的专业 比如EE ,念到博士 很正常 因为即便是博士做的东 : 西也很基础 应用范围广泛。 : CS念到博士这个层次就有点偏冷门了。比如你学了个编译器优化 全美国对口的职位就 : 没几个。如果直接去一个网络公司做马工, 还真是可惜了自己的专业。
|
d*****u 发帖数: 17243 | 3 现在做底层system的是极少数。
绝大部分都是Information retrieval,AI(语言,图像,机器人),或者信息安全,
网络architect之类的。
【在 m*****n 的大作中提到】 : CS 和其他专业不一样。别的专业 比如EE ,念到博士 很正常 因为即便是博士做的东 : 西也很基础 应用范围广泛。 : CS念到博士这个层次就有点偏冷门了。比如你学了个编译器优化 全美国对口的职位就 : 没几个。如果直接去一个网络公司做马工, 还真是可惜了自己的专业。
|
c*********e 发帖数: 16335 | 4 还真有人信,读个phd就能改变人生命运?现在都是拼爹。
【在 m*****n 的大作中提到】 : CS 和其他专业不一样。别的专业 比如EE ,念到博士 很正常 因为即便是博士做的东 : 西也很基础 应用范围广泛。 : CS念到博士这个层次就有点偏冷门了。比如你学了个编译器优化 全美国对口的职位就 : 没几个。如果直接去一个网络公司做马工, 还真是可惜了自己的专业。
|
m*****n 发帖数: 4015 | 5 做information retrieval 的EE 的人搞不好比CS的人还要多吧
这更像信号处理的问题 又挂靠 语音信号 图像信号。
[在 daigaku () 的大作中提到:]
:现在做底层system的是极少数。
:绝大部分都是Information retrieval,AI(语言,图像,机器人),或者信息安全,
:网络architect之类的。 |
c****x 发帖数: 6601 | 6 人梯而已
【在 c*********e 的大作中提到】 : 还真有人信,读个phd就能改变人生命运?现在都是拼爹。
|
d*****u 发帖数: 17243 | 7 侧重不同。比如EE就没什么人做文本信息提取的。
还有自然语言处理基本都是CS在做。
65533;1�3�2�9) 的大作中提到:]
【在 m*****n 的大作中提到】 : 做information retrieval 的EE 的人搞不好比CS的人还要多吧 : 这更像信号处理的问题 又挂靠 语音信号 图像信号。 : [在 daigaku () 的大作中提到:] : :现在做底层system的是极少数。 : :绝大部分都是Information retrieval,AI(语言,图像,机器人),或者信息安全, : :网络architect之类的。
|
s**********e 发帖数: 33562 | 8 早年语音处理很多EE的人做。例如语音识别的祖师爷级别的 Rabiner,就是EE出身的,
因为很强的信号处理的背景。
现在语音底层的处理成熟了,所以更多CS的人做上层。
【在 d*****u 的大作中提到】 : 侧重不同。比如EE就没什么人做文本信息提取的。 : 还有自然语言处理基本都是CS在做。 : : 65533;1�3�2�9) 的大作中提到:]
|
m*****n 发帖数: 4015 | 9 Rabiner 的那篇马尔可夫模型论文 太经典了。把这个模型能讲解到那种通俗易懂的程
度 这才叫大牛。
[在 stoppingtime (停时) 的大作中提到:]
:早年语音处理很多EE的人做。例如语音识别的祖师爷级别的 Rabiner,就是EE出身的
,因为很强的信号处理的背景。
:现在语音底层的处理成熟了,所以更多CS的人做上层。 |
n*****8 发帖数: 19630 | 10 真有不懂装懂的二货。
cs博士到底学啥都不知道还来菌版YY。
叔来给你们列几个cs博士的研究方向,
人工智能,
网络优化,排队论,付费模型,
计算机图像图形处理,3D图像加速,
网络协议,3g,4g,5g移动通信协议
p2p网络协议
大数据,data warehouse, 云计算,
等等
:-) |
d*****u 发帖数: 17243 | 11 以前语音识别都是用HMM或者衍生出的CRF之类的。
现在对于时间序列LSTM用得比较多。
LSTM的好处是可以有较长的记忆来利用长距离相关性,对输入特征要求也灵活。
【在 m*****n 的大作中提到】 : Rabiner 的那篇马尔可夫模型论文 太经典了。把这个模型能讲解到那种通俗易懂的程 : 度 这才叫大牛。 : [在 stoppingtime (停时) 的大作中提到:] : :早年语音处理很多EE的人做。例如语音识别的祖师爷级别的 Rabiner,就是EE出身的 : ,因为很强的信号处理的背景。 : :现在语音底层的处理成熟了,所以更多CS的人做上层。
|