k*******t 发帖数: 202 | 1 谢谢大家之前的祝福
今天的电面很轻松, 亚马逊第一次电面, 一个GG问问题, 首先介绍了下他的工作,
巴拉巴拉几分钟然后有要我选一个project自己讲一讲,然后问了问问题,我讲的是
cache design,他问了什么是lfu, lru之类的,还问了不同的policy有啥不同。
然后就问有两个log files,每个file记录了每个customer ID点击link的记录,要求找
出这两个文件中重复出现的ID。并讨论running time。
coding:
一个求和问题,是个人都会写的,就不说了。。。。 |
c******t 发帖数: 1500 | 2 请问log file找重复ID这个题目你是怎么解决的? |
t*****j 发帖数: 1105 | 3 我觉得这个得根据两file数据长度的情况,讨论不同算法。
【在 c******t 的大作中提到】 : 请问log file找重复ID这个题目你是怎么解决的?
|
K******g 发帖数: 1870 | 4 如果file不大,用hashtable
如果file比较大,同trie
如果file非常非常大,用bin sort,每个bin里有可以根据情况用hash或者trie
思路就是把第一个file根据上述情况处理一下,然后把第二个file里的id逐个在第一个
file里过一遍,输出所有重复的。
【在 k*******t 的大作中提到】 : 谢谢大家之前的祝福 : 今天的电面很轻松, 亚马逊第一次电面, 一个GG问问题, 首先介绍了下他的工作, : 巴拉巴拉几分钟然后有要我选一个project自己讲一讲,然后问了问问题,我讲的是 : cache design,他问了什么是lfu, lru之类的,还问了不同的policy有啥不同。 : 然后就问有两个log files,每个file记录了每个customer ID点击link的记录,要求找 : 出这两个文件中重复出现的ID。并讨论running time。 : coding: : 一个求和问题,是个人都会写的,就不说了。。。。
|
k*******t 发帖数: 202 | 5 这道题的trick就是要避免id逐个在另一个file 里过一遍
【在 K******g 的大作中提到】 : 如果file不大,用hashtable : 如果file比较大,同trie : 如果file非常非常大,用bin sort,每个bin里有可以根据情况用hash或者trie : 思路就是把第一个file根据上述情况处理一下,然后把第二个file里的id逐个在第一个 : file里过一遍,输出所有重复的。
|
l*********y 发帖数: 44 | |
k*******t 发帖数: 202 | 7 我回答的是一个一个比较,显然他不满意我这个回答
【在 l*********y 的大作中提到】 : Logfile 你是怎么答的呢。。。
|
A*H 发帖数: 127 | 8 could use bloom filter for large log file |
q******8 发帖数: 848 | |
k*******t 发帖数: 202 | 10 求和问题是:输入整数a, b,a>b, 求输出 n=a+(a+1)+(a+2)+...+b
比如输入a=1, b=6,输出n=1+2+3+4+5+6 = 21
【在 q******8 的大作中提到】 : 求和问题也发一下呗
|