门生

Results 4 comments of 门生

看见没有杨巨峰老师的,这里补一个 20级 讲的还可以。上课不让看书,让全程跟着他,所以一定要课前预习,否则听不懂 码量比其他班大,10次作业,不用写报告,只要让助教检查程序是否正确执行即可。前几次会简单点,但后面的比较麻烦。比较印象深刻的是实现稀疏链表矩阵加减乘除和手撸红黑树,比较占时间,但如果真能自己实现还是有提升的。 期末难度一般,和往年题风格类似,所以考前把往年题刷一遍,常用算法流程,复杂度和用途牢记于心,时间富足刷刷考研题可以取得不错的成绩。

雷课,老师不好好讲课,网上可以找见他讲的课,自行体会。期末考试要疯狂背诵,我愿称之为赛博马原,卷子上要写1400字左右。 一学期下来ppt和word水平直线上升。 最后善意提醒,如果为了学分选了这门课,别当组长,真的,大部分事情最后都得自己完成,当个组员水学分就行。

这里来写个23年秋招的经验贴,我这里写的详细一点,希望能帮到学弟学妹。 #### 预备知识 [HC?OC?这些校招黑话你看明白了吗?_牛客网 (nowcoder.com)](https://www.nowcoder.com/discuss/353159076152549376) 实习分日常实习和暑期实习,区别是有无转正资格和时间点。日常实习难度算最低的了,全年都可尝试投递参加,没有笔试直接面试。暑期实习难度和秋招持平,流程和秋招一致,需要笔试面试。 招聘分秋招和春招,秋招是招聘需求量最大的时候,在大四上,六月中旬到七月下旬是提前批,免笔试,但很难过简历。八月份九月份是秋招的重头戏,找工作的人这个时候最忙,十月份十一月份就到秋招尾巴了。春招相当与是秋招的补录,秋招没招够再春招,所以hc很少。 找工作比较看实习,但没有实习并不意味着找工作凉凉,我没有实习,找起来确实困难点,但不至于找不到。 #### 心态建设 我第一次面试时非常磕巴,很多要点没有答上来,面完被秒挂,难受了很久。找工作和找实习要有信心,脸皮厚点,肯定自己。天下公司多着呢,又不缺这一家。谁找工作没被拒绝过呢。 #### 准备阶段 时代变了,大人 我是计科c++选手,海投了100多家,涉及互联网,游戏,嵌入式等各个方向,主要还是互联网,因为给的钱多,暂时不考虑稳定性。有70多家没有动静,可能直接简历挂了。笔试做了20多家的,走到面试流程的有15家左右,有几家到目前一直在流程中没有动静,权当挂了。自己主动放弃了几家的流程,因为部门边缘且用的不是c++,到目前收到3家的oc。 后端竞争人数最多,但公司的技术岗hc大部分在这里。java后端竞争人数最多,岗位也最多。其实c++没有后端,c++一般都是服务器开发,基础架构等岗位,别头铁找c++,c++的hc太少,看我投递和oc的比例就知道了。很多公司在转golang,现在不确定go的未来,找后端推荐走java。 算法,本科生日常实习可能有机会,暑期实习和找工作基本没戏。 如果想找工作容易点推荐测开岗,八股的广度和深度没后端难。 最好多参加相关竞赛,比如acm和计算机系统能力大赛。大一的话参加参加acm,没参加也没事,找工作的重点还是项目和八股。 ##### 八股 小林coding,java guide,阿秀的学习笔记,个人感觉小林coding最好。牛客上的面经也要看一看 ##### 刷题 过简历后需要参加笔试,这个笔试里面的题比面试时候做的要难。我刷题量100左右的时候去投递暑期实习,很多公司的笔试题只能ak签到题。大三下暑假我的刷题量到了400道左右,这个时候做公司的笔试题感觉容易一点了。编程题要一直做。 面试过程会做题,leetcode的hot100和剑指offer足够应付面试中的编程题了。 经典hard题一定要会做,不会也得背下来。比如接雨水,LRU,八皇后,24点,二叉树最大路径和,两个数组的中位数等等。有一些甚至要会多种解法。字节特别爱考接雨水这道题,面的时候要求我写出最优解。 ##### 项目...

没有期末考试,有4次平常作业,一个大作业 - 第一次作业:用的stanford信息检索第一次作业的代码框架,实现一个带压缩的倒排索引,用BSBI算法。初上手挺麻烦的,因此第一次作业后退的人挺多的。 - 第二次作业:研读一篇论文,录10分钟左右视频讲解。 - 第三次作业:自己实现向量检索,python两三百行完事。 - 第四次作业:关于信息检索的调研,3000到5000字。 - 大作业:实现一个简易的搜索引擎,实现的好的话应该可以写进简历。 个人感想:我当初抢不上区块链和网络技术,没办法为了学分选择了这门课。优点是老师讲的好。缺点也是显而易见的,事情比其他专选课多,写大作业要用的时间多,老师和助教对大作业帮助少,只能自己查文档,调包,很累。 一些建议: 1. 关于爬虫:了解下html结构,这个爬虫的时候会用的,推荐用beautifulsoup包。复习下http协议,计网讲过,看看就行,因为爬虫时候需要get请求和处理异常的状态码。推荐用requests包。搜索引擎的爬虫简单来说是一个数据规模庞大的宽度优先搜索,实现请参考下面第二个仓库 2. 关于分词:由于爬取的网站不止中文,还有其他语言,分词会很困难。处理方式参考下面第二个仓库。中文分词用jieba,一个cut_for_search函数搞定 3. 关于链接分析:需要实现pagerank算法,我没有实现链接分析。给不了大家建议了 4. 关于索引构建:作业文档里推荐调用elasticsearch包,但我建议自己实现一个倒排索引就好,再多一个包的学习成本太累了,实现的时候简单能用就行,不用考虑性能,一两百行就能实现。 5. 构建的索引和文件如何存储: 存储构建好的倒排索引图省事直接用pickle的dump函数,要加载构建好的倒排索引直接调用load函数就行。爬取到的文件我用json格式存的,加载和存储都很方便。 6. 关于检索模型: 我用向量检索模型实现的,这个因为第三次作业实现过了。下面第一个仓库实现的是概率模型中的bm25模型,他有专门的写文章说明他的搜索引擎是怎么实现的,推荐大家康康。 7. 关于推荐系统: 看第一个仓库作者写的文章就行,代码都贴出来了...