stay-leave

Results 34 comments of stay-leave

我用的这个 def weight(self,vocab_to_index): #将词映射为预训练词向量 size_vocab = len(vocab_to_index)#字典大小 embeddings = np.zeros((size_vocab, 300))#初始化数组 为零,300维 found=0#匹配到的词向量个数 with open(r'..\datasets\sgns.weibo.char','r',encoding='utf-8') as f:#读取预训练词向量文件 for line_idx, line in enumerate(f):#遍历索引和值,值格式为:词,词向量 line = line.strip().split()#值 if len(line) != 300 +...

网页结构在变,这个时间长了,需要自己重新修改下。不过大部分还是没问题的

你应该是没加cookie,我自己跑了一遍正常的。

random的就是要两个号的最新cookie,多弄几个不容易被识别出来

https://wwt.lanzouw.com/iTwRr06wcrgj

之前看到邮件了,现在有空了发下。 梁艳平,安璐,刘静.同类突发公共卫生事件微博话题共振研究[J].数据分析与知识发现,2020,4(Z1):122-133. 武大的安璐教授一直在做舆情,太厉害了。

https://blog.csdn.net/qq_43814415/article/details/118884832

正文的爬虫是用的别的,有链接。分月只是将其按照时间弄个切片,先用Excel操作,然后将其转为TXT即可

是没有获取到发布时间这个元素,应该是你的cookie不对,用这个网站的cookiehttps://weibo.com/?c=spr_web_sq_kings_weibo_t001 ,然后用Python3.6.8跑这个程序。你打印下get到的网页看看