当前位置: 首页 > 编程日记 > 正文

用Python分析《工作细胞》的一万多条评论后,非漫迷也要入番了

640?wx_fmt=jpeg

作者 | 量化小白一枚,上财研究生在读,专注于数据分析与量化投资

来源 | 量化小白上分记(公众号 id:quanthzp)

责编 | Jane

人工智能的现状及今后发展趋势如何? 

https://edu.csdn.net/topic/ai30?utm_source=csdn_bw

【导语】动漫《工作细胞》最终话已经更新完毕,这部动漫在 b 站上评分高达 9.7。除了口碑之外,热度也居高不下,更值得关注的是连很多平时不关注动漫的小伙伴也加入了追番大军。这次我们的目标是爬取 b 站上的所有短评进行分析,用数据说明为什么这部动漫会如此受欢迎。

一、工作细胞

《工作细胞》改编自清水茜老师的同名漫画,由 David Production 制作。众所周知,日本 ACG 作品向来信奉着“万物皆可萌”的原则。前有《黑塔利亚》,后有《舰队Collection》和《兽娘动物园》,分别讲述了将国家,战舰和动物拟人化后的故事。而在《工作细胞》里拟人的对象则轮到了我们的细胞。

640?wx_fmt=png

这是一个发生在人体内的故事:人的细胞数量,约为37兆2千亿个。其中包括了我们的女主角:一个副业是运输氧气,主业是迷路的红血球。

640?wx_fmt=gif

男主角:一个作者懒得涂色但武力值 max 的白血球。两人一见面就并肩战斗,分别的时候更是满天粉红气泡。

640?wx_fmt=png

虽然嘴上说着:不会,我只是千千万万个白细胞中的一员。身体却很诚实,从第一集偶遇女主到最后一集,每一集都充满了狗粮的味道。37兆分之一的缘分果然妙不可言。

除了男女主角,配角们的人气也都很高。连反派 boss 癌细胞都有人喜欢,主要还是因为身世感人+脸长得好。当然人气最!最!最!高的还是我们奶声奶气的血小板。

640?wx_fmt=jpeg

据宅男们反映:“看了这么多番。只有这一部的老婆是大家真正拥有的。”不仅有,还有很多。除了新颖的科普形式,这部番令人感触最深的是:我们每一个人都不是孤独的个体,有37兆个只属于我们的细胞和我们一同工作不息。每当颓唐和失意的时候,为了那些为了保护你而战斗不止的免疫细胞,为了萌萌的老婆们也要振作起来啊。

《工作细胞》的成功并不是一个偶然,而是众多因素共同作用的结果。下面从数据的角度分析它成为今年7月播放冠军的原因。

谢谢宇哥对这部分的贡献,显然超出我的能力范围!u1F61D.png

二、爬虫

首先要做的是爬取 b 站的所有短评,包括评论用户名、评论时间、星级(评分)、评论内容、点赞数等内容,本部分内容为爬虫代码的说明,不感兴趣的读者可以直接跳过,阅读下一部分的分析。

640?wx_fmt=png

爬的过程写了很久,b站短评不需要登陆直接就可以爬,刚开始用类似之前爬豆瓣的方法,用 Selenium+xpath 定位爬

640?wx_fmt=png

但 b 站短评用这种方法并不好处理。网站每次最多显示 20 条短评,滚动条移动到最下面才会加载之后的 20 条,所以刚开始用了每次爬完之后将定位到当前爬的位置的方法,这样定位到当前加载的最后一条时,就会加载之后的 20 条短评。

逻辑上是解决了这个问题,但真的爬的时候就出现了问题,一个是爬的慢,20条需要十来秒的样子,这个没关系,大不了爬几个小时,但问题是辛辛苦苦爬了两千多条之后,就自动断了,不知道是什么原因,虽然之前爬的数据都存下来了,但没法接着断开的地方接着爬,又要重新开始,还不知道会不会又突然断,所以用这种方法基本就无解了。代码附在下面,虽然是失败的,但也可以爬一些评论下来,供参考。

1# -*- coding: utf-8 -*-
2"""
3Created on Mon Sep 10 19:36:24 2018
4"""

5from selenium import webdriver
6import pandas as pd
7from datetime import datetime
8import numpy as np
9import time
10import os
11
12os.chdir('F:\\python_study\\pachong\\工作细胞')
13def gethtml(url):
14
15    browser = webdriver.PhantomJS()    
16    browser.get(url)
17    browser.implicitly_wait(10)
18    return(browser)
19
20def getComment(url):
21
22    browser =  gethtml(url)
23    i = 1
24    AllArticle = pd.DataFrame(columns = ['id','author','comment','stars1','stars2','stars3','stars4','stars5','unlike','like'])
25    print('连接成功,开始爬取数据')    
26    while True:
27
28        xpath1 = '//*[@id="app"]/div[2]/div[2]/div/div[1]/div/div/div[4]/div/div/ul/li[{}]'.format(i)
29        try:
30            target = browser.find_element_by_xpath(xpath1)
31        except:
32            print('全部爬完')
33            break
34
35        author = target.find_element_by_xpath('div[1]/div[2]').text
36        comment = target.find_element_by_xpath('div[2]/div').text
37        stars1 = target.find_element_by_xpath('div[1]/div[3]/span/i[1]').get_attribute('class')
38        stars2 = target.find_element_by_xpath('div[1]/div[3]/span/i[2]').get_attribute('class')
39        stars3 = target.find_element_by_xpath('div[1]/div[3]/span/i[3]').get_attribute('class')
40        stars4 = target.find_element_by_xpath('div[1]/div[3]/span/i[4]').get_attribute('class')
41        stars5 = target.find_element_by_xpath('div[1]/div[3]/span/i[5]').get_attribute('class')
42        date = target.find_element_by_xpath('div[1]/div[4]').text
43        like = target.find_element_by_xpath('div[3]/div[1]').text
44        unlike = target.find_element_by_xpath('div[3]/div[2]').text
45
46
47        comments = pd.DataFrame([i,author,comment,stars1,stars2,stars3,stars4,stars5,like,unlike]).T
48        comments.columns = ['id','author','comment','stars1','stars2','stars3','stars4','stars5','unlike','like']
49        AllArticle = pd.concat([AllArticle,comments],axis = 0)
50        browser.execute_script("arguments[0].scrollIntoView();", target)
51        i = i + 1
52        if i%100 == 0:
53            print('已爬取{}条'.format(i))
54    AllArticle = AllArticle.reset_index(drop = True)
55    return AllArticle
56
57url = 'https://www.bilibili.com/bangumi/media/md102392/?from=search&seid=8935536260089373525#short'
58result = getComment(url)
59#result.to_csv('工作细胞爬虫.csv',index = False)

这种方法爬取失败之后,一直不知道该怎么处理,刚好最近看到网上有大神爬猫眼评论的文章,照葫芦画瓢尝试了一下,居然成功了,而且爬的速度也很快,十来分钟就全爬完了,思路是找到评论对应的 Json 文件,然后获取 Json 中的数据,过程如下。

在 Google 浏览器中按 F12 打开卡发者工具后,选择 Network

640?wx_fmt=png

往下滑动,会发现过一段时间,会出现一个 fetch,右键打开后发现,里面就是 20 条记录,有所有我们需要的内容,Json 格式。

640?wx_fmt=png

所以现在需要做的就是去找这些 Json 文件的路径的规律。多看几条之后,就发现了规律:

第一个 Json:

https://bangumi.bilibili.com/review/web_api/short/list?media_id=102392&folded=0&page_size=20&sort=0

第二个 Json:

https://bangumi.bilibili.com/review/web_api/short/list?media_id=102392&folded=0&page_size=20&sort=0&cursor=76553500953424

第三个Json:

https://bangumi.bilibili.com/review/web_api/short/list?media_id=102392&folded=0&page_size=20&sort=0&cursor=76549205971454

显然所有的 Json 路径的前半部分都是一样,都是在第一条 Json 之后加上不同的 cursor = xxxxx,所以只要能找到 cursor 值的规律,就可以用循环的办法,爬完所有的 Json,这个值看上去没什么规律,最后发现,每一个 Json 路径中 cursor 值就藏在前一个 Json 的最后一条评论中

640?wx_fmt=png

在 python 中可以直接把 JSON 转成字典,cursor 值就是最后一条评论中键 cursor 的值,简直不要太容易。

所以爬的思路就很清晰了,从一个 Json 开始,爬完 20 条评论后,获取最后一个评论中的cursor值,更改路径之后获取第二个 Json,重复上面的过程,直到爬完所有的 Json。

至于如何知道爬完了所有 Json,也很容易,每个 Json 中一个total键,表示了当前一共有多少条评论,所以只需要写一个while循环,当爬到的评论数达到total值时停止。

爬的过程中还发现,有些 Json 中的评论数不够 20 条,如果每次用 20 去定位,中间会报错停止,需要注意一下。所以又加了一行代码,每次获得 Json 后,通过 len() 函数得到当前 Json中一共包含多少条评论,cursor 在最后一个评论中。

以上是整个爬的思路,我们最终爬到以下信息:

640?wx_fmt=png

需要说明的地方,一个是 liked 按照字面意思应该是用户的点赞数,但爬完才发现全是 0,没有用。另一个是关于时间,里面有 ctime 和 mtime 两个跟时间有关的值,看了几个,基本都是一样的,有个别不太一样,差的不多,就只取了 ctime,我猜可能一个是点击进去的时间,一个是评论提交时间,但没法验证,就随便取一个算了,ctime 的编码很奇怪,比如某一个是 ctime = 1540001677,渣渣之前没有见过这种编码方式,请教了大佬之后知道,这个是Linux系统上的时间表示方式,是1970 年 1 月 1 日 0 时 0 分 0 秒到当时时点的秒数,python 中可以直接用 time.gmtime() 函数转化成年月日小时分钟秒的格式。还有 last_ep_index 里面存的是用户当前的看剧状态,比如看至第 13 话,第 6 话之类的,但后来发现很不准,绝大多数用户没有 last_ep_index 值,所以也没有分析这个变量。

代码如下:

1import requests
2from fake_useragent import UserAgent
3import json
4import pandas as pd
5import time
6import datetime
7headers = { "User-Agent": UserAgent(verify_ssl=False).random}
8comment_api = 'https://bangumi.bilibili.com/review/web_api/short/list?media_id=102392&folded=0&page_size=20&sort=0'
9
10# 发送get请求
11response_comment = requests.get(comment_api,headers = headers)
12json_comment = response_comment.text
13json_comment = json.loads(json_comment)
14
15total = json_comment['result']['total']
16
17cols = ['author','score','disliked','likes','liked','ctime','score','content','last_ep_index','cursor']
18dataall = pd.DataFrame(index = range(total),columns = cols)
19
20
21j = 0
22while j <total:
23    n = len(json_comment['result']['list'])
24    for i in range(n):
25        dataall.loc[j,'author'] = json_comment['result']['list'][i]['author']['uname']
26        dataall.loc[j,'score'] = json_comment['result']['list'][i]['user_rating']['score']
27        dataall.loc[j,'disliked'] = json_comment['result']['list'][i]['disliked']
28        dataall.loc[j,'likes'] = json_comment['result']['list'][i]['likes']
29        dataall.loc[j,'liked'] = json_comment['result']['list'][i]['liked']
30        dataall.loc[j,'ctime'] = json_comment['result']['list'][i]['ctime']
31        dataall.loc[j,'content'] = json_comment['result']['list'][i]['content']
32        dataall.loc[j,'cursor'] = json_comment['result']['list'][n-1]['cursor'
33        j+= 1
34    try:        
35        dataall.loc[j,'last_ep_index'] = json_comment['result']['list'][i]['user_season']['last_ep_index']
36    except:
37        pass
38
39    comment_api1 = comment_api + '&cursor=' + dataall.loc[j-1,'cursor'
40    response_comment = requests.get(comment_api1,headers = headers)
41    json_comment = response_comment.text
42    json_comment = json.loads(json_comment)
43
44    if j % 50 ==0:
45        print('已完成 {}% !'.format(round(j/total*100,2)))
46    time.sleep(0.5)
47
48
49
50dataall = dataall.fillna(0)
51
52def getDate(x):
53    x = time.gmtime(x)
54    return(pd.Timestamp(datetime.datetime(x[0],x[1],x[2],x[3],x[4],x[5])))
55
56dataall['date'] = dataall.ctime.apply(lambda x:getDate(x))
57
58dataall.to_csv('bilibilib_gongzuoxibao.xlsx',index = False)

三、影评分析

最终一共爬到了 17398 条影评数据。里面的 date 是用 ctime 转过来的,接下来对数据进行一些分析,数据分析通过 python3.6 完成。

640?wx_fmt=png

  • 评分分布

评分取值范围为2、4、6、8、10分,对应1-5颗星

640?wx_fmt=png

可以看出,几乎所有的用户都给了这部动漫五星好评,影响力可见一斑。

  • 评分时间分布

将这部动漫从上线至今所有的评分按日进行平均,观察评分随时间的变化情况

640?wx_fmt=png

可以看出,评分一直居高不下,尤其起始和结束时都接近满分,足见这是一部良好开端、圆满结束的良心作品。

  • 每日评论数

看完评分之后,再看看评论相关的数据,我最感兴趣的是,这些评论的时间分布是怎么样的,统计了每一日的评论数之后,得到了评论数的分布图

640?wx_fmt=png

基本上是每出了新的一话,大家看完后就会在短评中分享自己的感受,当然同样是起始和结束阶段的评论数最多,对比同期的百度指数

640?wx_fmt=png

  • 评论日内分布

除了每日的评论数,也想分析一下评论的日内趋势,用户都喜欢在每日的什么时间进行评论?将评论分 24 个小时求和汇总后,得到了下图

640?wx_fmt=png

不过这个结果就不是很理想了,横轴是时间,纵轴是评论数,中午到下午的趋势上升可以理解,晚上七八点没有人评论反倒是凌晨三四点评论数最多,这个就很反常了,可能是评论在系统中上线的时间有一定偏差?

  • 好评字数

此外还想分析一下,是否点赞数多的,一定是写的字数越多的?因为文章中大部分的评论是没有点赞的,所以这里中统计了有点赞(likes>0)的评论点赞数和评论字数的数据。由于有一条评论字点赞数太多,严重偏离整体趋势,所以做了对数图进行观察。

640?wx_fmt=png

整体来看,似乎没什么关系,大量字数 1-100 不等的,点赞数都为 1,点赞数大于 5 的部分有一定的正相关性,说明评论不仅要看数量,还要看质量,写出了大家的心声,大家才会使劲点赞。

  • 评论分析 TF-IDF

分析完基础数据后,想更深入挖掘一下评论信息,大家都说了些什么?为什么这部剧这么受欢迎?也许都能在评论中找到答案。

jieba 分词、去除停止词、计算词频和 TF-IDF 的过程不表,与之前两篇文章类似。我们提取了重要性前 500 的词,这里展示部分

640?wx_fmt=png

血小板高居首位,毕竟大家对萌萌哒事物都是没什么抵抗力的。

词语中也存在一些意义不大的词,前期处理不太到位。不过从这些词云中还是可以看出很多东西,为什么这部剧如此受欢迎?这里通过分词可以得到以下三个解释:

1. 题材好:科普类动漫,老少皆宜

评论中提到了科普、生物、题材等词,还有各种细胞。区别于一般科普向动漫受众低幼的问题,这部番的受众年龄比较广泛。因为所涉及到的知识并不算过于常识。动漫中,每一话,身体的主人都会生一场病,每次出现新的细胞和病毒出现时,都会对他们的身份有比较详细和准确的介绍

640?wx_fmt=jpeg

这种形式寓教于乐,同时战斗的过程也充分地体现了每种细胞的特性。例如,前期因为战斗力弱而被别的细胞瞧不起的嗜酸性粒细胞,在遇到寄生虫的时候大放异彩。可以说,每一种细胞爆种都爆得都有理有据。

2. 人设好

这部番把几乎人体所有的细胞拟人化:红细胞、白细胞、血小板、巨噬细胞等。每一种细胞都有比较独特的设定,从御姐到萝莉,从高冷到话痨。十几个出场的主要人物都各自有立得住的萌点。满足各种口味的需求。

640?wx_fmt=jpeg

3. 制作精良

这一点是毋庸置疑的,好的人设好的题材,如果没有好的制作,都是白谈,评论中也有很多人提到了“声优”、“配音”等。

当然一部剧能够火,不仅仅是这么简单的原因,这里所说的,只是从数据可以看出的,观众的直观感受。

最后我们以萌萌哒血小板词云作为文章的结尾。

640?wx_fmt=png

(本文为AI科技大本营转载文章,转载请联系原作者)

如何挑战百万年薪的人工智能!

https://edu.csdn.net/topic/ai30?utm_source=csdn_bw

群招募

扫码添加小助手微信,回复:公司+研究方向(学校+研究方向),邀你加入技术交流群。技术群审核较严,敬请谅解。

640?wx_fmt=jpeg

推荐阅读:

  • 曝贾扬清第二跳,加入阿里!达摩院或将承载中国下一个AI愿景?

  • 投稿近2000,NAACL 2019接收率仅为22.6%|附录取论文名单

  • 如何从零开始用PyTorch实现Chatbot?(附完整代码)

  • Python语音识别终极指南(收藏)

  • 被感冒折磨一周后,我研究了一下生病这件事

  • 北京程序媛图鉴 | 程序员有话说

  • 阿里云又宕机!

  • 一部刷爆朋友圈的5G短片,看完才知道5G多暖多重要!

  • 20万赚200万,48岁创业者是这样吊打小鲜肉的!

  • 为啥程序员下班后只关显示器从不关电脑?

640?wx_fmt=png

❤点击“阅读原文”,查看历史精彩文章。

相关文章:

【VritualBox】虚拟机VirtualBox中ubuntu下加载USB设备报错:busy with a previous request.Plaease try again later

1、问题描述 在VirtualBox中添加USB设备时&#xff0c;报错&#xff1a; USB device with ‘SanDisk Crurer Blade’UUID {*} is busy with a previous request.Plaease try again later 返回 代码: E_INVALIDARG(0x80070057) 组件: HostUSBDeviceWrap 界面&#xff1a; I…

谈谈动态规划的思想

动态规划&#xff08; dynamic programming &#xff09;算法是解决多阶段决策过程最优化问题的一种常用方法&#xff0c;难度比较大&#xff0c;技巧性也很强。利用动态规划算法&#xff0c;可以优雅而高效地解决很多贪婪算法或分治算法不能解决的问题。动态规划算法的基本思想…

关于ARM启动的一篇文章

时间&#xff1a;2010-12-28 09:22:36 来源&#xff1a;老古开发网 作者&#xff1a;写的不错, 应该对大家有所帮助&#xff1a; 基于ARM的芯片多数为复杂的片上系统,这种复杂系统里的多数硬件模块都是可配置的,需要由软件来设置其需要的工作状态。因此在用户的应用程序之前,需…

【Qt】QImage加载bmp位图数据

QImage直接加载bmp文件 QImage image(image.bmp); QImage加载已经获取的bmp数据 unsigned char *imageData = NULL; int imageLen = (102*3+2)*126+54; imageData = (unsigned char*)malloc(imageLen); FILE*stream; if((stream=fopen("image.bmp","r")…

CVPR 2019审稿满分论文:中国博士提出融合CV与NLP的视觉语言导航新方法

整理 | 刘畅、Jane 责编 | Jane 出品 | AI科技大本营&#xff08;公众号id&#xff1a;rgznai100&#xff09; 如何挑战百万年薪的人工智能&#xff01; https://edu.csdn.net/topic/ai30?utm_sourcecsdn_bw CVPR 2019 接收论文编号公布以来&#xff0c;AI科技大本营开始陆续…

有无目标的人生差10倍!赶紧和娃把新年计划做起来

春节连续几天朋友圈都是吃吃喝喝、陪父母陪娃、游山玩水&#xff0c;一派国泰民安的祥和状。昨晚一大学闺蜜突发感概&#xff0c;哎&#xff0c; 2018都快过1/6了&#xff0c;新年计划还没开始做&#xff0c;难道还是只能一声轻叹“今年一定是非常有意义的一年”吗&#xff1f;…

installshield 2009实现安装包自动编译

1.根据当前日期&#xff0c;在服务器上建立一个以日期命名的文件夹&#xff0c;删除本地现有的文件夹并下载最新的文件到本地call mydate %DATE%Rem Copy files from common folder on the designer to the common folder on my computerrd "F:\MySourceFile\MMS2.0\progr…

首发 | 旷视14篇CVPR 2019论文,都有哪些亮点?

译者 | Linstancy 责编 | Jane 出品 | AI科技大本营&#xff08;公众号id&#xff1a;rgznai100&#xff09; 回顾 CVPR 2018 &#xff0c;旷视科技有 8 篇论文被收录&#xff0c;如高效的移动端卷积神经网络 ShuffleNet、语义分割的判别特征网络 DFN、优化解决人群密集遮挡问…

【Qt】Qt多屏编程,在指定显示屏上显示指定对话框

问题描述 主机连接两个显示器,一主一副,要求主显示器显示主界面,副显示器显示一对话窗口 解决方法 使用QDesktopWidget QDialog dlg = new QDialog(this); QDesktopWidget* desktop = QApplication::desktop(); this->setGeometry(desktop->screenGeometry(0)); …

Kruskal算法 - C语言详解

最小生成树 在含有n个顶点的连通图中选择n-1条边&#xff0c;构成一棵极小连通子图&#xff0c;并使该连通子图中n-1条边上权值之和达到最小&#xff0c;则称其为连通网的最小生成树。 例如&#xff0c;对于如上图G4所示的连通网可以有多棵权值总和不相同的生成树。 克鲁斯卡尔…

JavaScript初学者应注意的七个细节

每种语言都有它特别的地方&#xff0c;对于JavaScript来说&#xff0c;使用var就可以声明任意类型的变量&#xff0c;这门脚本语言看起来很简单&#xff0c;然而想要写出优雅的代码却是需要不断积累经验的。本文利列举了JavaScript初学者应该注意的七个细节&#xff0c;与大家分…

开学季,教你用Python画大学教室座位神分区图!网友直呼“中枪”

作者 | 丁彦军转载自恋习Python&#xff08;ID:sldata2017&#xff09;我们上过大学的朋友们都知道&#xff0c;大学没有固定教室也没有固定的座位&#xff0c;所以大家可以随便找个自己喜欢的位置坐下。别看这些不起眼的座位&#xff0c;感觉没什么差别。其实&#xff0c;它们…

【Qt】在ubuntu上打包发布Qt程序,可以不依赖Qt环境

参考博客 https://blog.csdn.net/theArcticOcean/article/details/68069964 https://blog.csdn.net/hjl_1991/article/details/50365927 亲测过程 1、编译处release版本的Qt程序 2、创建打包文件夹 mkdir release 3、进入文件夹&#xff0c;将要打包的程序拷贝到文件中 cd r…

Smart template的控件能否当成普通控件来用

我的同事问过我这个问题&#xff1a; 只要弄清楚Smart control的原理&#xff0c;就能回答这个问题。 答案是: smart control可以像普通的控件一样在xml view中被定义和使用&#xff0c;但是必须结合OData annotation&#xff0c;否则没有意义。以Smart control里的Smart field…

60行代码爬取知乎“神回复”,句句戳中泪点

作者 | shenzhongqiang转载自Python与数据分析&#xff08;ID:PythonML&#xff09;之前的一篇文章《爬了下知乎神回复&#xff0c;笑死人了~》发布后&#xff0c;引发了大家热烈的反响。很多朋友觉得很神奇&#xff0c;在后台问强哥是怎么做到的&#xff0c;有的朋友还表示不太…

IDC行业前景,机遇与挑战并存

中国互联网信息中心(CNNIC)发布了截至2010年6月底中国互联网发展基本情况的报告。在这半年一次的例行报告中&#xff0c;照例有些鼓舞人心的好消息。报告显示中国网民规模达到4.2亿&#xff0c;较09年底增长2.9%&#xff0c;宽带普及率达到98.1%&#xff0c;宽带网民规模为3.64…

【Ubuntu】Ubuntu14.04添加163的源

1、简单的两步 sudo cp /etc/apt/sources.list /etc/apt/sources.list.bak sudo wget -O /etc/apt/sources.list http://mirrors.163.com/.help/sources.list.trusty sudo apt update2、注意 这是更改Ubuntu14.04的源&#xff0c;针对ubuntu其它版本参见博客 【Ubuntu】将Ub…

用模板实现单例模式(线程安全)、模板方式实现动态创建对象

一、用模板实现单例模式 在前面的文章中&#xff0c;用过多种方法实现单例模式&#xff0c;现在用模板方式来实现&#xff1a; 为了实现线程安全&#xff0c;需要在linux 下使用pthread_mutex_t 加锁&#xff0c;请使用g 编译并需要链接 -lpthread 使用的是double-check lock&a…

推荐系统召回四模型之全能的FM模型

作者 | 张俊林作者简介&#xff1a;中国中文信息学会理事&#xff0c;中科院软件所博士。目前在新浪微博 AI Lab 担任资深算法专家。在此之前&#xff0c;张俊林曾经在阿里巴巴任资深技术专家并负责新技术团队&#xff0c;以及在百度和用友担任技术经理及技术总监等职务。同时他…

MIDP2.0引入了Push注册机制

PushMIDP2.0引入了Push注册机制&#xff0c;作为一种允许应用被自动启动的方法&#xff0c;由预先设置的警告或者经inbound连接收到的消息。 通过这种方法&#xff0c;MIDlets可以用来设置处理规则事件&#xff0c;如定时从服务器上同步数据&#xff0c;或者非规则事件如一个突…

【OpenCV】cv::Mat和std::vector之间的相互转换

Mat转换成Vector 以vector 为例&#xff0c;其它模型类似 vector getVector(const Mat & a) { Mat b; a.convertTo(b, CV_64F); return (vector)(b.reshape(1, 1)); } Vector转换成Mat 使用Mat的构造函数 std::vector responses; cv::Mat tres; tres Mat(resp…

mysql数据库密码忘记恢复脚本

#!/bin/bashread -p "请输入你要修改的密码&#xff1a;" passwordskipawk /skip-grant-tables/{print $1} /etc/my.cnfif [ ! -n "$skip" ];then ##判断是否有skip-grant-tablessed -i /^[mysqld]/askip-grant-tables /etc/my.cnf ##变量为空就执行插入el…

-16 | 12 等于多少

2019独角兽企业重金招聘Python工程师标准>>> 今天同事问到一个问题 -16 | 12 等于多少&#xff1f; 从教材中知道&#xff0c;二进制数的第一位是符号位&#xff0c;正数为0&#xff0c;负数为1&#xff0c;再根据取反的定义可得到如下算式&#xff08;假设整形是占…

深度学习在自动驾驶感知领域的应用

程序员转行学什么语言&#xff1f; https://edu.csdn.net/topic/ai30?utm_sourcecsdn_bw 本次直播课程是由深度学习资深研究者-杨阳博士从百度Apollo自动驾驶感知技术出发&#xff0c;讲解环境感知中深度学习的实用性与高效性。 课程从Apollo 3.5感知技术介绍、自动驾驶中的目…

【Qt】QObject::moveToThread 总结

原型 void QObject::moveToThread(QThread *targetThread) 功能 将QObject及其孩子移动到 指定线程&#xff08;targetThread&#xff09;中。它的事件将在targetThread线程中处理。 注意事项 1、该对象不能有parent&#xff0c;否则无法移动。 2、如果targetThread为零,…

中国联通备战5G MWC发布《Edge-Cloud平台架构及产业生态白皮书》

2月26日&#xff0d;3月1日&#xff0c;中国联通受邀参加2018MWC世界移动通信大会&#xff0c;作为本次大会GSMA智慧城市展区参展的唯一中国运营商&#xff0c;中国联通提出以服务为驱动的面向5G网络切片的演进思路&#xff0c;为客户提供4G到5G演进阶段的一致性的网络服务&…

转自一个面试者的“提示”

转自CSDN&#xff1a;http://topic.csdn.net/u/20110112/15/FFCBED16-E346-4074-87EE-0D682EF67FE2.html 希望对2011年努力寻找工作的人有帮助。 最近一直在参与公司的面试&#xff0c;为公司招收SE和SA。今天总结发现最近一共面试了二十几份简历&#xff0c;并且都是经过HE和猎…

【OpenCV】读取csv文件

csv简介 逗号分隔值&#xff08;Comma-Separated Values&#xff0c;CSV&#xff0c;有时也称为字符分隔值&#xff0c;因为分隔字符也可以不是逗号&#xff09;&#xff0c;其文件以纯文本形式存储表格数据&#xff08;数字和文本&#xff09;。纯文本意味着该文件是一个字符…

300道Python面试题,备战春招!

作者 | kenwoodjw 责编 | Jane 出品 | Python大本营&#xff08;ID&#xff1a;pythonnews&#xff09; 程序员转行学什么语言&#xff1f; https://edu.csdn.net/topic/ai30?utm_sourcecsdn_bw 过年开工回来到现在&#xff0c;营长每天在地铁里只看到了两家公司的广告&…

稻盛和夫《活法》

以下内容是摘自<稻盛和夫>的《活着》中文翻译版。此生将托付于此书&#xff01; “吾等定此血盟不为私利私欲&#xff0c;但求团结一致&#xff0c;为社会、为世人成就事业。特此聚合诸位同志&#xff0c;血印为誓。”——稻盛和夫 1.人类活着的意义、人生的目的到底是什…