3月10日,2024中国种子(南繁硅谷)大会新闻发布会在三亚举行。本届大会继续以“中国种业振兴 南繁硅谷崛起”为主题,将于3月16日—20日在三亚举办。
新闻发布会现场。今年是种业振兴行动“三年打基础,五年见成效”阶段性目标承上启下的关键一年。2024中国种子(南繁硅谷)大会旨在广泛交流种业振兴行动取得的三年打基础成效和下一阶段工作,助力种业振兴行动和南繁硅谷建设,为中国种业振兴鼓与呼,为南繁硅谷崛起策与谋。本届大会将举办开幕式、主旨报告会、15个专题报告会和展览展示等活动,其中展览展示分为室内展览和品种展示,室内展览超5000平方米,将集中展示崖州湾科技城建设、海南农垦南繁发展等成果和40多家企业及单位的创新成效;品种展示位于三亚崖州区国家现代农业(种业)产业园,共面向国内外征集了2200多个品种,目前作物长势良好,具备参观条件。<< 左右滑动查看更多 >>此外,大会将举办“海南好吃系列活动”,评鉴出海南好吃辣椒、海南好吃鲜食玉米、海南好吃南瓜、海南好吃番茄等金奖品种,并在17日的大会主旨报告会上发布。大会还将于5月、7月、9月期间分别在河北辛集、浙江东阳、河北张家口和黑龙江北安举办小麦种业展示会、鲜食玉米种业展示会、青贮玉米种业展示会和大豆种业展示会,以三亚为基点,全国多点联动进行品种展示示范推广。隆平高科代表性品种。图源三亚南繁微信公众号 本届大会嘉宾云集,群英荟萃,中国科学院院士李家洋、谢华安、杨维才、钱前、元英进,中国工程院院士盖钧镒、万建民、张洪程、胡培松、许为钢等10位院士将参会,包括8位国家产业技术体系首席科学家在内的近200名嘉宾作报告。中国种子(南繁硅谷)大会已在三亚成功举办三届,已成为中国种业的群英大会、博览大会、共享大会、引领大会和世界种业界的中国大会。新闻多一点
2024中国种子(南繁硅谷)大会
田间展示区征集2332个新优品种
2024中国种子(南繁硅谷)大会将于3月16日至20日在三亚举办。此次新增的国际展区和企业展区为供种单位量身定制,番茄、辣椒、茄子、南瓜等作物长势良好,旨在为种业发展提供国际化的交流合作平台。
“本届大会田间展示区面向全国征集了2332个品种,其中水稻237个、玉米299个、杂粮28个、茄果类973个、瓜类695个。草莓番茄、樱桃番茄等口感型番茄进行集中展示,加工型辣椒品种进行专展。”国家现代农业(种业)产业园地展技术顾问马文全说。
资料图:工作人员在三亚市崖州区国家现代农业产业园区的彩色稻田内劳作。王程龙 摄
相比往年,今年田间展示区配套设施更加完善,种植管理突出绿色防治技术,农资农药尽可能采用生物菌剂和绿色有机肥,种植物资也尽可能采用可再生资源。
“在有机肥使用上,我们把羊粪换成鸡粪,把碱性肥料换成了生理酸性的肥料。在化肥使用上,把化肥数量缩减了30%,增施有机肥、生物肥料、微肥等比较绿色的肥料。”马文全透露,园区在应对病虫害上采取生物防治措施,通过种植伴生植物、释放捕食螨等虫害天敌等方式驱赶害虫。此外,在生物菌剂的使用上,园区与中国农业科学院棉花研究所合作,将最新的专利产品应用在瓜菜展示区的土壤处理;并与中国农业大学植物保护学院联合建立了生态防治试验区,不用传统的化学农药应对蓟马爆发,为海南现代农业绿色生产探路。
今起,试行开通!
有剧毒,不能吃!严重可致命!
二月二,龙抬头!
来源:海南日报、农民日报
编辑:陈 怡
审核:廖宝玉
小编这两天爬取了《庆余年》的微博数据,来看一下他的表现吧~
原著人物关系图谱
如果只看微博,不分析原著,那就不是一个合格的书粉。
于是我去下载了原著画一下人物关系图谱。
先给大家看一下原著的人物关系图谱:
emmm…确实挺丑的,大家可以去Gephi上调整。
首先我需要从原著里洗出人物名,尝试用jieba分词库来清洗:
import jieba
test= 'temp.txt' #设置要分析的文本路径
text = open(test, 'r', 'utf-8')
seg_list = jieba.cut(text, cut_all=True, HMM=False)
print("Full Mode: " + "/ ".join(seg_list)) # 全模式
生成一个适合你的列表,发现并不能很好的切分出所有人名,最简单的方法是直接准备好人物名称和他们的别名,这样就能准确定位到人物关系。
存储好人物表,以及他们对应的别名(建立成字典)
def synonymous_names(synonymous_dict_path):
with codecs.open(synonymous_dict_path, 'r', 'utf-8') as f:
lines = f.read().split('\n')
for l in lines:
synonymous_dict[l.split(' ')[0]] = l.split(' ')[1]
return synonymous_dict
接下来,清理文本数据:
def clean_text(text):
new_text = []
text_comment = []
with open(text, encoding='gb18030') as f:
para = f.read().split('\r\n')
para = para[0].split('\u3000')
for i in range(len(para)):
if para[i] != '':
new_textend(para[i])
for i in range(len(new_text)):
new_text[i] = new_text[i].replace('\n', '')
new_text[i] = new_text[i].replace(' ', '')
text_commentend(new_text[i])
return text_comment
我们需要进一步统计人物出现次数,以及不同人物间的共现次数:
text_node = []
for name, times in person_counter.items():
text_nodeend([])
text_node[-1]end(name)
text_node[-1]end(name)
text_node[-1]end(str(times))
node_data = DataFrame(text_node, columns=['Id', 'Label', 'Weight'])
node_data.to_csv('node.csv', encoding='gbk')
结果样例如下:
不愧是主角,范闲出现的次数超过了其他人物出现次数的总和,基本每个人都与主角直接或间接地产生影响。
同理可以得到不同人物的边,具体代码参考源文件。
接下来需要做的就是利用Gephi绘制人物关系图谱:
运行结果:
庆余年微博传播分析
《庆余年》在微博上一直颇受好评,那么我们就去微博看一下大家都在讨论啥:
一条条看显然不符合数据分析师身份。
于是爬取了微博超话页面,然后找到相关人员,分别去爬取相关人员的微博评论,看看大家都在讨论啥。
import re
import time
import copy
import pickle
import requests
import argparse
'''微博爬虫类'''
class weibo():
def __init__(self, **kwargs):
self.login_headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.109 Safari/537.36',
'Accept': '*/*',
'Accept-Encoding': 'gzip, deflate, br',
'Accept-Language': 'zh-CN,zh;q=0.9,en;q=0.8',
'Connection': 'keep-alive',
'Origin': 'https://passport.weibo',
'Referer': '/d/file/gt/2024-03/ehk5pkirxjv = 'https://passport.weibo/sso/login'
self.home_url = '/d/file/gt/2024-03/jmuhkhr1hzi = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/72.0.3626.109 Safari/537.36',
}
self.session = requests.Session()
self.time_interval = 1.5
'''获取评论数据'''
def getComments(self, url, url_type='pc', max_page='all', savename=None, is_print=True, **kwargs):
# 判断max_page参数是否正确
if not isinstance(max_page, int):
if max_page != 'all':
raise ValueError('[max_page] error, weibo.getComments -> [max_page] should be <number(int) larger than 0> or <all>')
else:
if max_page < 1:
raise ValueError('[max_page] error, weibo.getComments -> [max_page] should be <number(int) larger than 0> or <all>')
# 判断链接类型
if url_type == 'phone':
mid = url.split('/')[-1]
elif url_type == 'pc':
mid = self.__getMid(url)
else:
raise ValueError('[url_type] error, weibo.getComments -> [url_type] should be <pc> or <phone>')
# 数据爬取
headers = copy.deepcopy(self.headers)
headers['Accept'] = 'application/json, text/plain, */*'
headers['MWeibo-Pwa'] = '1'
headers['Referer'] = 'https://m.weibo/detail/%s' % mid
headers['X-Requested-With'] = 'XMLHttpRequest'
url = '/d/file/gt/2024-03/auck54vpc1k mid)
num_page = 0
comments_data = {}
while True:
num_page += 1
print('[INFO]: Start to get the comment data of page%d...' % num_page)
if num_page > 1:
url = '/d/file/gt/2024-03/oyq55a41lna mid, max_id, max_id_type)
res = self.session.get(url, headers=headers)
comments_data[num_page] = res.json()
if is_print:
print(res.json())
try:
max_id = res.json()['data']['max_id']
max_id_type = res.json()['data']['max_id_type']
except:
break
if isinstance(max_page, int):
if num_page < max_page:
time.sleep(self.time_interval)
else:
break
else:
if int(float(max_id)) != 0:
time.sleep(self.time_interval)
else:
break
if savename is None:
savename = 'comments_%s.pkl' % str(int(time.time()))
with open(savename, 'wb') as f:
pickle.dump(comments_data, f)
return True
'''模拟登陆'''
def login(self, username, password):
data = {
'username': username,
'password': password,
'savestate': '1',
'r': 'https://weibo/',
'ec': '0',
'pagerefer': 'https://weibo/pub/',
'entry': 'mweibo',
'wentry': '',
'loginfrom': '',
'client_id': '',
'code': '',
'qq': '',
'mainpageflag': '1',
'hff': '',
'hfp': ''
}
res = self.session.post(self.login_url, headers=self.login_headers, data=data)
if res.json()['retcode'] == 20000000:
self.session.headers.update(self.login_headers)
print('[INFO]: Account -> %s, login successfully...' % username)
return True
else:
raise RuntimeError('[INFO]: Account -> %s, fail to login, username or password error...' % username)
'''获取PC端某条微博的mid'''
def __getMid(self, pc_url):
headers = copy.deepcopy(self.headers)
headers['Cookie'] = 'SUB=_2AkMrLtDRf8NxqwJRmfgQzWzkZI11ygzEieKdciEKJRMxHRl-yj83qhAHtRB6AK7-PqkF1Dj9vq59_dD6uw4ZKE_AJB3c;'
res = requests.get(pc_url, headers=headers)
mid = re.findall(r'mblog&act=(\d+)\\', res.text)[0]
return mid
if __name__ == '__main__':
import argparse
parser = argparse.ArgumentParser(description="weibo comments spider")
parser.add_argument('-u', dest='username', help='weibo username', default='')
parser.add_argument('-p', dest='password', help='weibo password', default='')
parser.add_argument('-m', dest='max_page', help='max number of comment pages to crawl(number<int> larger than 0 or all)', default=100)
parser.add_argument('-l', dest='link', help='weibo comment link', default='')
parser.add_argument('-t', dest='url_type', help='weibo comment link type(pc or phone)', default='pc')
args = parser.parse_args()
wb = weibo()
username = argsername
password = args.password
try:
max_page = int(float(args.max_page))
except:
pass
**加粗样式**url = args
url_type = args.url_type
if not username or not password or not max_page or not url or not url_type:
raise ValueError('argument error')
wb.login(username, password)
wb.getComments(url, url_type, max_page)
爬取到微博评论后,老规矩,词云展示一下,不同主角的评论内容差别还是挺大的
微博评论词云分析
不同主演的评论风格差异较大,也与微博内容息息相关。
张若昀
李沁
从大家的评论来看,情绪比较正向,评价较高,怪不得《庆余年》会这么的火。
这部剧在微博热度这么高,都是谁在传播呢?
于是我进一步点击用户头像获取转发用户的公开信息。
看了一下几位主演的相关微博,都是几十万的评论和转发,因为真的太多了,于是小编换成了官微的微博。
这条微博发布时间是26号,经过一段时间已经有比较好的传播,其中有几个关键节点进一步引爆话题。
经过几个关键节点后,进一步获得传播,这几个关键节点分别是:
肖战的超话:
/d/file/gt/2024-03/4opx4smqjqa Donghao, Xin Zhang, Zhenhuang Wang, Jing Li, and Xiaoru Yuan. “WeiboEvents: A Crowd Sourcing Weibo Visual Analytic System.” In Pacific Visualization Symposium (PacificVis) Notes, 2014 IEEE, pp. 330-334. IEEE, 2014.
公众号|chinadatazs
中视融媒大数据中央处理平台
文章来源:CSDN-数据札记倌
copyright © 2022 一生命运网 版权所有 辽ICP备2022007116号-4
法律声明:本站文章来自网友投稿,不代表本站观点,版权归原创者所有,如果侵犯了你的权益,请通知我们,我们会及时删除侵权内容!