a亚洲精品_精品国产91乱码一区二区三区_亚洲精品在线免费观看视频_欧美日韩亚洲国产综合_久久久久久久久久久成人_在线区

首頁 > 學院 > 操作系統 > 正文

python獲取csdn的訪問量和排名+falcon畫圖

2024-06-28 16:03:22
字體:
來源:轉載
供稿:網友

打從回到老家,平時沒事兒就寫寫blog,看看訪問量和排名,也算有點小成就感。

可是CSDN最近啥時候更新排名貌似時間上有點不準,以前的時候大概8點半左右就更新了,可是最近好像有點延遲。

可不可以做個監控呢?

拿falcon畫圖吧

#!/usr/bin/env python# -*- coding: utf-8 -*- #coding: utf8import sysimport jsonimport requestsimport timeimport urllib2, base64import reimport bs4reload(sys) sys.setdefaultencoding('utf8') # 獲取數據headers = {'user-agent': 'Mozilla/5.0 (X11; linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'}r = requests.get('http://blog.csdn.net/vbaspdelphi',headers = headers)soup = bs4.BeautifulSoup(r.text)r2 = soup.select('div#panel_PRofile ul#blog_rank li')value_viewtotal=re.findall("/D+(/d+)/D+",str(r2[0]))[0]value_jifen=re.findall("/D+(/d+)/D+",str(r2[1]))[0]value_paiming=re.findall("/D+(/d+)/D+",str(r2[1]))[0]# 準備上報數據import timeimport urllib2import jsonp = []# 定義時間戳timestamp = int(time.time())def predata(endpoint,metric,key,value,timestamp,step,vtype): tags = '' i = { 'Metric' :'%s.%s'%(metric,key), 'Endpoint': endpoint, 'Timestamp': timestamp, 'Step': step, 'value': value, 'CounterType': vtype, 'TAGS': tags } return ip.append(predata("userdefine","csdn","viewtotal",value_viewtotal,timestamp,60,"GAUGE"))p.append(predata("userdefine","csdn","jifen",value_jifen,timestamp,60,"GAUGE"))p.append(predata("userdefine","csdn","paiming",value_paiming,timestamp,60,"GAUGE"))print json.dumps(p, sort_keys=True,indent = 4)#sys.exit(0)# 上報method = "POST"handler = urllib2.HTTPHandler()opener = urllib2.build_opener(handler)url = "http://127.0.0.1:1988/v1/push"request = urllib2.Request(url, data=json.dumps(p))request.add_header('Content-Type','application/json')request.get_method = lambda: methodtry: connection = opener.open(request)except urllib2.HTTPError,e: connection = eif connection.code == 200: print connection.read()else: print '{"err":1,"msg":"%s"}' % connection效果圖如下

這里寫圖片描述

另外,里面的一些模塊,如果沒有的話就下載,比如

pip install bs4

參考下 http://wuchong.me/blog/2014/04/24/easy-web-scraping-with-python/ 里面關于用bs4去拿html里面的元素非常不錯。

重點: 其實遇到的最大難點是python里面的re在找的時候如果re.find(“排(/d+)名”,r.text)這種,貌似由于是unicode的原因,有點問題,可以嘗試用/D作為非數字,但是這樣以來范圍就比較大了,所以借助bs4的威力就好多了。


發表評論 共有條評論
用戶名: 密碼:
驗證碼: 匿名發表
主站蜘蛛池模板: 精品亚洲一区二区三区 | 台湾佬成人网 | 中文字幕在线视频网 | 日本高清中文字幕 | 国产成人精品久久二区二区91 | 欧美日韩第一区 | 久久久久久国产精品美女 | 精品www| 国产第一夜 | 亚洲骚片 | 日韩三及片 | 91久久精品 | 日韩超级毛片 | 欧美激情精品久久久久 | 亚洲成色www久久网站瘦与人 | 国产欧美日韩综合 | 特级黄色毛片在放 | 精品成人一区二区 | 国产精品久久久久久久久 | 九九热最新视频 | 国产精品视频播放 | 亚洲一二三区不卡 | 中文字幕第二十六页页 | 中文无码久久精品 | 99久久精品国产一区二区三区 | 日本不卡免费新一二三区 | 久久这里只有精品首页 | 日本一区二区不卡视频 | 国外成人在线视频网站 | av影音资源 | 成人欧美一区二区三区黑人 | 欧美日韩亚洲成人 | 污视频网站在线观看免费 | 久久免费精品 | 日韩欧美大片在线观看 | 日本黄色大片免费看 | 国外爱爱视频 | 波多野吉衣网站 | 国产精品原创巨作av色鲁 | 性视频网站免费 | 成人免费视频网站 |