如何提高CSDN博客的访问量

计算机 专栏收录该内容
13 篇文章 0 订阅

        开设CSDN博客也有几天时间了,博客的访问量已逐步逼近7000。虽然不是很多,但小菌已经非常满足了,毕竟在CSDN上开源分享,总结经验才是最重要的,访问量,点赞数,评论数等附加数据则是用来评判博客内容质量好坏以及其本身受欢迎程度。最近小菌去浏览了一下博客周排行榜以及总排行榜的那些博客专家,IT大佬们的博客,不仅粉丝数,获赞数,浏览量让小菌望尘莫及,其博客内容的深度更是让本菌自叹不如(大佬就是大佬(T_T))。同时我也在思考如何向排行榜这个"福地"看齐,首当其冲便是提高博客访问量。于是我在经过仔细的研究之后,总结出了以下方案,决定晒出来与小伙伴们一起分享~
在这里插入图片描述

正面例子

多写常用知识点的博客

        这一点还是非常的好理解,毕竟常用知识不管在哪个领域受用人群往往都是最多的,而且常用知识一般都偏向于基础化,使用频率高。只要你总结的到位,靠谱,不管发布在哪都是很容易受到大量用户的"追捧"!

想办法提高百度排名,注意标题不要写的太复杂

        百度作为全球最大的中文搜索引擎及最大的中文网站,每日的搜索量,浏览量是相当大的。只要你能在百度上搜索到自己的文章,并且还有一个不错的位置,并且自带一个好的标题,那么访问量日过万(短期)不是问题。(下面附上百度链接提交入口,需要审核)百度搜索资源平台
在这里插入图片描述
        对了,这种情况下,一个好的标题就显得非常重要!那什么样的标题才算的上好的标题呢?注意标题一定要精炼,精炼,精炼!(重要的事总要说三遍)像有的文章内容质量不错,结果标题起的不清不楚,平淡无奇,这样做就很容易使博客埋没在"贫民区"。精炼的标题可以让人理解起来更方便,并且小菌还建议大家可以在标题后面适当的增加一些诱人词汇吸引大家的关注,无形之中增加了在同类文章,博客中的竞争力。像写篇介绍Java基础的博客,你就可以用《Java零基础入门学习(小白也能看懂!)》类似的大家可以自行发挥!

写国内比较新的技术

        这个就对自身学识有一定的要求了。在IT圈,新的技术不管在哪就像娱乐新闻一样走到哪里都自带流量。像近几年比较火的"区块链",“大数据”,“云计算”,“AI”…如果你有幸在这些领域工作,写出"高访问量"的文章应该不是很难!尤其是中短期,效果很好!

区块链
在这里插入图片描述
云计算
在这里插入图片描述

大数据

在这里插入图片描述

人工智能

在这里插入图片描述

成系列的写技术文章,有利于增加评论,粉丝,中长期能够大幅度提高日常访问量

        像下面几位大佬学习!(仅举出几个例子,还有很多!)
在这里插入图片描述

成系列的专栏,利于增加粉丝,亦能提高日常访问量

        这里以博客专家二师兄-公众号-程序新视界为例
在这里插入图片描述
在这里插入图片描述

"硬核"外挂–脚本刷CSDN访问量

        这里小菌不提倡大家这么做,但作为一个新用户名的话,前期刷点访问量美化数据还是有点用的(真香,哈哈٩(๑❛ᴗ❛๑)۶)。直接上脚本吧,同样还是用python写的。

脚本1:循环刷一个用户下的所有博文

import requests
import re
import time
payload = ""
# 请求头
headers = {
    "Accept": "*/*",
    "Accept-Encoding": "gzip, deflate, br",
    "Accept-Language": "zh-CN,zh;q=0.8,en-US;q=0.5,en;q=0.3",
    "Cookie": "l=AurqcPuigwQdnQv7WvAfCoR1OlrRQW7h; isg=BHp6mNB79CHqYXpVEiRteXyyyKNcg8YEwjgLqoRvCI3ddxqxbLtOFUBGwwOrZ3ad; thw=cn; cna=VsJQERAypn0CATrXFEIahcz8; t=0eed37629fe7ef5ec0b8ecb6cd3a3577; tracknick=tb830309_22; _cc_=UtASsssmfA%3D%3D; tg=0; ubn=p; ucn=unzbyun; x=e%3D1%26p%3D*%26s%3D0%26c%3D0%26f%3D0%26g%3D0%26t%3D0%26__ll%3D-1%26_ato%3D0; miid=981798063989731689; hng=CN%7Czh-CN%7CCNY%7C156; um=0712F33290AB8A6D01951C8161A2DF2CDC7C5278664EE3E02F8F6195B27229B88A7470FD7B89F7FACD43AD3E795C914CC2A8BEB1FA88729A3A74257D8EE4FBBC; enc=1UeyOeN0l7Fkx0yPu7l6BuiPkT%2BdSxE0EqUM26jcSMdi1LtYaZbjQCMj5dKU3P0qfGwJn8QqYXc6oJugH%2FhFRA%3D%3D; ali_ab=58.215.20.66.1516409089271.6; mt=ci%3D-1_1; cookie2=104f8fc9c13eb24c296768a50cabdd6e; _tb_token_=ee7e1e1e7dbe7; v=0",
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64;` rv:47.0) Gecko/20100101 Firefox/47.0"
}
# 获得文章列表urls
def getUrls(url):

    # 发送请求
    resp = requests.request("GET", url, data=payload, headers=headers)
    #设置解码方式
    resp.encoding=resp.apparent_encoding
    #这里会用设置的解码方式解码
    html_source = resp.text
    # 正则表达式,取出网页中的url链接(一些寻找注入点的工具也是这么做出来的)
    urls = re.findall("https://[^>\";\']*\d",html_source)
    new_urls=[]
    for url in urls:
        if 'details' in url:
            if url not in new_urls:
                new_urls.append(url)
    return new_urls

# 这里替换成你要刷访问量博客的首页  
urls = getUrls("你的博客首页地址")
while True:
    for url in urls:
        requests.request("GET", url, data=payload, headers=headers)
        print(url, "Ok")
        time.sleep(5)
    time.sleep(5)

脚本2:定时刷指定url的博文

# -*- coding: utf-8 -*-
 
import urllib2 
import random
import time
import requests
 
proxy_list=[]
 
def get_proxy_list():
    global proxy_list
    print "导入proxy_list...".decode('utf-8')
    #ip文件可以浏览我上文链接文章“多线程爬虫——抓取代理ip”
    f=open("ip.txt")
    #从文件中读取的line会有回车,要把\n去掉
    line=f.readline().strip('\n')
    while line:
        proxy_list.append(line)
        line=f.readline().strip('\n')
    f.close()
 
def start():
    #总次数和有效次数
    times=0
    finished_times=0
    #无限刷
    while 1:
        user_agent_list=[
            {'Mozilla/5.0(compatible;MSIE9.0;WindowsNT6.1;Trident/5.0)'},
            {'Mozilla/4.0(compatible;MSIE8.0;WindowsNT6.0;Trident/4.0)'},
            {'Mozilla/4.0(compatible;MSIE7.0;WindowsNT6.0)'},
            {'Opera/9.80(WindowsNT6.1;U;en)Presto/2.8.131Version/11.11'},
            {'Mozilla/5.0(WindowsNT6.1;rv:2.0.1)Gecko/20100101Firefox/4.0.1'},
            {'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 (KHTML, like Gecko) Chrome/21.0.1180.71 Safari/537.1 LBBROWSER'},
            {'Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; QQDownload 732; .NET4.0C; .NET4.0E)'},
            {'Mozilla/5.0 (Windows NT 5.1) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.84 Safari/535.11 SE 2.X MetaSr 1.0'},
            {'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Maxthon/4.4.3.4000 Chrome/30.0.1599.101 Safari/537.36'},  
            {'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/38.0.2125.122 UBrowser/4.0.3214.0 Safari/537.36'} 
        ]
 
        referer_list=[
            {'http://blog.csdn.net/dala_da/article/details/79401163'},
            {'http://blog.csdn.net/'},
            {'https://www.sogou.com/tx?query=%E4%BD%BF%E7%94%A8%E7%88%AC%E8%99%AB%E5%88%B7csdn%E8%AE%BF%E9%97%AE%E9%87%8F&hdq=sogou-site-706608cfdbcc1886-0001&ekv=2&ie=utf8&cid=qb7.zhuye&'},
            {'https://www.baidu.com/s?tn=98074231_1_hao_pg&word=%E4%BD%BF%E7%94%A8%E7%88%AC%E8%99%AB%E5%88%B7csdn%E8%AE%BF%E9%97%AE%E9%87%8F'}
        ]
        #想要刷的blog的url
        url='http://blog.csdn.net/dala_da/article/details/79401163'
        #随机user_agent和Referer
        header={'User-Agent':random.choice(user_agent_list), 
                'Referer':random.choice(referer_list)
        }
        #依次从proxy_list中取
        ip=proxy_list[times%len(proxy_list)]
        #设置代理,格式如下
        proxy_ip = 'http://' + ip
        proxy_ips = 'https://' + ip
        proxy = {'https': proxy_ips, 'http': proxy_ip}
    
        try:
            response=requests.get(url, headers=header, proxies=proxy)
        except:
            #无响应则print出该代理ip
            print '代理出问题啦:'.decode('utf-8')+proxy["https"]
            time.sleep(0.1)
        else:
            print ('已刷%d次,%s')%(finished_times+1,proxy["https"])
            time.sleep(random.random())
            finished_times+=1
 
        times+=1
        #每当所有的代理ip刷过一轮,延时15秒
        if not times%len(proxy_list):
            time.sleep(15)
 
if __name__=="__main__":
    get_proxy_list()
    start()

        上述的两个脚本是小菌在网上搜索到的,并亲自测试过,短期内是没问题。但貌似目前已经被CSDN的服务端修复了,毕竟现在爬虫这么猖狂,反爬虫的技术也一直在升级!感兴趣的小伙伴们可以自行去测试,研究一下反爬机制哦~

反面教材

        说了那么多正面例子,让我们来看看反面教材(小菌表示懒得打码了(▼ヘ▼#))。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
        虽然不是什么"正义人士",但本菌坚决抵制"标题党"们的这种行为,好好的CSDN口碑就是被这些人士给弄得乌烟瘴气的!

总结

        关于如何快速提高CSDN的访问量,本次的分享就到这里了,小伙伴们不妨去试试看啦(反面例子就不要去试了)~有什么疑惑或者好的建议欢迎评论区积极留言,小菌都会积极回复哒(๑╹◡╹)ノ"""喜欢的小伙伴们记得点赞关注小菌吖。点赞加关注,小白不迷路…
在这里插入图片描述

在这里插入图片描述

  • 26
    点赞
  • 9
    评论
  • 33
    收藏
  • 一键三连
    一键三连
  • 扫一扫,分享海报

博客/网店 所有博客/空间/网店全面开放,可放心提交。 新浪博客:全面开放。 搜狐博客:全面开放。 百度空间:首页及单篇均可提交。 qq空间:全面开放。 51博客:全面开放。 blogcn博客:首页及单篇均可提交,如果首页,页面不要过长。 163博客:首页及单篇均可提交,如果首页,页面不要过长。 和讯博客:首页及单篇均可提交,如果首页,页面不要过长。 中金博客:首页及单篇均可提交,如果首页,页面不要过长。 东方财富博客:首页及单篇均可提交,如果首页,页面不要过长。 猫扑博客:首页及单篇均可提交,如果首页,页面不要过长。 天涯博客:首页及单篇均可提交,如果首页,页面不要过长。 yahoo博客:首页及单篇均可提交,如果首页,页面不要过长。 msn博客:首页及单篇均可提交,如果首页,页面不要过长。 如果是公益性质博客,请事先告知客服。 拍拍店铺:请提交网店网址或者单品网址。 淘宝店铺:请提交网店网址或者单品网址。 如果想代博客,请与客服联系。 其它问题 在成为付费会员前,请自行确认本软件能达到您所要求。未确定前请勿付费,付费不退。 站时最好不要使用管理员用户,以保证系统安全。 浏览次数每天0:00都会自动清零,以计算当天浏览次数,网站计数器与本软件浏览次数会有差别,请以您计数器为准。您积分低于100分以后,在一段时间内,仍然会有流量到达您网站。 在“站设置”中点“关闭站”会使其他会员不到你提交网页,你积分也会快速增长。如需打开站,只需重新点击该按钮即可。 请在"站设置"中勾上"关闭弹窗"->保存,即可关掉IE弹窗。这时IE就会打不开;如果要求运行软件时,同时能使用IE,请取消此功能。 在"站设置"点击"关闭站"后,其它会员将不到自己绑定网页。此时按钮变成"开启站",再点击,就可打开站。 举报:在站中防毒软件报毒,或者发现有音乐/弹窗等,请立即停止站,双击站信息区网页ID,即可直接进入举报页面;或者点击"举报"按钮,输入网页ID,就能定位网页ID,对有效举报,将予以500分奖励。
相关推荐
©️2020 CSDN 皮肤主题: 代码科技 设计师:Amelia_0503 返回首页
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、C币套餐、付费专栏及课程。

余额充值