一个很不错的Chrome插件,可以自动签到百度贴吧。貌似商店已经搜不到了,Google搜索bpheclmhommpomjoeoifcggjmdelgaoj可以找到第三方的下载地址。点击这里下载。安装打开扩展工具 -> 打开 开发者工具 -> 拖入下好的插件 -> 安装成功。使用安装完成之后,几乎不需要任何操作,每天打开浏览器就会帮你自动签到了。
安装依赖库主要用到requests、bs4、html2text、pytypecho等几个库,使用pip进行安装。pip install requests bs4 html2text pytypecho采集文章以找IP网为例,当然此网站文章也是采集而来。文章列表地址:https://zhaoip.xyz/category/玩家攻略/可以看到翻页的地址为列表地址后面加/页码/用requests配合BeautifulSoup非常简单就能拿到文章地址。for i in range(1,14): res = requests.get('https://zhaoip.xyz/category/'+str(i)).text bs = BeautifulSoup(res,'lxml') links = bs.find('div',class_="区域样式").findAll('a') 拿到文章地址之后就是拿文章的标题和内容,使用bs也是很轻松就能拿到,将内容使用html2text改成markdown格式。res = requests.get(link).text bs = Beau
近期有朋友说需要增加自己网站的流量,故用python写了一个简单的脚本,配合IP池或者动态IP都可以刷,当然最爽的是单窗口单IP。说明作弊可耻!环境python3.8 + selenium + 动态ip(或单窗口单ip)代码#-*- coding:utf-8 -*- from selenium import webdriver import time,requests,random from selenium.common.exceptions import NoSuchElementException chromeOptions = webdriver.ChromeOptions() i = 0 while True: #免费IP池的话设置在下方,这边本地使用了单窗口单ip所以注销 #ip = 'http://' + requests.get('http://localhost:5555/random').text # 设置代理 #chromeOptions.add_argument("--proxy-server=%s"%ip)
缘起之前公司找外面网络公司做某些业务相关关键词排名,了解了一下相关的情况,网络公司只需要我们提供网站地址和需要做的关键词即可,故猜想他们采取的方式应该是通过模拟用户搜索提升网站权重进而提升排名。不过后续公司的网站卡在第二页那个公司一直也没能把排名做到首页,因为赶巧百度推出了惊雷算法打击这种刷排名的方式。但这个算法实际的打击面应该并不会很精准,现在也依然还有很多公司在做这方面的业务。之前接触到selenium,了解了一些基本的功能,今天尝试实现一下百度搜索相关关键词然后定位目标网站进行访问等基本操作。注意事项既然说到刷,必然涉及到使用海量的IP。自建IP池一般可以自己搭建IP池,通过程序爬取各类免费IP网站上的IP和端口号,然后进行验证,可以用的就入库,不能用的就删掉。但是免费的永远是最最贵的,虽然搭建比较简单,但IP的有效率很低且能用的基本速度也非常慢。购买IP现在有很多IP服务商都提供爬虫接口,我试用过芝麻、牛魔、IP精灵、站大爷、ET等很多提供此类服务的服务商家的测试套餐,然鹅基本上都比我自建的IP池的质量都差,当然没有购买过收费套餐就暂不评论。但是我就是想做个学习的测试就没有必要
说明闲着也是闲着,一堆废旧手机好几个微信账号,每天薅个早餐钱吧。需求监控线报网站有线报更新发送微信信息提醒。from wxpy import * import platform,sqlite3,time,requests from bs4 import BeautifulSoup #微信机器人配置 console_qr=(False if platform.system() == 'Windows' else True) bot = Bot('bot.pkl', console_qr=console_qr) tuling = Tuling('图灵接口自动回复') my_friend = bot.friends() tt = bot.groups().search('群名称')[0] @bot.register(tt) def send(msg): tt.send(msg) @bot.register(my_friend) def tuling_reply(msg): tuling.do_reply(msg) @bot.register(msg_types=FRI
今天在N1盒子上安装了 VS Code Server,简单的记录一下。安装dockerDocker一键安装脚本$ sudo wget -qO- https://get.docker.com/ | bash $ # 如果上面的不行,执行下面两句 $ curl -fsSL https://get.docker.com -o get-docker.sh $ sudo sh get-docker.sh $ # 安装成功执行下面语句,如果有类似回显,说明安装成功 $ docker --version Docker version 18.06.1-ce, build e68fc7aDocker相关操作sudo systemctl start docker # 启动 sudo systemctl stop docker # 停止 sudo systemctl status docker # 状态 sudo systemctl enable docker # 设置开机启动 VSCode Server搭建下载源码部署拉取最新版代码,地址:github.com/cdr/code-server解压,cd
记录一下Linux设置Frp开机启动的方法在/etc/systemd/system下添加frps.service或frpc.service[Unit] Description=frpc daemon After=syslog.target network.target Wants=network.target [Service] Type=simple ExecStart=/root/frpc/frpc -c /root/frpc/frpc.ini #启动命令根据自己情况填写目录 Restart= always RestartSec=1min ExecStop=/usr/bin/killall frpc [Install] WantedBy=multi-user.target相关命令systemctl enable frpc(frps) #设置开机启动 systemctl start frpc(frps) #启动 systemctl stop frpc(frps) #停止 systemctl status frpc(frps) #状态
Docker安装安装方法pull最新版本mongodocker pull mongo运行 --name设置名称 -v挂载数据 -p端口映射 -d后台运行mkdir ~/mongo #随便啦自己看着想放哪里都好 docker run --name mongodb -v ~/mongo:/data/db -p 27017:27017 -d mongo设置用户进入mongodb容器进行设置docker exec -it mongodb bash mongo进入 admin 的数据库use admin创建管理员用户db.createUser({user: "admin",pwd: "pwd",roles: [ { role: "userAdminAnyDatabase", db: "admin"}]})创建有可读写权限的用户. 对于一个特定的数据库, 比如'demo'db.createUser({user: 'username',pwd: 'pwd',roles: [{role: "readWrite&q
取cookies值import requestsfrom selenium import webdriverimport timefrom selenium.webdriver.common.by import By準備弄一個def main():# ! /usr/bin/env python # coding=utf-8 from selenium import webdriver import time driver = webdriver.Chrome() driver.get("https://www.baidu.com/") time.sleep(3) driver.find_element_by_link_text( '登入').click() time.sleep(3) driver.find_element_by_id( 'TANGRAM__PSP_10__footerULoginBtn').click() time.sleep(3) # 輸入賬號和密碼 driver.find_element_by_name( "userName&q
说明临近双旦及春节网络上各种推广送钱的活动愈来愈多,平常有时候也能薅个早晨钱,但是很多时候碰到红包与你擦肩而过也有些许淡淡的忧伤。所以用python写了一个小爬虫,爬取线报推送到微信群或电报群,最近学flask就写个简单的展示页面练练手。最终效果及演示效果图演示地址https://skystudy.herokuapp.com/由于只是需要提醒就没有写采集内容,看内容还是跳转到源站查看。电报群提醒貌似电报群之家抓取的文字就不用跳转源站了。--微信群提醒部署过程原本在本地使用sqlite,后来部署到heroku使用其提供的免费10000条的postgresql。另外在vps上也部署了一个用的宝塔面板里面的python部署工具也很简单的部署好了flask+MySQL的。
0728.im