如何使用PHP+WebHook自动同步Gitee、Github仓库内的代码到服务器?

本文以Gitee作为演示,Github实现步骤是一样的,区别在于二者WebHook推送的数据有所区别。 WebHook 功能是帮助用户 push 代码后,自动回调一个您设定的 http 地址。 这是一个通用的解决方案,用户可以自己根据不同的需求,来编写自己的相关程序。 远程仓库接收到Push推送,触发WebHook向接口推送更新的消息; 服务器接口接收到推送的更新消息,提取仓库地址、分支名、仓库名
如何使用PHP+WebHook自动同步Gitee、Github仓库内的代码到服务器?

如何快速地将WordPress文章内所有外部图片转换为本地链接?

nicen-localize-image(Wordpress后台搜索安装插件),是一款用于本地化文章外部图片的插件,支持如下功能: 文章发布前通过编辑器插件本地化 文章手动发布时自动本地化 文章定时发布时自动本地化 针对已发布的文章批量本地化。 Github:https://github.com/friend-nicen/nicen-localize-image Gitee:https://git
如何快速地将WordPress文章内所有外部图片转换为本地链接?

PHP+Swoole实现web版的SSH客户端

本来是想通过PHP的proc_open和进程进行交互,可是中间的坑太多了,不得不转换一下思路,然后想起来宝塔有网页版SSH客户端,然后研究了一下,嘿嘿,发现能成😁😁😁。 使用了有名的xterm.js,基本可作为生产使用了。(权限记得做好) 测试Demo :http://cname.teiao.com:5701 Github:https://github.com/friend-nicen/php-w
PHP+Swoole实现web版的SSH客户端

收集文件有方便一点的工具吗?文件收集小程序

文件收集是一件很麻烦的事,相信在座的各位很多人都是这样认为的,邮箱收集步骤繁琐,微信收集不好管理,不只这样,还有交错的、没交的、交晚的……好不容易收到手了,发现还得自己整理一遍,总之收集作业、文件,通通都是麻烦事。 但是没法,谁叫咱们接到这个任务了呢!既然要干,咱就得把活干的漂漂亮亮的,干完了还得游刃有余!那到底有什么好办法呢?文件收集小工具来助你一臂之力! 您可以扫码上方小程序码或者直接点击(如
收集文件有方便一点的工具吗?文件收集小程序

WordPress免费主题:Document,让阅读变得更加方便

😁作为一个程序员,在日常的工作、生活、学习的过程中基本都有很多需要做笔记的地方;做笔记的主要目的之一是为了“温故而知新”,另一个则是为了在下一次遇到的时候,不需要再次耗费精力去找解决方法; 回顾自己之前写的那个主题,不管是写还是查都不怎么方便,最终下定决心重写一个主题;以 “方便记、方便查、简约”作为设计核心; Github:https://github.com/friend-nicen/them
WordPress免费主题:Document,让阅读变得更加方便

虎年年会抽奖网页源码分享

年会抽奖程序,乐呵乐呵哈。 抽奖名单在`js/member.js`里。 抽奖之后会动态更新中奖人员名单。 Gitee:https://gitee.com/friend-nicen/yearlottery Github:https://github.com/friend-nicen/lottery 演示地址:year.nicen.cn 最新版 演示地址:year.nicen.cn/1.2 1.2版
虎年年会抽奖网页源码分享

PHP批量识别Nginx网站日志内的百度真假爬虫记录

通过分析网站日志可以统计出百度的真实抓取次数、分析抓取情况。 网站一般都有一定的反爬虫机制,但是为了正常收录会通过UA排除百度的爬虫,也就导致了很多做采集、爬虫的人冒充百度爬虫UA用以越过反爬虫机制。 逐条分析每一条日志,筛选出百度爬虫的日志,再通过exec函数执行nslookup命令反向解析IP获取解析的域名,域名中包括baiduspider关键词的就是真的百度爬虫。 下载PHP脚本(百度网盘)
PHP批量识别Nginx网站日志内的百度真假爬虫记录

PHP批量压缩整站图片的小工具

在保证图片质量的前提下,批量压缩整个网站目录下所有图片的大小。 说明:使用前请先到https://tinypng.com/developers,邮箱注册获取Apikey,每月免费压缩500次(邮箱一大堆换着来就行); 首先点这里(百度网盘)下载PHP脚本,提取码8888,脚本默认是扫描所在目录和所在目录的子目录下的所有图片文件进行压缩。编辑compress.php,找到下面两行代码。 /*设置ke
PHP批量压缩整站图片的小工具