我们专注服务于当下互联网基础设施建设与云计算、大数据时代的各种需求!

复习-12Factor方法论

今天继续复习了一下12Factor方法论,更深一步了解其精华所在:

1.微服务。标准:子系统以及其代码,可以独立部署。

2.依赖声明与环境隔离。很多研发很不讲究“代码卫生”,这点作为SRE非常bs。

3.配置存储在Unix环境变量中。这点在现实中实现起来有好有坏,研发人员对配置变量的管理和规划需要提前做出存储计划。

4.外部db、cache以及其他子系统的依赖声明成资源。需要研发人员有整体全局意识,不能只顾某个算法的实现、某个串的序列号结果。而不顾全大局。

5.严格区分打包和运行环境。

6.应用作为无状态的进程运行。sticky session必须被避免哦

7.通过绑定端口对外提供服务。

8.通过多进程模型进行扩容。

9.快速启动,优雅关闭。最小化短时间启动,以前有个恶劣的程序员写了个程序,每次启动要30-45分钟左右,简直是灾难。

10.开发、测试、部署环境尽量接近。

11.log当事件流集中处理。

12.一次性的系统管理任务。

 

kubernetes中创建secret

在k8s的集群里面,我们需要批量下发dep jobs到k8s的node上,由于node上我们通过play-books进行初始安装k8s-proxy后,hub信息都是空。不信任私我们的HUB(harbor)。

在k8s中,我们需要建立secret,然后在后续的运维部署任务中使用他。

建立secrset如下:

参数
kubectl create secret docker-registry NAME –docker-username=user –docker-password=password –docker-email=email
exp:
master@root#kubectl create secret docker-registry sk-hub –docker-server=hub.sklinux.com –docker-username=sk –docker-password=passwordjiushipassword –docker-email=sklinux@qq.com

FEK日志采集展示平台

整体架构
image
filebeat介绍
“Filebeat是一个日志文件托运工具,在你的服务器上安装客户端后,filebeat会监控日志目录或者指定的日志文件,追踪读取这些文件(追踪文件的变化,不停的读),并且转发这些信息到elasticsearch或者logstarsh中存放。
以下是filebeat的工作流程:当你开启filebeat程序的时候,它会启动一个或多个探测器(prospectors)去检测你指定的日志目录或文件,对于探测器找出的每一个日志文件,filebeat启动收割进程(harvester),每一个收割进程读取一个日志文件的新内容,并发送这些新的日志数据到处理程序(spooler),处理程序会集合这些事件,最后filebeat会发送集合的数据到你指定的地点。
(个人理解,filebeat是一个轻量级的logstash,当你需要收集信息的机器配置或资源并不是特别多时,使用filebeat来收集日志。日常使用中,filebeat十分稳定,笔者没遇到过宕机。)”
部署过程:
1.elasticsearch集群准备
a.download es5
b.配置es5配置文件
c.启动es5集群
2.filebeat
3.kibana
结果:
filebeat

(更多…)

密码保护:ITIL运维标准

这是一篇受密码保护的文章,您需要提供访问密码: