📖
Notes
  • README
  • 编程学习
    • Java
      • Java基础
        • 10.1.
        • 7.2类与对象
        • 7.3对象的特殊函数
        • 7.4接口和抽象类
        • 7.5实现Iterable接口
        • 7.6继承
        • 7.7封装
        • 8.1.泛型
        • [Java Doc](编程学习/Java/Java基础/Java doc.md)
        • [Java IO](编程学习/Java/Java基础/Java IO.md)
      • Java性能调优
        • 3.2.pt-query-digest分析慢查询日志报告
        • 5.7.mysql其他几种优化注意点
        • [5.8.order by排序原理及优化思路](编程学习/Java/Java性能调优/5.8.order by排序原理及优化思路.md)
        • [6.2.group by索引失效案例&distinct案例演示](编程学习/Java/Java性能调优/6.2.group by索引失效案例&distinct案例演示.md)
        • 6.3.B-tree索引原理详解
      • Java架构师
        • Iwaf
        • Moluo Security
      • Java虚拟机
        • 1.1概述
        • 1.2常见的JVM
        • 1.3JVM总纲
        • 10.1.OOM与GC
        • 13.线程安全
        • 2.1内存
        • 2.1内存结构
        • 2.2线程运行诊断
        • 2.3本地方法栈
        • 2.4堆
        • 2.5堆内存诊断
        • 2.6堆内存诊断-jvisualvm
        • 2.7方法区
        • 2.8方法区内存溢出
        • 2.9运行时常量池
        • 3.0.class文件解析
        • 3.1.class文件有感
        • 7.1虚拟机类加载机制
      • Java高并发
        • 1.0高并发思路
        • 4.0线程安全性
        • 4.1JMeter入门
        • 4.1原子性
        • 4.2原子性-Atomic
        • 4.3原子性-锁
        • 4.4可见性
        • 4.5有序性
        • 5.1安全发布对象
        • 6.10安全共享对象策略
        • 6.1不可变对象
        • 6.4线程封闭
        • 6.5线程不安全的类与写法
        • 6.7同步容器
        • 6.9并发容器
        • 7.1J.U.C之AQS介绍
        • 7.2J.U.C值AQS-CountDownLatch
        • 7.3J.U.C值AQS-Semaphore
        • 7.4J.U.C值AQS-CyclicBarrier
        • 7.5J.U.C值AQS-ReentrantLock与锁
        • 8.1J.U.C-FutureTask
        • 8.3J.U.C-ForkJoin
        • 8.4J.U.C-BlockingQueue
        • 9.1线程池
      • Netty
        • 2.1.一个简单的socket例子
        • 2.1.推演netty的诞生
        • 2.3.Netty组件简单介绍
        • 3.1.服务端启动demo
        • 6.7.springboot整合netty
        • 7.16.FastDFS
        • 7.18.springboot整合fastdfs
      • Spring
        • 6.0.Spring-AOP
        • 6.1.切点API
        • 6.2通知API
      • [Spring Boot](编程学习/Java/Spring boot/README.md)
        • [Rabbit MQ](编程学习/Java/Spring boot/RabbitMQ/README.md)
          • [1.0RabbitMQ安装(docker)](编程学习/Java/Spring boot/RabbitMQ/1.0RabbitMQ安装(docker).md)
          • [1.1SpringBoot集成RabbitMQ](编程学习/Java/Spring boot/RabbitMQ/1.1SpringBoot集成RabbitMQ.md)
          • [2.0.AMQP协议](编程学习/Java/Spring boot/RabbitMQ/2.0.AMQP协议.md)
          • [2.1RabbitMQ概念](编程学习/Java/Spring boot/RabbitMQ/2.1RabbitMQ概念.md)
          • [2.2RabbitMQ安装](编程学习/Java/Spring boot/RabbitMQ/2.2RabbitMQ安装.md)
          • [2.3命令行与管控台](编程学习/Java/Spring boot/RabbitMQ/2.3命令行与管控台.md)
          • [2.4急速入门-消息生产与消费](编程学习/Java/Spring boot/RabbitMQ/2.4急速入门-消息生产与消费.md)
          • [2.5Exchange交换机](编程学习/Java/Spring boot/RabbitMQ/2.5Exchange交换机.md)
          • [2.6Binding绑定](编程学习/Java/Spring boot/RabbitMQ/2.6Binding绑定.md)
          • [3.10死信队列](编程学习/Java/Spring boot/RabbitMQ/3.10死信队列.md)
          • [3.1RabbitMQ的高级特性](编程学习/Java/Spring boot/RabbitMQ/3.1RabbitMQ的高级特性.md)
          • [3.4Confirn确认消息](编程学习/Java/Spring boot/RabbitMQ/3.4Confirn确认消息.md)
          • [3.5Return消息机制](编程学习/Java/Spring boot/RabbitMQ/3.5Return消息机制.md)
          • [3.6消费端自定义监听](编程学习/Java/Spring boot/RabbitMQ/3.6消费端自定义监听.md)
          • [3.7消费端限流](编程学习/Java/Spring boot/RabbitMQ/3.7消费端限流.md)
          • [3.8消费端ACK与重回队列](编程学习/Java/Spring boot/RabbitMQ/3.8消费端ACK与重回队列.md)
          • [3.9TTL队列消息](编程学习/Java/Spring boot/RabbitMQ/3.9TTL队列消息.md)
          • [4.1RabbitMQ高级整合应用](编程学习/Java/Spring boot/RabbitMQ/4.1RabbitMQ高级整合应用.md)
          • [4.2RabbitMQ整合Spring AMQP实战](编程学习/Java/Spring boot/RabbitMQ/4.2RabbitMQ整合Spring AMQP实战.md)
        • [核心技术篇](编程学习/Java/Spring boot/核心技术篇/README.md)
          • [1.1](编程学习/Java/Spring boot/核心技术篇/1.1.md)
          • [10.1解决跨域请求问题](编程学习/Java/Spring boot/核心技术篇/10.1解决跨域请求问题.md)
          • [2.1走向自动装配](编程学习/Java/Spring boot/核心技术篇/2.1走向自动装配.md)
          • [2.2Spring Framework手动装配-模式注解](编程学习/Java/Spring boot/核心技术篇/2.2Spring Framework手动装配-模式注解.md)
          • [2.3自定义模式注解](编程学习/Java/Spring boot/核心技术篇/2.3自定义模式注解.md)
          • [2.4模块装配](编程学习/Java/Spring boot/核心技术篇/2.4模块装配.md)
          • [2.5条件装配](编程学习/Java/Spring boot/核心技术篇/2.5条件装配.md)
          • [2.6自动装配](编程学习/Java/Spring boot/核心技术篇/2.6自动装配.md)
          • [3.1SpringApplication](编程学习/Java/Spring boot/核心技术篇/3.1SpringApplication.md)
          • [3.2SpringApplication准备阶段](编程学习/Java/Spring boot/核心技术篇/3.2SpringApplication准备阶段.md)
          • [3.3监听Spring Boot事件](编程学习/Java/Spring boot/核心技术篇/3.3监听Spring Boot事件.md)
          • [4.1Web MVC](编程学习/Java/Spring boot/核心技术篇/4.1Web MVC.md)
          • [4.2理解Spring Web MVC架构](编程学习/Java/Spring boot/核心技术篇/4.2理解Spring Web MVC架构.md)
          • [6.12自定义resolver实现](编程学习/Java/Spring boot/核心技术篇/6.12自定义resolver实现.md)
          • [6.4Web MVC REST处理流程](编程学习/Java/Spring boot/核心技术篇/6.4Web MVC REST处理流程.md)
          • [7.1渐行渐远的servlet](编程学习/Java/Spring boot/核心技术篇/7.1渐行渐远的servlet.md)
          • [工厂加载机制](编程学习/Java/Spring boot/核心技术篇/工厂加载机制.md)
        • [源码](编程学习/Java/Spring boot/源码/README.md)
          • [1.3StopWatch](编程学习/Java/Spring boot/源码/1.3StopWatch.md)
          • [10.1SpringBoot中使用的设计模式](编程学习/Java/Spring boot/源码/10.1SpringBoot中使用的设计模式.md)
          • [2.4.启动流程介绍](编程学习/Java/Spring boot/源码/2.4.启动流程介绍.md)
          • [3.1.初始化器解析](编程学习/Java/Spring boot/源码/3.1.初始化器解析.md)
          • [4.1.监听器解析](编程学习/Java/Spring boot/源码/4.1.监听器解析.md)
          • [5.1.Bean解析](编程学习/Java/Spring boot/源码/5.1.Bean解析.md)
        • [Spring Security权限注解](编程学习/Java/Spring boot/Spring Security权限注解.md)
        • [SpringContextUtils工具类](编程学习/Java/Spring boot/SpringContextUtils工具类.md)
        • [spring事务](编程学习/Java/Spring boot/spring事务.md)
        • [参数校验与异常处理](编程学习/Java/Spring boot/参数校验与异常处理.md)
        • [自定义Starter](编程学习/Java/Spring boot/自定义Starter.md)
        • [集成JPA](编程学习/Java/Spring boot/集成JPA.md)
        • [集成Keycloak](编程学习/Java/Spring boot/集成Keycloak.md)
        • [集成liquibase](编程学习/Java/Spring boot/集成liquibase.md)
        • [集成log4j2](编程学习/Java/Spring boot/集成log4j2.md)
        • [集成security](编程学习/Java/Spring boot/集成security.md)
        • [集成swagger](编程学习/Java/Spring boot/集成swagger.md)
        • [集成Thymleaf](编程学习/Java/Spring boot/集成Thymleaf.md)
      • [Spring MVC](编程学习/Java/Spring MVC/spring mvc.md)
      • [Spring Security](编程学习/Java/Spring Security/README.md)
        • [1.1项目搭建](编程学习/Java/Spring Security/1.1项目搭建.md)
        • [10.1从配置出发分析源码](编程学习/Java/Spring Security/10.1从配置出发分析源码.md)
        • [10.2.前后端分离开发](编程学习/Java/Spring Security/10.2.前后端分离开发.md)
        • [4.1.SpringSecurity核心功能](编程学习/Java/Spring Security/4.1.SpringSecurity核心功能.md)
        • [4.10.实现短信验证码登录](编程学习/Java/Spring Security/4.10.实现短信验证码登录.md)
        • [4.2Spring Security基本原理](编程学习/Java/Spring Security/4.2Spring Security基本原理.md)
        • [4.3自定义用户认证](编程学习/Java/Spring Security/4.3自定义用户认证.md)
        • [4.4个性化用户认证流程](编程学习/Java/Spring Security/4.4个性化用户认证流程.md)
        • [4.6认证流程源码级详解](编程学习/Java/Spring Security/4.6认证流程源码级详解.md)
        • [4.7图形验证码](编程学习/Java/Spring Security/4.7图形验证码.md)
        • [4.9.记住我](编程学习/Java/Spring Security/4.9.记住我.md)
        • [5.1.OAuth协议简介](编程学习/Java/Spring Security/5.1.OAuth协议简介.md)
        • [5.11.退出登录](编程学习/Java/Spring Security/5.11.退出登录.md)
        • [5.2.SpringSocial简介](编程学习/Java/Spring Security/5.2.SpringSocial简介.md)
        • [5.3.开发QQ登录](编程学习/Java/Spring Security/5.3.开发QQ登录.md)
        • [5.7微信登录](编程学习/Java/Spring Security/5.7微信登录.md)
        • [5.8.绑定和解绑](编程学习/Java/Spring Security/5.8.绑定和解绑.md)
        • [5.9.session管理](编程学习/Java/Spring Security/5.9.session管理.md)
        • [6.1.SpringSecurityOAuth简介](编程学习/Java/Spring Security/6.1.SpringSecurityOAuth简介.md)
        • [6.10.基于JWT实现SSO单点登录](编程学习/Java/Spring Security/6.10.基于JWT实现SSO单点登录.md)
        • [6.2.实现标准的OAuth服务提供商](编程学习/Java/Spring Security/6.2.实现标准的OAuth服务提供商.md)
        • [6.3.SpringSecurityOAuth核心源码解析](编程学习/Java/Spring Security/6.3.SpringSecurityOAuth核心源码解析.md)
        • [6.5.重构短信登录](编程学习/Java/Spring Security/6.5.重构短信登录.md)
        • [6.6.重构社交登录](编程学习/Java/Spring Security/6.6.重构社交登录.md)
        • [7.1.SpringSecurity授权简介](编程学习/Java/Spring Security/7.1.SpringSecurity授权简介.md)
        • [7.2.SpringSecurity源码解析](编程学习/Java/Spring Security/7.2.SpringSecurity源码解析.md)
        • [7.3.权限表达式](编程学习/Java/Spring Security/7.3.权限表达式.md)
        • [7.4.基于数据库RBAC数据模型控制权限](编程学习/Java/Spring Security/7.4.基于数据库RBAC数据模型控制权限.md)
      • 博客系统
        • 全文检索
        • 原型设计
        • 权限管理
        • 角色管理
        • 需求分析
      • 性能调优
        • 0.1.文档说明
        • 1.1.mysql性能调优
        • 11.1.jvm性能调优
        • 11.10.jvisualvm使用详解
        • 11.2.jvm运行参数-标准参数详解
        • 11.3.jvm运行参数-非标准参数详解
        • 11.5.jvm内存模型续&jstat命令详解
        • 11.6.jmap使用详解
        • 11.7.MAT工具使用详解
        • 11.9.jstack使用详解及定位死锁问题
        • 12.6.分代算法详解
        • 2.6.mysql慢查日志设置及测试
        • 3.1.mysqldumpslow用户详解及示例
        • 3.2.pt-query-digest
        • 3.6.利用pt-query-digest利器查找三大类有问题的SQL
        • 4.1.通过explain分析SQL执行计划
        • 5.2.慢查询的优化思路
        • 5.3.mysql三种join方式及执行计划详解
        • 6.5.索引失效情况案例详解
        • 6.6.数据库优化原则
      • Jsp
      • Servlet学习
    • Android
      • 基础库选型
        • 1.1.日志库-Logger
        • 1.10.附录-Android常用开源库
        • 1.2.网络操作库-volley
        • 1.3.数据库操作库-greenDao
        • 1.4.事件处理库-EventBus
        • 1.5.json库-fastjson
        • 1.6.工具类库-RxTools
        • 1.9.插件化库-RePlugin
      • 0.1文件命名方式
      • 0.2文件目录结构
      • 0.3基础模块创建
      • 1.1activity的基本使用
      • 1.2fragment的基本使用
      • 10.1.集成QMUI
      • 10.2.使用Aroute解耦
      • 10.3.干掉findById
      • 10.4.缓存的实现
      • 11.1.底部导航条的实现方式
      • 2.1.沉浸式布局
      • 3.1.首页的搭建
      • 3.2.网络请求组件开发
      • 4.0图片加载组件
      • 4.1universeImageLoader基本使用
      • 4.2自定义ImageLoader
      • 5.1.EventBus
      • Dialog Fragement
      • Tool Bar
      • 多渠道打包上线
      • 数据库操作
    • Electron
      • 12.1.Electron打包
      • [12.1.安装Electron builder](编程学习/Electron/12.1.安装Electron builder.md)
      • 12.2.为生产环境build代码
      • 12.3.添加配置文件
      • 12.4.调试整个Pack流程
      • 12.6.生成安装包
      • 12.7.Electron打包体积优化
      • 2.1.配置Electron开发环境
      • 2.2.进程和线程
      • 2.3.主进程和渲染进程
      • 2.4.创建BrowserWindow
      • 2.5.进程间通讯
      • 2.6.使用IPC进行通讯
      • 2.7.使用remote实现跨进程访问
      • 3.1.React简介和缘起
      • 3.10.Hook规则和其他
      • 3.2.配置React开发环境
      • [3.3.useState Hook](编程学习/Electron/3.3.useState Hook.md)
      • 4.2.将UI拆分成组件
      • 4.3.配置开发环境
      • 4.5.文件结构和代码规范
      • 5.1.为项目选择样式库
      • 5.2.FileSearch组件
      • 5.4.为项目选择图标库
      • 5.5.使用PropTypes检查属性类型
    • Hexo
      • Nex T
      • 使用hexo打造docs
    • Photo Shop
      • 1.0P图流程
      • 1.1Photoshop简介
      • 1.2Photoshop画笔
      • 1.3Photoshop抠像
      • 1.4Photoshop调色
    • Python
      • Django
        • 1.0.django的目录结构
        • 1.1.创建应用
        • 10.1.middleware
        • 11.0.常见问题
        • 3.2.配置表单页面
        • 3.3.orm介绍与model设计
        • 3.4.template与views的交互
        • 3.5.template语法及过滤器
        • 4.0.django-app设计
        • 4.2.apps目录建立
        • 5.1.django-admin
        • 5.2.xadmin
        • 5.3.xadmin的使用
        • 5.4.xadmin全局配置
        • 6.1.用户登录注册
        • 6.2.用form实现登录
        • 6.3.session和cookie自动登录机制
        • 6.4.用户注册
        • 6.5.找回密码
        • 6.6.django的登录认证
        • 6.7.用户头像上传
        • 7.1.templates模板继承
        • 7.2.media文件设置及使用
        • 7.3.列表分页
        • 7.4.FormModel
      • Django Rest Framework
        • 11.7.drf的缓存
        • 11.8.drf配置redis缓存
        • 11.9.drf的throttle设置api的访问速率
        • 12.3.第三方登录
        • 13.1.sentry实现错误日志监控
        • 14.3.序列化
        • 5.1.通过django的view实现api
        • 5.10.drf的过滤
        • 5.11.drf的搜索和排序
        • 5.3.通过drf的apiview实现api
        • 5.5.drf的modelserializer
        • 5.6.通过Mixin+GenericAPIView实现API
        • 5.7.通过Mixin+ViewSet实现API
        • 5.8.drf的ApiView、GenericView、Viewset对比
        • 5.9.drf的request和response
        • 7.1.drf的token登录和原理
        • 7.10.serializer和validator验证
        • 7.12.django信号量实现用户密码加密
        • 7.3.viewsets配置认证类
        • 7.4.json-web-token(jwt)的原理
        • 7.5.jwt方式完成用户认证
        • 7.8.drf实现短信验证码发送
        • 8.4.drf的权限验证
        • 9.1.drf的api文档自动生成
        • 9.2.动态设置serializer和permission获取用户信息
      • Python3基础
        • 1.1.配置pip国内镜像源
        • 10.1正则表达式
        • 10.2贪婪和非贪婪
        • 10.3python正则函数
        • 10.4JSON
        • 10正则表达式和Json
        • 11python的高级语法与用法
        • 13原生爬虫
        • 14.1request模块
        • 3.0.python的内置变量
        • 3.1.python内置函数
        • 4.0“组”
        • 5.0变量和运算符
        • 6.0分支、循环、条件与枚举
        • 6分支、循环、条件与枚举
        • 7.0包、模块、函数与变量作用域
        • 8Python函数
        • 9.1面向对象
        • 9.2偏函数
        • python疑问
        • 基本数据类型
      • Scrapy
        • 1.1.Scrapy简介
        • 2.1虚拟环境的安装与配置
        • 3.1爬虫基础知识
        • 3.2正则表达式
        • 4.0.爬虫快速入门
        • 4.1创建爬虫项目
        • 4.2调试
        • 4.6xpath基础语法
        • 4.7css选择器
        • 4.8编写spider完成抓取过程
        • [4.9.Item Pipeline](编程学习/Python/Scrapy/4.9.Item Pipeline.md)
        • 4.9item
        • 4.9itemloader
        • 5.1session和cookie自动登录机制
        • 5.2request模拟登录
        • Scrapy安装
        • 图片下载
      • Selenium 3
        • 1.0selenium环境搭建
        • 1.1selenium项目搭建
        • 2.0启动浏览器
        • 2.1判断
    • 前端
      • Angular
        • 1
        • 9
        • 10.1.开发自己的angular项目
        • 3.1使用AngularRoute导航
        • 3.2在路由时传递数据
        • 3.5路由守卫
        • 4.1依赖注入
        • 5.1数据绑定、响应式编程和管道
        • 5.6响应式编程
        • 5.7管道
        • 6.1组件间通讯
        • 6.5生命钩子
        • 7.1表单处理
        • 7.2响应式表单校验
        • 7.3表单的使用
        • 8.1.与服务器通讯
      • Angular打造企业级协作平台
        • 1.1.小技巧
        • 1.2.模块划分
        • 1.2.环境搭建
        • 1.3.UI搭建
        • 1.4.模块之间的相互引用
        • 10.1.常见问题
        • 2.0.模板代码-增删查改
        • 2.1.模板代码-新增
        • 2.2.模板代码-删除
        • 2.3.模板代码-查找
        • 2.4.模板代码-更新
        • 3.2.RxJs
        • 3.2.对话框使用指南
        • 4.1.前后端分离
        • Angular核心概念
      • CSS
        • 1.1.CSS基础
        • 1.2.选择器
        • 1.3.非布局样式
        • 2.1.CSS布局
        • 3.1.CSS效果
        • 4.1.CSS动画
        • 图片处理
        • 文本处理
      • Html
        • 1.1.Html常见元素和理解
        • 1.2.如何理解HTML
        • 1.3.HTML版本
        • 1.4.元素分类
        • 1.5.嵌套关系
        • 1.6.默认样式和reset
        • 1.7.HTML的意义是什么
      • Node Js
        • 4.2.处理Get请求
        • 4.3.处理Post请求
        • 4.4.处理http请求的综合示例
      • Type Script
      • 网站分析与展示
        • Media
          • 在线占位图片
        • Logo区制作
        • 盒子模型
        • 页面头部制作
        • 项目搭建
        • 首页布局分析
      • ES 6
    • 操作系统
      • [Centos Linux](编程学习/操作系统/Centos Linux/README.md)
        • [1.0查看发行版和内核版本](编程学习/操作系统/Centos Linux/1.0查看发行版和内核版本.md)
        • [1.1网络配置](编程学习/操作系统/Centos Linux/1.1网络配置.md)
        • [10.0实战-排查网络问题](编程学习/操作系统/Centos Linux/10.0实战-排查网络问题.md)
        • [11.1创建证书](编程学习/操作系统/Centos Linux/11.1创建证书.md)
        • [11.2curl](编程学习/操作系统/Centos Linux/11.2curl.md)
        • [11.3cloud-init](编程学习/操作系统/Centos Linux/11.3cloud-init.md)
        • [11.4实战部署ftp服务器](编程学习/操作系统/Centos Linux/11.4实战部署ftp服务器.md)
        • [11.5syslog日志服务](编程学习/操作系统/Centos Linux/11.5syslog日志服务.md)
        • [11.6搭建EFK](编程学习/操作系统/Centos Linux/11.6搭建EFK.md)
        • [12.1.linux小技巧](编程学习/操作系统/Centos Linux/12.1.linux小技巧.md)
        • [5.1ssh](编程学习/操作系统/Centos Linux/5.1ssh.md)
        • [6.0Linux常用命令](编程学习/操作系统/Centos Linux/6.0Linux常用命令.md)
        • [6.1软件操作命令](编程学习/操作系统/Centos Linux/6.1软件操作命令.md)
        • [6.2服务器硬件资源信息](编程学习/操作系统/Centos Linux/6.2服务器硬件资源信息.md)
        • [6.3文件操作命令](编程学习/操作系统/Centos Linux/6.3文件操作命令.md)
        • [6.4Linux文件编辑神器VIM](编程学习/操作系统/Centos Linux/6.4Linux文件编辑神器VIM.md)
        • [6.6防火墙的设置](编程学习/操作系统/Centos Linux/6.6防火墙的设置.md)
        • [6.7提权和文件上传下载操作](编程学习/操作系统/Centos Linux/6.7提权和文件上传下载操作.md)
        • [7.0Apache的安装](编程学习/操作系统/Centos Linux/7.0Apache的安装.md)
        • [7.1Apache的虚拟主机配置](编程学习/操作系统/Centos Linux/7.1Apache的虚拟主机配置.md)
        • [7.2Apache伪静态操作](编程学习/操作系统/Centos Linux/7.2Apache伪静态操作.md)
        • [7.3Nginx的基本操作](编程学习/操作系统/Centos Linux/7.3Nginx的基本操作.md)
        • [7.4Nginx的虚拟主机配置](编程学习/操作系统/Centos Linux/7.4Nginx的虚拟主机配置.md)
        • [7.5Nginx伪静态](编程学习/操作系统/Centos Linux/7.5Nginx伪静态.md)
        • [7.6Nginx的反向代理和负载均衡](编程学习/操作系统/Centos Linux/7.6Nginx的反向代理和负载均衡.md)
        • [7.7Nginx文档](编程学习/操作系统/Centos Linux/7.7Nginx文档.md)
        • [7.8.Naxsi](编程学习/操作系统/Centos Linux/7.8.Naxsi.md)
        • [7.8.nginx地域封禁](编程学习/操作系统/Centos Linux/7.8.nginx地域封禁.md)
        • [7.9.ModSecurity](编程学习/操作系统/Centos Linux/7.9.ModSecurity.md)
        • [8.1Mysql安装及链接](编程学习/操作系统/Centos Linux/8.1Mysql安装及链接.md)
        • [8.2Mysql设置允许远程连接](编程学习/操作系统/Centos Linux/8.2Mysql设置允许远程连接.md)
        • [8.3Mysql开启Genelog](编程学习/操作系统/Centos Linux/8.3Mysql开启Genelog.md)
        • [8.4新建用户和权限操作](编程学习/操作系统/Centos Linux/8.4新建用户和权限操作.md)
        • [8.5Mysql忘记root密码](编程学习/操作系统/Centos Linux/8.5Mysql忘记root密码.md)
        • [9.1安装nodejs](编程学习/操作系统/Centos Linux/9.1安装nodejs.md)
      • Cmd
        • 1.1.Windows注册表
        • 1.2.batch基本命令
        • 2.2.batch调用exe
        • 3.1.右键cmd
      • [Kali Linux](编程学习/操作系统/Kali Linux/README.md)
        • [10.1本地提权](编程学习/操作系统/Kali Linux/10.1本地提权.md)
        • [11.1无线渗透](编程学习/操作系统/Kali Linux/11.1无线渗透.md)
        • [11.2无线渗透](编程学习/操作系统/Kali Linux/11.2无线渗透.md)
        • [13.1.Web渗透](编程学习/操作系统/Kali Linux/13.1.Web渗透.md)
        • [13.2.扫描工具-Nikto](编程学习/操作系统/Kali Linux/13.2.扫描工具-Nikto.md)
        • [14.1密码破解](编程学习/操作系统/Kali Linux/14.1密码破解.md)
        • [18.1Metasploit简介](编程学习/操作系统/Kali Linux/18.1Metasploit简介.md)
        • [19.1.常见攻击](编程学习/操作系统/Kali Linux/19.1.常见攻击.md)
        • [2.1Kali Linux安装](编程学习/操作系统/Kali Linux/2.1Kali Linux安装.md)
        • [2.3Kali Linux基本命令](编程学习/操作系统/Kali Linux/2.3Kali Linux基本命令.md)
        • [20.1kali清除Windows开机密码](编程学习/操作系统/Kali Linux/20.1kali清除Windows开机密码.md)
        • [3.1kali网络配置及安装更新](编程学习/操作系统/Kali Linux/3.1kali网络配置及安装更新.md)
        • [3.2安装Java、显卡驱动、网卡补丁、](编程学习/操作系统/Kali Linux/3.2安装Java、显卡驱动、网卡补丁、.md)
        • [3.7虚拟专用网络](编程学习/操作系统/Kali Linux/3.7虚拟专用网络.md)
        • [3.8洋葱路由](编程学习/操作系统/Kali Linux/3.8洋葱路由.md)
        • [4.1.DVWA靶机搭建](编程学习/操作系统/Kali Linux/4.1.DVWA靶机搭建.md)
        • [5.1基本工具netcat](编程学习/操作系统/Kali Linux/5.1基本工具netcat.md)
        • [5.2基本工具wireshark](编程学习/操作系统/Kali Linux/5.2基本工具wireshark.md)
        • [5.3基本工具TCPDUMP](编程学习/操作系统/Kali Linux/5.3基本工具TCPDUMP.md)
        • [6.1信息收集](编程学习/操作系统/Kali Linux/6.1信息收集.md)
        • [6.1被动信息收集](编程学习/操作系统/Kali Linux/6.1被动信息收集.md)
        • [6.3搜索引擎](编程学习/操作系统/Kali Linux/6.3搜索引擎.md)
        • [6.4其他信息收集途径](编程学习/操作系统/Kali Linux/6.4其他信息收集途径.md)
        • [8.1漏洞扫描](编程学习/操作系统/Kali Linux/8.1漏洞扫描.md)
        • [8.2NMAP](编程学习/操作系统/Kali Linux/8.2NMAP.md)
        • [8.3NESSUS](编程学习/操作系统/Kali Linux/8.3NESSUS.md)
      • Shell
        • 2.1变量替换与测试
        • 2.2数值比较和字符串比较
    • 数据库
      • Elastic Search
        • [Elastic Search C Url](编程学习/数据库/ElasticSearch/ElasticSearch cUrl.md)
        • ElasticSearch分页
        • ElasticSearch博客
        • ES
        • 集成
      • Mysql
        • 11.1.常见问题
        • 3.0基准测试
        • 6.1数据库索引优化
        • 6.2安装演示数据库
        • 6.3索引优化策略
        • 6.4索引优化排序
        • 6.5索引优化锁
        • 7.0SQL查询优化
        • 7.1获取有性能问题SQL的三种方式
        • 7.2慢查询日志介绍
        • 乐观锁和悲观锁
        • 数据库锁的排查方式
      • Redis
        • 1.0Redis
        • 1.1redis安装
        • 11.2缓存的受益与成本
        • [2.0Redis API的使用和理解](编程学习/数据库/Redis/2.0Redis API的使用和理解.md)
        • 2.10集合
        • 2.11有序集合
        • 2.2通用命令
        • 2.3数据结构和内部编码
        • 2.4单线程
        • 2.5字符串
        • 2.6哈希
        • 2.8列表
        • 3.0Redis客户端
        • 3.1java客户端
        • 4.0Redis其他功能
        • 4.2慢查询
        • 5.0Redis持久化的取舍和选择
        • 7.0Redis复制的原理和优化
    • 测试
      • 1.1单元测试
      • 10.1.性能测试
      • 2.1单元测试入门
      • 2.3单元测试常用情景
      • 2.4单元测试面临的问题
      • 2.5单元测试示例
      • 3.1单元测试之报告查看
      • 4.1自动化测试
      • 4.2Selenium用法详解
    • 算法
      • 加密算法
        • 1.1对称加密算法DES
        • 1.2对称加密算法3DES
        • 1.3对称加密算法AES
        • 1.4对称加密算法PBE
      • 1.1.冒泡排序
      • 跳出命题者所画之圈
    • 网络
      • Cisco
        • 1.0学习地址
        • 3.0思科之基础命令集
        • 4.0路由
        • 4.1静态路由
        • 5.0交换
        • 5.2vlan
        • 5.3生成树协议STP
        • 6.1NAT-PPP-DHCP
        • 7.0HSRP协议
        • ACL
        • PBR
        • Route Map
        • 交换机常用命令
        • 思科设备插槽板块命令方式
        • 路由器常用命令
      • [Cisco Packet Tracer](编程学习/网络/Cisco Packet Tracer/README.md)
        • [1.0命令](编程学习/网络/Cisco Packet Tracer/1.0命令.md)
      • Wireshark
        • 1.1当我发了一个ping包
        • Ethernet协议分析
        • 经验
      • 网络基础
        • 1.9网络的构成要素
        • 10.0交换网络基础
        • 11.0STP原理与配置
        • 13.0IP路由基础
        • 14.0DHCP原理与配置
        • 3.1数据链路
        • 4.1IP协议
        • 4.2IP划分
        • 5.0IP编址
        • 9.0VRP基础
        • 9.1命令行基础
      • Ensp
    • 设计模式
      • 1.1如何优雅的创建对象
      • [1.3Singleton Pattern(单例模式)](编程学习/设计模式/1.3Singleton Pattern(单例模式).md)
      • [1.4Builder Pattern(建造者模式)](编程学习/设计模式/1.4Builder Pattern(建造者模式).md)
      • [1.5Prototype Pattern(原型模式)](编程学习/设计模式/1.5Prototype Pattern(原型模式).md)
      • 2.1打算重构代码结构了么?
      • [2.2Adapter Pattern(适配者模式)](编程学习/设计模式/2.2Adapter Pattern(适配者模式).md)
      • [2.3Bridge Pattern(桥接模式)](编程学习/设计模式/2.3Bridge Pattern(桥接模式).md)
      • [2.4Filter Pattern(过滤器模式)](编程学习/设计模式/2.4Filter Pattern(过滤器模式).md)
      • [2.5Composite Pattern(组合模式)](编程学习/设计模式/2.5Composite Pattern(组合模式).md)
      • [2.6Decorator Pattern(装饰器模式)](编程学习/设计模式/2.6Decorator Pattern(装饰器模式).md)
      • [2.7Facade Pattern(外观模式)](编程学习/设计模式/2.7Facade Pattern(外观模式).md)
      • [2.8Flyweight Pattern(享元模式)](编程学习/设计模式/2.8Flyweight Pattern(享元模式).md)
      • [2.9Proxy Pattern(代理模式)](编程学习/设计模式/2.9Proxy Pattern(代理模式).md)
      • [3.1Chain Of Responsibility Pattern(责任链模式)](编程学习/设计模式/3.1Chain Of Responsibility Pattern(责任链模式).md)
      • [3.2Command Pattern(命令模式)](编程学习/设计模式/3.2Command Pattern(命令模式).md)
      • [3.3Interpreter Pattern(解释器模式)](编程学习/设计模式/3.3Interpreter Pattern(解释器模式).md)
    • 软件设计师
      • 1.0数据的表示
      • 1.1数值的表示范围
      • 1.2计算机结构
      • 1.3计算机体系结构分类-Flynn
      • 1.4流水线
      • 1.6层次化存储结构
      • 1.7主存-编址与计算
      • 2.0操作系统
      • 2.1进程管理
      • 2.2存储管理
      • 2.3作业、文件、设备管理
      • 3.0数据库系统
      • 3.1三级模式-两层映射
      • 3.2E-R模型
      • 3.3关系代数
      • 3.4规范化理论
      • 3.5SQL语句
      • [4.1OSI RM七层模型](编程学习/软件设计师/4.1OSI RM七层模型.md)
      • 4.2TCPIP模型
      • 4.3IP地址、子网划分
      • 4.4网络规划和设计
      • 4.5对称加密技术
      • 4.6网络安全
      • 5.1软件开发模型
      • 5.2软件开发方法
      • 5.3软件测试
      • 5.4软件维护
      • 6.1面向对象的基本概念
      • 7.1数据结构与算法基础
      • 7.3树与二叉树
      • 7.4图
      • 8.1算法
      • 8.1编译过程
      • 8.2UML
      • Untitled
    • 部署运维虚拟化
      • Ansible
        • 3.1.Ansible简介
        • 3.2.Ansible安装
        • [3.3.Ansible playbooks入门和编写规范](编程学习/部署运维虚拟化/ansible/3.3.Ansible playbooks入门和编写规范.md)
        • [3.4.Ansible playbooks常用模块](编程学习/部署运维虚拟化/ansible/3.4.Ansible playbooks常用模块.md)
        • 3.5.Ansible变量
      • Docker
        • 1.0容器技术和docker简介
        • 1.docker
        • 10.1docker部署dnsmasq
        • 10.2docker部署gitlab
        • 10.3docker部署wordpress
        • 10.4.docker部署SpringBoot项目
        • 10.5.docker部署angular项目
        • 2.0docker环境的各种搭建方法
        • 3.0docker的镜像和容器
        • [3.3diy一个base image](编程学习/部署运维虚拟化/docker/3.3diy一个base image.md)
        • 3.5构建自己的镜像
        • 3.6dockerfile语法梳理及最佳实践
        • 3.7镜像的发布
        • 3.8Dockerfile实践
        • 3.9容器的操作
        • 4.0docker的网络
        • 4.6容器的端口映射
        • 5.0docker的持久化存储和数据共享
        • [5.1数据持久化之Data Volume](编程学习/部署运维虚拟化/docker/5.1数据持久化之Data Volume.md)
        • [5.2数据持久化之bind Mounting](编程学习/部署运维虚拟化/docker/5.2数据持久化之bind Mounting.md)
        • [5.3bind Mounting实战](编程学习/部署运维虚拟化/docker/5.3bind Mounting实战.md)
        • [6.1.Docker Compose简介](编程学习/部署运维虚拟化/docker/6.1.Docker Compose简介.md)
        • [6.2.Docker Compose的安装](编程学习/部署运维虚拟化/docker/6.2.Docker Compose的安装.md)
        • [6.3.Docker Compose多容器部署](编程学习/部署运维虚拟化/docker/6.3.Docker Compose多容器部署.md)
        • [7.0容器编排docker swarm](编程学习/部署运维虚拟化/docker/7.0容器编排docker swarm.md)
        • 9.0容器编排kubernetes
        • 虚机安装
      • Jenkins
        • Jenkins安装
      • Kubernetes
        • 1.Kubernetes简介
        • 10.1ingress
        • 10.4共享存储
        • 11.1CICD
        • 12.1ServiceMesh
        • 12.2Istio架构和原理
        • 12.4Istio核心功能实践-部署bookinfo_batch
        • 12.5Istio核心功能实践-智能路由
        • 12.6Istio核心功能实践-指标收集和查询
        • 12.6Istio网格可视化
        • 13.0常见问题
        • 2.1Kubernetes集群搭建-kubeadm
        • 2.2Kubernetes集群搭建-RKE
        • 2.3Kubernetes集群搭建问题总结
        • 2.4kubernetes认证的密码学原理
        • 2.Kubernetes集群搭建
        • 3.pod介绍
        • 4.Replicaset和ReplicationController
        • 5.Deployment
        • [6.k8s基础网络Cluster Network](编程学习/部署运维虚拟化/Kubernetes/6.k8s基础网络Cluster Network.md)
        • 7.容器的基本监控
        • 8.4Label-小标签大作为
        • 9.1健康检查
        • 9.2Ready检查
        • 9.3pod的调度
        • 9.4部署策略详解
        • 9.5深入Pod
        • 云原生技术
      • Openstack
        • 网关、DNS、子网掩码、MAC地址、DHCP
      • 微服务
      • Terraform
  • 代码问题
    • Angular
    • Docker
    • Gradle
    • Javaweb
    • JPA
    • 数据库
  • 工具使用
    • Git
      • [Git Submodule](工具使用/git/Git Submodule.md)
      • Git
    • Gradle
      • 1.1.Gradle的基本使用
      • 2.1.Gradle使用私服
    • Idea
      • [Easy Code插件基础](工具使用/Idea/Easy Code插件基础.md)
      • [Easy Code插件模板](工具使用/Idea/Easy Code插件模板.md)
      • [Easy Code插件模板angular版](工具使用/Idea/Easy Code插件模板angular版.md)
      • Idea使用
      • Idea如何一个窗口多个项目
      • Idea实现docker镜像部署
      • pycharm使用帮助
      • pycharm远程调试
      • 连接docker
      • 阅读源码的正确姿势
    • Linux
      • ssh允许密码登录
      • ssh连接
      • 使用中遭遇的问题
    • Maven
      • 1.0.Maven简介
      • 2.0.maven私服搭建
      • 2.1.maven私服基本使用
    • Vscode
      • vscode安装
      • vscode连接远端调试
      • 使用centos搭建jumpserver环境
      • 文档阅读说明
    • 开发环境搭建
      • 1.0.软件列表
      • 2.0.设置环境变量
    • Android Studio
    • B Compare
    • Chrome
    • GNS 3
    • IDM
    • Lombok
    • Navicat
    • Node Js
    • Office
    • Postman
    • Setupvpn
    • Sublime
    • V Mvare
    • Windows
    • 搜索引擎
  • 思维碎片
    • Bean设计
    • 一些异常和返回体的思考
    • 代码经验
    • 转正答辩
  • 经历攻略
    • 2019-05-04当我开始写专利
    • PPT规约
    • 加入CSDN的一天
    • 呈现的艺术
    • 当我拥有云服务器的一天
    • 当我重回Android的一天
    • 敏捷开发概念模型
    • 自我评价
    • 英语日记
    • 软考
    • 面试题
Powered by GitBook
On this page
  • 1.准备
  • 1.1系统配置
  • 1.2kube-proxy开启ipvs的前置条件
  • 1.3安装Docker
  • 2.使用kubeadm部署Kubernetes
  • 2.1 安装kubeadm和kubelet
  • 2.2 使用kubeadm init初始化集群
  • 2.3 安装Pod Network
  • 2.4 master node参与工作负载
  • 2.5 测试DNS
  • 2.6 向Kubernetes集群中添加Node节点
  • 2.7 kube-proxy开启ipvs
  • 3.Kubernetes常用组件部署
  • 3.1 Helm的安装
  • 3.2 使用Helm部署Nginx Ingress
  • 参考

Was this helpful?

  1. 编程学习
  2. 部署运维虚拟化
  3. Kubernetes

2.1Kubernetes集群搭建-kubeadm

Previous13.0常见问题Next2.2Kubernetes集群搭建-RKE

Last updated 4 years ago

Was this helpful?

kubeadm是Kubernetes官方提供的用于快速安装Kubernetes集群的工具,伴随Kubernetes每个版本的发布都会同步更新,kubeadm会对集群配置方面的一些实践做调整,通过实验kubeadm可以学习到Kubernetes官方在集群配置上一些新的最佳实践。

最近发布的中,kubeadm的主要特性已经GA了,但还不包含高可用,不过说明可在生产环境中使用的距离越来越近了。

Area

Maturity Level

Command line UX

GA

Implementation

GA

Config file API

beta

CoreDNS

GA

kubeadm alpha subcommands

alpha

High availability

alpha

DynamicKubeletConfig

alpha

Self-hosting

alpha

当然我们线上稳定运行的Kubernetes集群是使用ansible以二进制形式的部署的高可用集群,这里体验Kubernetes 1.13中的kubeadm是为了跟随官方对集群初始化和配置方面的最佳实践,进一步完善我们的ansible部署脚本。

1.准备

1.1系统配置

在安装之前,需要先做如下准备。两台CentOS 7.4主机如下:

cat /etc/hosts
192.168.61.11 node1
192.168.61.12 node2
systemctl stop firewalld
systemctl disable firewalld

禁用SELINUX:

setenforce 0
vi /etc/selinux/config
SELINUX=disabled

创建/etc/sysctl.d/k8s.conf文件,添加如下内容:

net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
net.ipv4.ip_forward = 1

执行命令使修改生效。

modprobe br_netfilter
sysctl -p /etc/sysctl.d/k8s.conf

1.2kube-proxy开启ipvs的前置条件

由于ipvs已经加入到了内核的主干,所以为kube-proxy开启ipvs的前提需要加载以下的内核模块:

ip_vs
ip_vs_rr
ip_vs_wrr
ip_vs_sh
nf_conntrack_ipv4

在所有的Kubernetes节点node1和node2上执行以下脚本:

cat > /etc/sysconfig/modules/ipvs.modules <<EOF
#!/bin/bash
modprobe -- ip_vs
modprobe -- ip_vs_rr
modprobe -- ip_vs_wrr
modprobe -- ip_vs_sh
modprobe -- nf_conntrack_ipv4
EOF
chmod 755 /etc/sysconfig/modules/ipvs.modules && bash /etc/sysconfig/modules/ipvs.modules && lsmod | grep -e ip_vs -e nf_conntrack_ipv4

上面脚本创建了的/etc/sysconfig/modules/ipvs.modules文件,保证在节点重启后能自动加载所需模块。 使用lsmod | grep -e ip_vs -e nf_conntrack_ipv4命令查看是否已经正确加载所需的内核模块。

接下来还需要确保各个节点上已经安装了ipset软件包yum install ipset。 为了便于查看ipvs的代理规则,最好安装一下管理工具ipvsadm yum install ipvsadm。

如果以上前提条件如果不满足,则即使kube-proxy的配置开启了ipvs模式,也会退回到iptables模式。

1.3安装Docker

安装docker的yum源:

yum install -y yum-utils device-mapper-persistent-data lvm2
yum-config-manager \
    --add-repo \
    https://download.docker.com/linux/centos/docker-ce.repo

查看最新的Docker版本:

yum list docker-ce.x86_64  --showduplicates |sort -r
docker-ce.x86_64            3:18.09.0-3.el7                     docker-ce-stable
docker-ce.x86_64            18.06.1.ce-3.el7                    docker-ce-stable
docker-ce.x86_64            18.06.0.ce-3.el7                    docker-ce-stable
docker-ce.x86_64            18.03.1.ce-1.el7.centos             docker-ce-stable
docker-ce.x86_64            18.03.0.ce-1.el7.centos             docker-ce-stable
docker-ce.x86_64            17.12.1.ce-1.el7.centos             docker-ce-stable
docker-ce.x86_64            17.12.0.ce-1.el7.centos             docker-ce-stable
docker-ce.x86_64            17.09.1.ce-1.el7.centos             docker-ce-stable
docker-ce.x86_64            17.09.0.ce-1.el7.centos             docker-ce-stable
docker-ce.x86_64            17.06.2.ce-1.el7.centos             docker-ce-stable
docker-ce.x86_64            17.06.1.ce-1.el7.centos             docker-ce-stable
docker-ce.x86_64            17.06.0.ce-1.el7.centos             docker-ce-stable
docker-ce.x86_64            17.03.3.ce-1.el7                    docker-ce-stable
docker-ce.x86_64            17.03.2.ce-1.el7.centos             docker-ce-stable
docker-ce.x86_64            17.03.1.ce-1.el7.centos             docker-ce-stable
docker-ce.x86_64            17.03.0.ce-1.el7.centos             docker-ce-stable

Kubernetes 1.12已经针对Docker的1.11.1, 1.12.1, 1.13.1, 17.03, 17.06, 17.09, 18.06等版本做了验证,需要注意Kubernetes 1.12最低支持的Docker版本是1.11.1。Kubernetes 1.13对Docker的版本依赖方面没有变化。 我们这里在各节点安装docker的18.06.1版本。

yum makecache fast

yum install -y --setopt=obsoletes=0 \
  docker-ce-18.06.1.ce-3.el7

systemctl start docker
systemctl enable docker

确认一下iptables filter表中FOWARD链的默认策略(pllicy)为ACCEPT。

iptables -nvL
Chain INPUT (policy ACCEPT 263 packets, 19209 bytes)
 pkts bytes target     prot opt in     out     source               destination

Chain FORWARD (policy ACCEPT 0 packets, 0 bytes)
 pkts bytes target     prot opt in     out     source               destination
    0     0 DOCKER-USER  all  --  *      *       0.0.0.0/0            0.0.0.0/0
    0     0 DOCKER-ISOLATION-STAGE-1  all  --  *      *       0.0.0.0/0            0.0.0.0/0
    0     0 ACCEPT     all  --  *      docker0  0.0.0.0/0            0.0.0.0/0            ctstate RELATED,ESTABLISHED
    0     0 DOCKER     all  --  *      docker0  0.0.0.0/0            0.0.0.0/0
    0     0 ACCEPT     all  --  docker0 !docker0  0.0.0.0/0            0.0.0.0/0
    0     0 ACCEPT     all  --  docker0 docker0  0.0.0.0/0            0.0.0.0/0

Docker从1.13版本开始调整了默认的防火墙规则,禁用了iptables filter表中FOWARD链,这样会引起Kubernetes集群中跨Node的Pod无法通信。但这里通过安装docker 1806,发现默认策略又改回了ACCEPT,这个不知道是从哪个版本改回的,因为我们线上版本使用的1706还是需要手动调整这个策略的。

2.使用kubeadm部署Kubernetes

2.1 安装kubeadm和kubelet

下面在各节点安装kubeadm和kubelet:

cat <<EOF > /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=https://packages.cloud.google.com/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=1
repo_gpgcheck=1
gpgkey=https://packages.cloud.google.com/yum/doc/yum-key.gpg
        https://packages.cloud.google.com/yum/doc/rpm-package-key.gpg
EOF
curl https://packages.cloud.google.com/yum/repos/kubernetes-el7-x86_64
yum makecache fast
yum install -y kubelet kubeadm kubectl

... 
Installed:
  kubeadm.x86_64 0:1.13.0-0                                    kubectl.x86_64 0:1.13.0-0                                                           kubelet.x86_64 0:1.13.0-0

Dependency Installed:
  cri-tools.x86_64 0:1.12.0-0                                  kubernetes-cni.x86_64 0:0.6.0-0                                                       socat.x86_64 0:1.7.3.2-2.el7

不会科学上网可使用阿里镜像安装

# 配置源
cat <<EOF > /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=1
repo_gpgcheck=1
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF
  • 从安装结果可以看出还安装了cri-tools, kubernetes-cni, socat三个依赖:

    • 官方从Kubernetes 1.9开始就将cni依赖升级到了0.6.0版本,在当前1.12中仍然是这个版本

    • socat是kubelet的依赖

    • cri-tools是CRI(Container Runtime Interface)容器运行时接口的命令行工具

运行kubelet –help可以看到原来kubelet的绝大多数命令行flag参数都被DEPRECATED了,如:

......
--address 0.0.0.0   The IP address for the Kubelet to serve on (set to 0.0.0.0 for all IPv4 interfaces and `::` for all IPv6 interfaces) (default 0.0.0.0) (DEPRECATED: This parameter should be set via the config file specified by the Kubelet's --config flag. See https://kubernetes.io/docs/tasks/administer-cluster/kubelet-config-file/ for more information.)
......

Kubernetes 1.8开始要求关闭系统的Swap,如果不关闭,默认配置下kubelet将无法启动。

关闭系统的Swap方法如下:

  swapoff -a

修改 /etc/fstab 文件,注释掉 SWAP 的自动挂载,使用free -m确认swap已经关闭。 swappiness参数调整,修改/etc/sysctl.d/k8s.conf添加下面一行:

  vm.swappiness=0

执行sysctl -p /etc/sysctl.d/k8s.conf使修改生效。

因为这里本次用于测试两台主机上还运行其他服务,关闭swap可能会对其他服务产生影响,所以这里修改kubelet的配置去掉这个限制。 之前的Kubernetes版本我们都是通过kubelet的启动参数–fail-swap-on=false去掉这个限制的。前面已经分析了Kubernetes不再推荐使用启动参数,而推荐使用配置文件。 所以这里我们改成配置文件配置的形式。

查看/etc/systemd/system/kubelet.service.d/10-kubeadm.conf,看到了下面的内容:

# Note: This dropin only works with kubeadm and kubelet v1.11+
[Service]
Environment="KUBELET_KUBECONFIG_ARGS=--bootstrap-kubeconfig=/etc/kubernetes/bootstrap-kubelet.conf --kubeconfig=/etc/kubernetes/kubelet.conf"
Environment="KUBELET_CONFIG_ARGS=--config=/var/lib/kubelet/config.yaml"
# This is a file that "kubeadm init" and "kubeadm join" generates at runtime, populating the KUBELET_KUBEADM_ARGS variable dynamically
EnvironmentFile=-/var/lib/kubelet/kubeadm-flags.env
# This is a file that the user can use for overrides of the kubelet args as a last resort. Preferably, the user should use
# the .NodeRegistration.KubeletExtraArgs object in the configuration files instead. KUBELET_EXTRA_ARGS should be sourced from this file.
EnvironmentFile=-/etc/sysconfig/kubelet
ExecStart=
ExecStart=/usr/bin/kubelet $KUBELET_KUBECONFIG_ARGS $KUBELET_CONFIG_ARGS $KUBELET_KUBEADM_ARGS $KUBELET_EXTRA_ARGS

上面显示kubeadm部署的kubelet的配置文件–config=/var/lib/kubelet/config.yaml,实际去查看/var/lib/kubelet和这个config.yaml的配置文件都没有被创建。 可以猜想肯定是运行kubeadm初始化集群时会自动生成这个配置文件,而如果我们不关闭Swap的话,第一次初始化集群肯定会失败的。

所以还是老老实实的回到使用kubelet的启动参数–fail-swap-on=false去掉必须关闭Swap的限制。 修改/etc/sysconfig/kubelet,加入:

KUBELET_EXTRA_ARGS=--fail-swap-on=false

2.2 使用kubeadm init初始化集群

在各节点开机启动kubelet服务:

systemctl enable kubelet.service

接下来使用kubeadm初始化集群,选择node1作为Master Node,在node1上执行下面的命令:

kubeadm init \
  --kubernetes-version=v1.13.0 \
  --pod-network-cidr=10.244.0.0/16 \
  --apiserver-advertise-address=192.168.61.11

因为我们选择flannel作为Pod网络插件,所以上面的命令指定–pod-network-cidr=10.244.0.0/16。

执行时报了下面的错误:

[init] using Kubernetes version: v1.13.0
[preflight] running pre-flight checks
[preflight] Some fatal errors occurred:
        [ERROR Swap]: running with swap on is not supported. Please disable swap
[preflight] If you know what you are doing, you can make a check non-fatal with `--ignore-preflight-errors=...`

有一个错误信息是running with swap on is not supported. Please disable swap。因为我们决定配置failSwapOn: false,所以重新添加–ignore-preflight-errors=Swap参数忽略这个错误,重新运行。

kubeadm init \
   --kubernetes-version=v1.13.0 \
   --pod-network-cidr=10.244.0.0/16 \
   --apiserver-advertise-address=192.168.61.11 \
   --ignore-preflight-errors=Swap

[init] Using Kubernetes version: v1.13.0
[preflight] Running pre-flight checks
        [WARNING Swap]: running with swap on is not supported. Please disable swap
[preflight] Pulling images required for setting up a Kubernetes cluster
[preflight] This might take a minute or two, depending on the speed of your internet connection
[preflight] You can also perform this action in beforehand using 'kubeadm config images pull'
[kubelet-start] Writing kubelet environment file with flags to file "/var/lib/kubelet/kubeadm-flags.env"
[kubelet-start] Writing kubelet configuration to file "/var/lib/kubelet/config.yaml"
[kubelet-start] Activating the kubelet service
[certs] Using certificateDir folder "/etc/kubernetes/pki"
[certs] Generating "ca" certificate and key
[certs] Generating "apiserver-kubelet-client" certificate and key
[certs] Generating "apiserver" certificate and key
[certs] apiserver serving cert is signed for DNS names [node1 kubernetes kubernetes.default kubernetes.default.svc kubernetes.default.svc.cluster.local] and IPs [10.96.0.1 192.168.61.11]
[certs] Generating "front-proxy-ca" certificate and key
[certs] Generating "front-proxy-client" certificate and key
[certs] Generating "etcd/ca" certificate and key
[certs] Generating "etcd/healthcheck-client" certificate and key
[certs] Generating "etcd/server" certificate and key
[certs] etcd/server serving cert is signed for DNS names [node1 localhost] and IPs [192.168.61.11 127.0.0.1 ::1]
[certs] Generating "etcd/peer" certificate and key
[certs] etcd/peer serving cert is signed for DNS names [node1 localhost] and IPs [192.168.61.11 127.0.0.1 ::1]
[certs] Generating "apiserver-etcd-client" certificate and key
[certs] Generating "sa" key and public key
[kubeconfig] Using kubeconfig folder "/etc/kubernetes"
[kubeconfig] Writing "admin.conf" kubeconfig file
[kubeconfig] Writing "kubelet.conf" kubeconfig file
[kubeconfig] Writing "controller-manager.conf" kubeconfig file
[kubeconfig] Writing "scheduler.conf" kubeconfig file
[control-plane] Using manifest folder "/etc/kubernetes/manifests"
[control-plane] Creating static Pod manifest for "kube-apiserver"
[control-plane] Creating static Pod manifest for "kube-controller-manager"
[control-plane] Creating static Pod manifest for "kube-scheduler"
[etcd] Creating static Pod manifest for local etcd in "/etc/kubernetes/manifests"
[wait-control-plane] Waiting for the kubelet to boot up the control plane as static Pods from directory "/etc/kubernetes/manifests". This can take up to 4m0s
[apiclient] All control plane components are healthy after 19.506551 seconds
[uploadconfig] storing the configuration used in ConfigMap "kubeadm-config" in the "kube-system" Namespace
[kubelet] Creating a ConfigMap "kubelet-config-1.13" in namespace kube-system with the configuration for the kubelets in the cluster
[patchnode] Uploading the CRI Socket information "/var/run/dockershim.sock" to the Node API object "node1" as an annotation
[mark-control-plane] Marking the node node1 as control-plane by adding the label "node-role.kubernetes.io/master=''"
[mark-control-plane] Marking the node node1 as control-plane by adding the taints [node-role.kubernetes.io/master:NoSchedule]
[bootstrap-token] Using token: 702gz5.49zhotgsiyqimwqw
[bootstrap-token] Configuring bootstrap tokens, cluster-info ConfigMap, RBAC Roles
[bootstraptoken] configured RBAC rules to allow Node Bootstrap tokens to post CSRs in order for nodes to get long term certificate credentials
[bootstraptoken] configured RBAC rules to allow the csrapprover controller automatically approve CSRs from a Node Bootstrap Token
[bootstraptoken] configured RBAC rules to allow certificate rotation for all node client certificates in the cluster
[bootstraptoken] creating the "cluster-info" ConfigMap in the "kube-public" namespace
[addons] Applied essential addon: CoreDNS
[addons] Applied essential addon: kube-proxy

Your Kubernetes master has initialized successfully!

To start using your cluster, you need to run the following as a regular user:

  mkdir -p $HOME/.kube
  sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
  sudo chown $(id -u):$(id -g) $HOME/.kube/config

You should now deploy a pod network to the cluster.
Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
  https://kubernetes.io/docs/concepts/cluster-administration/addons/

You can now join any number of machines by running the following on each node
as root:

  kubeadm join 192.168.61.11:6443 --token 702gz5.49zhotgsiyqimwqw --discovery-token-ca-cert-hash sha256:2bc50229343849e8021d2aa19d9d314539b40ec7a311b5bb6ca1d3cd10957c2f

上面记录了完成的初始化输出的内容,根据输出的内容基本上可以看出手动初始化安装一个Kubernetes集群所需要的关键步骤。

其中有以下关键内容:

  • [kubelet-start] 生成kubelet的配置文件”/var/lib/kubelet/config.yaml”

  • [certificates]生成相关的各种证书

  • [kubeconfig]生成相关的kubeconfig文件

  • [bootstraptoken]生成token记录下来,后边使用kubeadm join往集群中添加节点时会用到

  • 下面的命令是配置常规用户如何使用kubectl访问集群:

      mkdir -p $HOME/.kube
      sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
      sudo chown $(id -u):$(id -g) $HOME/.kube/config
  • 最后给出了将节点加入集群的命令kubeadm join 192.168.61.11:6443 –token 702gz5.49zhotgsiyqimwqw –discovery-token-ca-cert-hash sha256:2bc50229343849e8021d2aa19d9d314539b40ec7a311b5bb6ca1d3cd10957c2f

若从k8s.gcr.io拉取镜像失败,请科学上网或采用docker.io仓库拉取相关镜像

docker.io仓库对google的容器做了镜像,可以通过下列命令下拉取相关镜像:

docker pull mirrorgooglecontainers/kube-apiserver-amd64:v1.11.3
docker pull mirrorgooglecontainers/kube-controller-manager-amd64:v1.11.3
docker pull mirrorgooglecontainers/kube-scheduler-amd64:v1.11.3
docker pull mirrorgooglecontainers/kube-proxy-amd64:v1.11.3
docker pull mirrorgooglecontainers/pause:3.1
docker pull mirrorgooglecontainers/etcd-amd64:3.2.18
docker pull coredns/coredns:1.1.3

版本信息需要根据实际情况进行相应的修改。通过docker tag命令来修改镜像的标签:

docker tag docker.io/mirrorgooglecontainers/kube-proxy-amd64:v1.11.3 k8s.gcr.io/kube-proxy-amd64:v1.11.3
docker tag docker.io/mirrorgooglecontainers/kube-scheduler-amd64:v1.11.3 k8s.gcr.io/kube-scheduler-amd64:v1.11.3
docker tag docker.io/mirrorgooglecontainers/kube-apiserver-amd64:v1.11.3 k8s.gcr.io/kube-apiserver-amd64:v1.11.3
docker tag docker.io/mirrorgooglecontainers/kube-controller-manager-amd64:v1.11.3 k8s.gcr.io/kube-controller-manager-amd64:v1.11.3
docker tag docker.io/mirrorgooglecontainers/etcd-amd64:3.2.18  k8s.gcr.io/etcd-amd64:3.2.18
docker tag docker.io/mirrorgooglecontainers/pause:3.1  k8s.gcr.io/pause:3.1
docker tag docker.io/coredns/coredns:1.1.3  k8s.gcr.io/coredns:1.1.3

使用docker rmi删除不用镜像,通过docker images命令显示,已经有我们需要的镜像文件,可以继续部署工作了。

查看一下集群状态:(若查看不到,请使用su命令切换到root用户查看)

kubectl get cs
NAME                 STATUS    MESSAGE              ERROR
controller-manager   Healthy   ok
scheduler            Healthy   ok
etcd-0               Healthy   {"health": "true"}

确认个组件都处于healthy状态。

集群初始化如果遇到问题,可以使用下面的命令进行清理:

kubeadm reset
ifconfig cni0 down
ip link delete cni0
ifconfig flannel.1 down
ip link delete flannel.1
rm -rf /var/lib/cni/

2.3 安装Pod Network

接下来安装flannel network add-on:

mkdir -p ~/k8s/
cd ~/k8s
wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml
kubectl apply -f  kube-flannel.yml

clusterrole.rbac.authorization.k8s.io/flannel created
clusterrolebinding.rbac.authorization.k8s.io/flannel created
serviceaccount/flannel created
configmap/kube-flannel-cfg created
daemonset.extensions/kube-flannel-ds-amd64 created
daemonset.extensions/kube-flannel-ds-arm64 created
daemonset.extensions/kube-flannel-ds-arm created
daemonset.extensions/kube-flannel-ds-ppc64le created
daemonset.extensions/kube-flannel-ds-s390x created

这里注意kube-flannel.yml这个文件里的flannel的镜像是0.10.0,quay.io/coreos/flannel:v0.10.0-amd64

......
containers:
      - name: kube-flannel
        image: quay.io/coreos/flannel:v0.10.0-amd64
        command:
        - /opt/bin/flanneld
        args:
        - --ip-masq
        - --kube-subnet-mgr
        - --iface=eth1
......

使用kubectl get pod –all-namespaces -o wide确保所有的Pod都处于Running状态。

kubectl get pod --all-namespaces -o wide
NAMESPACE     NAME                            READY   STATUS    RESTARTS   AGE     IP              NODE    NOMINATED NODE
kube-system   coredns-576cbf47c7-njt7l        1/1     Running   0          12m    10.244.0.3      node1   <none>
kube-system   coredns-576cbf47c7-vg2gd        1/1     Running   0          12m    10.244.0.2      node1   <none>
kube-system   etcd-node1                      1/1     Running   0          12m    192.168.61.11   node1   <none>
kube-system   kube-apiserver-node1            1/1     Running   0          12m    192.168.61.11   node1   <none>
kube-system   kube-controller-manager-node1   1/1     Running   0          12m    192.168.61.11   node1   <none>
kube-system   kube-flannel-ds-amd64-bxtqh     1/1     Running   0          2m     192.168.61.11   node1   <none>
kube-system   kube-proxy-fb542                1/1     Running   0          12m    192.168.61.11   node1   <none>
kube-system   kube-scheduler-node1            1/1     Running   0          12m    192.168.61.11   node1   <none>

2.4 master node参与工作负载

使用kubeadm初始化的集群,出于安全考虑Pod不会被调度到Master Node上,也就是说Master Node不参与工作负载。这是因为当前的master节点node1被打上了node-role.kubernetes.io/master:NoSchedule的污点:

kubectl describe node node1 | grep Taint
Taints:             node-role.kubernetes.io/master:NoSchedule

因为这里搭建的是测试环境,去掉这个污点使node1参与工作负载:

kubectl taint nodes node1 node-role.kubernetes.io/master-
node "node1" untainted

2.5 测试DNS

kubectl run curl --image=radial/busyboxplus:curl -it
kubectl run --generator=deployment/apps.v1beta1 is DEPRECATED and will be removed in a future version. Use kubectl create instead.
If you don't see a command prompt, try pressing enter.
[ root@curl-5cc7b478b6-r997p:/ ]$

进入后执行nslookup kubernetes.default确认解析正常:

nslookup kubernetes.default
Server:    10.96.0.10
Address 1: 10.96.0.10 kube-dns.kube-system.svc.cluster.local

Name:      kubernetes.default
Address 1: 10.96.0.1 kubernetes.default.svc.cluster.local

2.6 向Kubernetes集群中添加Node节点

下面我们将node2这个主机添加到Kubernetes集群中,因为我们同样在node2上的kubelet的启动参数中去掉了必须关闭swap的限制,所以同样需要–ignore-preflight-errors=Swap这个参数。 在node2上执行:

kubeadm join 192.168.61.11:6443 --token 702gz5.49zhotgsiyqimwqw --discovery-token-ca-cert-hash sha256:2bc50229343849e8021d2aa19d9d314539b40ec7a311b5bb6ca1d3cd10957c2f \
 --ignore-preflight-errors=Swap

[preflight] Running pre-flight checks
        [WARNING Swap]: running with swap on is not supported. Please disable swap
[discovery] Trying to connect to API Server "192.168.61.11:6443"
[discovery] Created cluster-info discovery client, requesting info from "https://192.168.61.11:6443"
[discovery] Requesting info from "https://192.168.61.11:6443" again to validate TLS against the pinned public key
[discovery] Cluster info signature and contents are valid and TLS certificate validates against pinned roots, will use API Server "192.168.61.11:6443"
[discovery] Successfully established connection with API Server "192.168.61.11:6443"
[join] Reading configuration from the cluster...
[join] FYI: You can look at this config file with 'kubectl -n kube-system get cm kubeadm-config -oyaml'
[kubelet] Downloading configuration for the kubelet from the "kubelet-config-1.13" ConfigMap in the kube-system namespace
[kubelet-start] Writing kubelet configuration to file "/var/lib/kubelet/config.yaml"
[kubelet-start] Writing kubelet environment file with flags to file "/var/lib/kubelet/kubeadm-flags.env"
[kubelet-start] Activating the kubelet service
[tlsbootstrap] Waiting for the kubelet to perform the TLS Bootstrap...
[patchnode] Uploading the CRI Socket information "/var/run/dockershim.sock" to the Node API object "node2" as an annotation

This node has joined the cluster:
* Certificate signing request was sent to apiserver and a response was received.
* The Kubelet was informed of the new secure connection details.

Run 'kubectl get nodes' on the master to see this node join the cluster.

node2加入集群很是顺利,下面在master节点上执行命令查看集群中的节点:

kubectl get nodes
NAME    STATUS   ROLES    AGE    VERSION
node1   Ready    master   16m    v1.13.0
node2   Ready    <none>   4m5s   v1.13.0

如何从集群中移除Node

如果需要从集群中移除node2这个Node执行下面的命令:

在master节点上执行:

kubectl drain node2 --delete-local-data --force --ignore-daemonsets
kubectl delete node node2

在node2上执行:

kubeadm reset
ifconfig cni0 down
ip link delete cni0
ifconfig flannel.1 down
ip link delete flannel.1
rm -rf /var/lib/cni/

在node1上执行:

kubectl delete node node2

2.7 kube-proxy开启ipvs

修改ConfigMap的kube-system/kube-proxy中的config.conf,mode: “ipvs”:

kubectl edit cm kube-proxy -n kube-system

之后重启各个节点上的kube-proxy pod:

kubectl get pod -n kube-system | grep kube-proxy | awk '{system("kubectl delete pod "$1" -n kube-system")}'
kubectl get pod -n kube-system | grep kube-proxy
kube-proxy-pf55q                1/1     Running   0          9s
kube-proxy-qjnnc                1/1     Running   0          14s

kubectl logs kube-proxy-pf55q -n kube-system
I1208 06:12:23.516444       1 server_others.go:189] Using ipvs Proxier.
W1208 06:12:23.516738       1 proxier.go:365] IPVS scheduler not specified, use rr by default
I1208 06:12:23.516840       1 server_others.go:216] Tearing down inactive rules.
I1208 06:12:23.575222       1 server.go:464] Version: v1.13.0
I1208 06:12:23.585142       1 conntrack.go:52] Setting nf_conntrack_max to 131072
I1208 06:12:23.586203       1 config.go:202] Starting service config controller
I1208 06:12:23.586243       1 controller_utils.go:1027] Waiting for caches to sync for service config controller
I1208 06:12:23.586269       1 config.go:102] Starting endpoints config controller
I1208 06:12:23.586275       1 controller_utils.go:1027] Waiting for caches to sync for endpoints config controller
I1208 06:12:23.686959       1 controller_utils.go:1034] Caches are synced for endpoints config controller
I1208 06:12:23.687056       1 controller_utils.go:1034] Caches are synced for service config controller

日志中打印出了Using ipvs Proxier,说明ipvs模式已经开启。

3.Kubernetes常用组件部署

越来越多的公司和团队开始使用Helm这个Kubernetes的包管理器,我们也将使用Helm安装Kubernetes的常用组件。

3.1 Helm的安装

Helm由客户端命helm令行工具和服务端tiller组成,Helm的安装十分简单。 下载helm命令行工具到master节点node1的/usr/local/bin下,这里下载的2.12.0版本:

wget https://storage.googleapis.com/kubernetes-helm/helm-v2.12.0-linux-amd64.tar.gz
tar -zxvf helm-v2.12.0-linux-amd64.tar.gz
cd linux-amd64/
cp helm /usr/local/bin/

为了安装服务端tiller,还需要在这台机器上配置好kubectl工具和kubeconfig文件,确保kubectl工具可以在这台机器上访问apiserver且正常使用。 这里的node1节点以及配置好了kubectl。

apiVersion: v1
kind: ServiceAccount
metadata:
  name: tiller
  namespace: kube-system
---
apiVersion: rbac.authorization.k8s.io/v1beta1
kind: ClusterRoleBinding
metadata:
  name: tiller
roleRef:
  apiGroup: rbac.authorization.k8s.io
  kind: ClusterRole
  name: cluster-admin
subjects:
  - kind: ServiceAccount
    name: tiller
    namespace: kube-system
kubectl create -f rbac-config.yaml
serviceaccount/tiller created
clusterrolebinding.rbac.authorization.k8s.io/tiller created

接下来使用helm部署tiller:

helm init --service-account tiller --skip-refresh
Creating /root/.helm
Creating /root/.helm/repository
Creating /root/.helm/repository/cache
Creating /root/.helm/repository/local
Creating /root/.helm/plugins
Creating /root/.helm/starters
Creating /root/.helm/cache/archive
Creating /root/.helm/repository/repositories.yaml
Adding stable repo with URL: https://kubernetes-charts.storage.googleapis.com
Adding local repo with URL: http://127.0.0.1:8879/charts
$HELM_HOME has been configured at /root/.helm.

Tiller (the Helm server-side component) has been installed into your Kubernetes Cluster.

Please note: by default, Tiller is deployed with an insecure 'allow unauthenticated users' policy.
To prevent this, run `helm init` with the --tiller-tls-verify flag.
For more information on securing your installation see: https://docs.helm.sh/using_helm/#securing-your-helm-installation
Happy Helming!

tiller默认被部署在k8s集群中的kube-system这个namespace下:

kubectl get pod -n kube-system -l app=helm
NAME                            READY   STATUS    RESTARTS   AGE
tiller-deploy-c4fd4cd68-dwkhv   1/1     Running   0          83s
helm version
Client: &version.Version{SemVer:"v2.12.0", GitCommit:"d325d2a9c179b33af1a024cdb5a4472b6288016a", GitTreeState:"clean"}
Server: &version.Version{SemVer:"v2.12.0", GitCommit:"d325d2a9c179b33af1a024cdb5a4472b6288016a", GitTreeState:"clean"}

注意由于某些原因需要网络可以访问gcr.io和kubernetes-charts.storage.googleapis.com,如果无法访问可以通过helm init –service-account tiller –tiller-image /tiller:v2.11.0 –skip-refresh使用私有镜像仓库中的tiller镜像

3.2 使用Helm部署Nginx Ingress

我们将node1(192.168.61.11)和node2(192.168.61.12)同时做为边缘节点,打上Label:

kubectl label node node1 node-role.kubernetes.io/edge=
node/node1 labeled

kubectl label node node2 node-role.kubernetes.io/edge=
node/node2 labeled

kubectl get node
NAME    STATUS   ROLES         AGE   VERSION
node1   Ready    edge,master   24m   v1.13.0
node2   Ready    edge          11m   v1.13.0

stable/nginx-ingress chart的值文件ingress-nginx.yaml:

controller:
  replicaCount: 2
  service:
    externalIPs:
      - 192.168.61.10
  nodeSelector:
    node-role.kubernetes.io/edge: ''
  affinity:
    podAntiAffinity:
        requiredDuringSchedulingIgnoredDuringExecution:
        - labelSelector:
            matchExpressions:
            - key: app 
              operator: In
              values:
              - nginx-ingress
            - key: component
              operator: In
              values:
              - controller
          topologyKey: kubernetes.io/hostname
  tolerations:
      - key: node-role.kubernetes.io/master
        operator: Exists
        effect: NoSchedule

defaultBackend:
  nodeSelector:
    node-role.kubernetes.io/edge: ''
  tolerations:
      - key: node-role.kubernetes.io/master
        operator: Exists
        effect: NoSchedule

nginx ingress controller的副本数replicaCount为2,将被调度到node1和node2这两个边缘节点上。externalIPs指定的192.168.61.10为VIP,将绑定到kube-proxy kube-ipvs0网卡上。

helm repo update

helm install stable/nginx-ingress \
-n nginx-ingress \
--namespace ingress-nginx  \
-f ingress-nginx.yaml
kubectl get pod -n ingress-nginx -o wide
NAME                                             READY   STATUS    RESTARTS   AGE    IP           NODE    NOMINATED NODE   READINESS GATES
nginx-ingress-controller-85f8597fc6-g2kcx        1/1     Running   0          5m2s   10.244.1.3   node2   <none>           <none>
nginx-ingress-controller-85f8597fc6-g7pp5        1/1     Running   0          5m2s   10.244.0.5   node1   <none>           <none>
nginx-ingress-default-backend-6dc6c46dcc-7plm8   1/1     Running   0          5m2s   10.244.1.4   node2   <none>           <none>

实际测试的结果是无法访问,于是怀疑kube-proxy出了问题,查看kube-proxy的日志,不停的刷下面的log:

I1208 07:59:28.902970       1 graceful_termination.go:160] Trying to delete rs: 10.104.110.193:80/TCP/10.244.1.5:80
I1208 07:59:28.903037       1 graceful_termination.go:170] Deleting rs: 10.104.110.193:80/TCP/10.244.1.5:80
I1208 07:59:28.903072       1 graceful_termination.go:160] Trying to delete rs: 10.104.110.193:80/TCP/10.244.0.6:80
I1208 07:59:28.903105       1 graceful_termination.go:170] Deleting rs: 10.104.110.193:80/TCP/10.244.0.6:80
I1208 07:59:28.903713       1 graceful_termination.go:160] Trying to delete rs: 192.168.61.10:80/TCP/10.244.1.5:80
I1208 07:59:28.903764       1 graceful_termination.go:170] Deleting rs: 192.168.61.10:80/TCP/10.244.1.5:80
I1208 07:59:28.903798       1 graceful_termination.go:160] Trying to delete rs: 192.168.61.10:80/TCP/10.244.0.6:80
I1208 07:59:28.903824       1 graceful_termination.go:170] Deleting rs: 192.168.61.10:80/TCP/10.244.0.6:80
I1208 07:59:28.904654       1 graceful_termination.go:160] Trying to delete rs: 10.0.2.15:31698/TCP/10.244.0.6:80
I1208 07:59:28.904837       1 graceful_termination.go:170] Deleting rs: 10.0.2.15:31698/TCP/10.244.0.6:80

参考

如果各个主机启用了防火墙,需要开放Kubernetes各个组件所需要的端口,可以查看中的”Check required ports”一节。 这里简单起见在各节点禁用防火墙:

Kubernetes从1.6开始使用CRI(Container Runtime Interface)容器运行时接口。默认的容器运行时仍然是,使用的是kubelet中内置dockershim CRI实现。

测试地址

而官方推荐我们使用–config指定配置文件,并在配置文件中指定原来这些flag所配置的内容。具体内容可以查看这里。这也是Kubernetes为了支持动态Kubelet配置(Dynamic Kubelet Configuration)才这么做的,参考。

kubelet的配置文件必须是json或yaml格式,具体可查看。

如果Node有多个网卡的话,参考,目前需要在kube-flannel.yml中使用–iface参数指定集群主机内网网卡的名称,否则可能会出现dns无法解析。需要将kube-flannel.yml下载到本地,flanneld启动参数加上–iface=

因为Kubernetes APIServer开启了RBAC访问控制,所以需要创建tiller使用的service account: tiller并分配合适的角色给它。 详细内容可以查看helm文档中的。 这里简单起见直接分配cluster-admin这个集群内置的ClusterRole给它。创建rbac-config.yaml文件:

为了便于将集群中的服务暴露到集群外部,从集群外部访问,接下来使用Helm将Nginx Ingress部署到Kubernetes上。 Nginx Ingress Controller被部署在Kubernetes的边缘节点上,关于Kubernetes边缘节点的高可用相关的内容可以查看我前面整理的。

如果访问 backend,则部署完成。

在Kubernetes的Github上找到了这个ISSUE ,大致是最近更新的IPVS proxier mode now support connection based graceful termination.引入了bug,导致Kubernetes的1.11.5、1.12.1~1.12.3、1.13.0都有这个问题,即kube-proxy在ipvs模式下不可用。而官方称在1.11.5、1.12.3、1.13.0中修复了12月4日k8s的特权升级漏洞(CVE-2018-1002105),如果针对这个漏洞做k8s升级的同学,需要小心,确认是否开启了ipvs,避免由升级引起k8s网络问题。由于我们线上的版本是1.11并且已经启用了ipvs,所以这里我们只能先把线上master node升级到了1.11.5,而kube-proxy还在使用1.11.4的版本。

中已经描述有相关PR解决这个问题,后续只能跟踪一下1.11.5、1.12.3、1.13.0之后的小版本了。

Kubernetes 1.13
kubeadm
Installing kubeadm
Docker
https://packages.cloud.google.com/yum/repos/kubernetes-el7-x86_64是否可用,如果不可用需要科学上网。
Set Kubelet parameters via a config file
Reconfigure a Node’s Kubelet in a Live Cluster
这里
flannel issues 39701
Role-based Access Control
Bare metal环境下Kubernetes Ingress边缘节点的高可用(基于IPVS)
http://192.168.61.10返回default
https://github.com/kubernetes/kubernetes/issues/71071
https://github.com/kubernetes/kubernetes/issues/71071
使用 kubeadm 创建一个单主集群
使用kubeadm安装Kubernetes 1.13
centos7使用kubeadm安装kubernetes 1.11版本多主高可用
简单Kubernetes的Minikube安装
Kubernetes:如何解决从k8s.gcr.io拉取镜像失败问题
从节点运行命令kubectl出错
kunernets使用helm安装tiller踩坑