pxe基础的批量化装机

PXE网络装机

PXE 原理

开机自检-----》MBR引导-----》grub2菜单------》内核初始化-------》init初始化


 

服务器的批量部署

1.规模化:同时装配多台服务器

2.自动化:安装系统、配置各种服务

3.远程实现:不需要光盘、U盘等安装介质

4.对于无盘工作站,服务器端需要提供可运行的完整系统镜像;对于远程安装,只要提供引导程序和安装源就可以了

1).关于PXE网络

*PXE,全名Pre-boot eXcution Environment

作用:

*预启动执行环境,在操作系统之前运行

*可用于远程安装、构建无盘工作站

实验步骤

VMNet1 192.168.10.100
Net  192.168.10.80

 

 

 


 

1.systemctl stop firewalld ------------------------关闭防火墙

2.setenforce 0 ----------------------------------------关闭seliunx

3.mount /dev/cdrom /mnt ---------------------------将光盘挂载 (mnt是挂载点)

4.mount /dev/cdrom /var/ftp/centos--------------将光盘挂载到ftp下(提前下载vsftpd)

5. systemctl start vsftpd-------------------------------开启ftp服务

6. netstat -anpt | grep vsftpd-------------------------查看ftp的端口号

7. yum -y install tftp-server----------------------------安装tftp服务器

8. vi /etc/xinetd.d/tftp----------------------------------修改tftp的配置文件(如下)

tftp.PNG把圈起来的修改一下

9. systemctl start tftp--------------------------------开启tftp服务

10. cd /mnt//images/pxeboot/------------------------mnt是光盘挂载点

11. cp vmlinuz initrd.img /var/lib/tftpboot/ --vmlinuz是可引导的、压缩的内核,,会读取initrd.img 启动镜像,该文件中包含驱动模块等信息,是非常重要的文件,不同版本使用的格式不同。

12. yum -y install syslinux-----------------------------syslinux是一个功能强大的引导加载程序,而且兼容各种介质

13. cp /usr/share/syslinux/pxelinux.0 /var/lib/tftpboot/------把sysliunx的引导文件复制到tftpboot里面

14. vi /etc/dhcp/dhcpd.conf---------------------------修改DHCP的配置文件如下

DHCP.PNG

添加画痕线的配置 第一个是本身的IP地址 第二个是引导文件

15. mkdir /var/lib/tftpboot/pxelinux.cfg --------------创建引导文件

16. vi /var/lib/tftpboot/pxelinux.cfg/default----------修改配置文件

引导文件.PNG

一样就行

17.验证实验结果

如果使用虚拟机实验的话内存要调整为2G以上,否则报错!!

出现boot按回车

原文链接:https://www.cnblogs.com/latyle/p/17391357.html

本站文章如无特殊说明,均为本站原创,如若转载,请注明出处:pxe基础的批量化装机 - Python技术站

(0)
上一篇 2023年5月11日
下一篇 2023年5月24日

相关文章

  • 机器学习笔记—–牛顿法与拟牛顿法

    提要:今天讲的牛顿法与拟牛顿法是求解无约束问题最优化方法的常用方法。 一 牛顿法 假设我们求下面函数的最小值: 假设f(x)具有连续的二阶的连续偏导数,假设第K次迭代值为xk的值,那么可将f(X)在xk附近进行二阶泰勒展开得到: 我们对上述公式求导可得:      假设其中可逆,我们就可以得到牛顿法的迭代公式为:      这样就可以得到牛顿法的迭代公式了。…

    机器学习 2023年4月12日
    00
  • 【483】Keras 中 LSTM 与 BiLSTM 语法

    参考:Keras-递归层Recurrent官方说明 参考:Keras-Bidirectional包装器官方说明 LSTM(units=32, input_shape=(10, 64)) units=32:输出神经元个数 input_shape=(10, 64):输入数据形状,10 代表时间序列的长度,64 代表每个时间序列数据的维度 LSTM(units=3…

    Keras 2023年4月7日
    00
  • 目标检测算法Fast R-CNN

    引言: SPPNet的性能已经得到很大的改善,但是由于网络之间不统一训练,造成很大的麻烦,所以接下来的Fast R-CNN就是为了解决这样的问题。 1. Fast R-CNN 改进的地方: 提出一个RoI pooling(region of interest即候选区),然后整合整个模型,把CNN、SPP变换层、分类器、bbox回归几个模块一起训练。步骤 首先…

    2023年4月8日
    00
  • AI佳作解读系列(六) - 生成对抗网络(GAN)综述精华

    注:本文来自机器之心的PaperWeekly系列:万字综述之生成对抗网络(GAN),如有侵权,请联系删除,谢谢!   前阵子学习 GAN 的过程发现现在的 GAN 综述文章大都是 2016 年 Ian Goodfellow 或者自动化所王飞跃老师那篇。可是在深度学习,GAN领域,其进展都是以月来计算的,感觉那两篇综述有些老了。最近发现有一篇最新的 GAN 综…

    2023年4月5日
    00
  • caffe源代码分析–math_functions.cu代码研究

    当中用到一个宏定义CUDA_KERNEL_LOOP 在common.hpp中有。 #defineCUDA_KERNEL_LOOP(i,n) \ for(inti = blockIdx.x * blockDim.x + threadIdx.x; \ i < (n); \ i +=blockDim.x * gridDim.x) 先看看caffe採取的线程格…

    Caffe 2023年4月8日
    00
  • Input tensors to a Functional must come from `tf.keras.Input`.

    attention_vector = np.mean(get_activations(m, testing_inputs_1, print_shape_only=True, layer_name=’attention_vec’)[0], axis=2).squeeze()funcs = [K.function([inp] + [K.learning_phas…

    Keras 2023年4月7日
    00
  • 深度学习实战 第7章循环神经网络笔记

    第7章 循环神经网络 1.前馈神经网络总是单向的,从输入层到低级隐层,再从低级隐藏层到高级隐藏层,最后再到输出层。但不管网络有多少层,都是一层一层地前向输出。但这其实是有问题的,因为这种前馈结构需要假设数据是独立同分布,但现实中有很多复杂的数据都不满足这个条件,例如音频数据、视频数据及自然语言数据等。 2.当我们将一篇英文文本翻译成中文文本时,句子之间,段落…

    2023年4月6日
    00
  • 了解Pytorch|Get Started with PyTorch

    一个开源的机器学习框架,加速了从研究原型到生产部署的路径。!pip install torch -i https://pypi.tuna.tsinghua.edu.cn/simple import torch import numpy as np Basics 就像Tensorflow一样,我们也将继续在PyTorch中玩转Tensors。 从数据(列表)中…

    2023年4月8日
    00
合作推广
合作推广
分享本页
返回顶部