Proxmox VE实用说明
- 可部署在物理机器上
- 可以组建成集群,集群的方式是,一个物理机是一个pve集群(节点),cpu, 内存,存储默认不共享
- 可以在pve集群间迁移虚拟机。
安装PVE
- Windows下的制作过程
使用Rufus
Rufus是一个更轻量级的替代方案,但您需要使用DD模式才能使其工作。从https://rufus.ie/ 下载Rufus。要么直接安装,要么使用便携版本。选择目标驱动器和Proxmox VE ISO文件。
重要 启动后,您必须在要求下载不同版本的GRUB的对话框中单击否。在下一个对话框中,选择DD模式 - 可以用VM虚拟机实践,选Debian10 64即可
- 安装注意选择
1.需要开启虚拟化 Inter VT-x/EPT 或者 AMD-V/RVI(V)
2.最好采用两块SSD硬盘作为系统盘:如图使用zfs(raid1) 做镜像存储
ZFS磁盘管理使用
ZFS 是由 Sun Microsystems 设计的文件系统和逻辑卷管理器的组合,使用ZFS,可以降低硬件预算硬件,同时实现企业功能,也可以通过利用SSD缓存甚至全闪存来实现高性能系统。ZFS对CPU和内存消耗小可以替代硬件阵列卡,同时易于管理。
如果您正在在 VM(嵌套虚拟化)中安装 Proxmox VE,请不要对该 VM 的磁盘使用 virtio,因为 ZFS 不支持这些磁盘。请改用 IDE 或 SCSI(也适用于 virtio SCSI 控制器类型)。
- 配置 ZFS 内存使用上限默认情况下,ZFS会使用宿主机50%的内存做为ARC缓存。
1TB空间使用1G内存,同时预留2G基本内存。如果池有8TB空间,那应该给ARC分配8G+2G共10G的内存。您可以通过直接写入zfs_arc_max模块参数来更改当前引导的 ARC 使用限制(重新启动会失效):echo “$[10 102410241024]” >/sys/module/zfs/parameters/zfs_arc_max
要永久生效,请将以下行添加到 /etc/modprobe.d/zfs.conf中。 如要限制为8G内存,则添加如下:
options zfs zfs_arc_max=8589934592
注意:如果所需的zfs_arc_max值小于或等于 zfs_arc_min(默认为系统内存的 1/32),则将忽略zfs_arc_max,除非您还将zfs_arc_min设置为最多 zfs_arc_max - 1。
如下,在256G内存的系统上,限制ARC为8GB,需要设置zfs_arc_min -1。只设置zfs_arc_max是不行的
• echo “$[8 102410241024 - 1]” >/sys/module/zfs/parameters/zfs_arc_min
echo “$[8 10241024*1024]” >/sys/module/zfs/parameters/zfs_arc_max
- 例如设置最小 256M 最大1G内存
echo “$[25610241024]” >/sys/module/zfs/parameters/zfs_arc_min
echo “$[1 10241024*1024]” >/sys/module/zfs/parameters/zfs_arc_max
cat >> /etc/modprobe.d/zfs.conf <<EOF
options zfs zfs_arc_min=268435456
options zfs zfs_arc_max=1073741824
EOF
如果根文件系统是 ZFS,则每次更改此值时都必须更新初始化接口: update-initramfs -u,同时重新启动才能激活这些更改。
- ZFS 中的压缩
建议使用 lz4 算法,因为它增加的 CPU 开销非常少
资源池
资源池通常与组串联使用,以便组的成员对一组计算机和存储具有权限
可以理解为分类,以便更好授权(作用不大)。
上传ISO镜像
如图:
创建虚拟机
ps:最好选默认配置
网络配置规划
你需要根据当前的网络规划以及可用资源,决定具体采用的网络配置模式。可选模式包括网桥、路由以及地址转换三种类型。
- Proxmox VE服务器位于内部局域网,通过外部网关与互联网连接
这种情况下最适宜采用网桥模式。这也是新安装Proxmox VE服务器默认采用的模式。该模式下,所有虚拟机通过虚拟网卡与Proxmox VE虚拟网桥连接。其效果类似于虚拟机网卡直接连接在局域网交换机上,而Proxmox VE服务器就扮演了这个交换机的角色。 - Proxmox VE托管于主机供应商,并分配有一段互联网公共IP地址
这种情况下,可根据主机供应商分配的资源和权限,选择网桥模式或路由模式。 - Proxmox VE托管于主机供应商,但只有一个互联网公共IP地址
这种情况下,虚拟机访问外部互联网的唯一办法就是通过地址转换。如果外部网络需要访问虚拟机,还需要配置端口转发。 为日后维护使用方便,可以配置VLANs(IEEE 802.1q)和网卡绑定,也就是“链路聚合”。这样就可以灵活地建立复杂虚拟机网络结构。
不同节点(集群)间克隆和迁移
克隆
两边节点的存储名称必须一样,源存储必须是公共存储,否则报错。
可以先克隆到本节点,在迁移这个克隆虚拟机到目标节点。
离线迁移
两边节点的存储名称必须一样,不一样需要添加磁盘,否则报错。
在线迁移
直接迁移,注意,迁移后需要重新挂载磁盘
其他问题
关掉无效订阅提示
You do not have a valid subscription for this server. Please visit www.proxmox.com to get a list of available options.
把
清下浏览器缓存
加入集群报错
Establishing API connection with host '192.168.83.129'
Login succeeded.
check cluster join API version
Request addition of this node
An error occurred on the cluster node: cluster not ready - no quorum?
TASK ERROR: Cluster join aborted!

- 原因:原来的集群有一个不用的节点,已经离线状态
- 解决办法,用 pvecm删除这个离线的节点
pvecm delnode pve2
如果报错TASK ERROR: cluster not ready – no quorum?」的錯誤
pvecm status
pvecm expected 1
pvecm delnode pve2
迁移时报错can’t migrate vm with local cd/dvd
- 需要把光驱关闭
迁移报错ERROR: Problem found while scanning volumes - no such logical volume pve/data
- 需要在数据中心-存储中删除local-lvm这(这个是问号)