Proxmox VE实用说明
- 可部署在物理机器上
- 可以组建成集群,集群的方式是,一个物理机是一个pve集群(节点),cpu, 内存,存储默认不共享
- 可以在pve集群间迁移虚拟机。
安装PVE
- Windows下的制作过程
使用Rufus
Rufus是一个更轻量级的替代方案,但您需要使用DD模式才能使其工作。从https://rufus.ie/ 下载Rufus。要么直接安装,要么使用便携版本。选择目标驱动器和Proxmox VE ISO文件。
重要 启动后,您必须在要求下载不同版本的GRUB的对话框中单击否。在下一个对话框中,选择DD模式 - 可以用VM虚拟机实践,选Debian10 64即可
- 安装注意选择
1.需要开启虚拟化 Inter VT-x/EPT 或者 AMD-V/RVI(V)
2.最好采用两块SSD硬盘作为系统盘:如图使用zfs(raid1) 做镜像存储
ZFS磁盘管理使用
ZFS 是由 Sun Microsystems 设计的文件系统和逻辑卷管理器的组合,使用ZFS,可以降低硬件预算硬件,同时实现企业功能,也可以通过利用SSD缓存甚至全闪存来实现高性能系统。ZFS对CPU和内存消耗小可以替代硬件阵列卡,同时易于管理。
如果您正在在 VM(嵌套虚拟化)中安装 Proxmox VE,请不要对该 VM 的磁盘使用 virtio,因为 ZFS 不支持这些磁盘。请改用 IDE 或 SCSI(也适用于 virtio SCSI 控制器类型)。
- 配置 ZFS 内存使用上限默认情况下,ZFS会使用宿主机50%的内存做为ARC缓存。
1TB空间使用1G内存,同时预留2G基本内存。如果池有8TB空间,那应该给ARC分配8G+2G共10G的内存。您可以通过直接写入zfs_arc_max模块参数来更改当前引导的 ARC 使用限制(重新启动会失效):echo “$[10 102410241024]” >/sys/module/zfs/parameters/zfs_arc_max
要永久生效,请将以下行添加到 /etc/modprobe.d/zfs.conf中。 如要限制为8G内存,则添加如下:
options zfs zfs_arc_max=8589934592
注意:如果所需的zfs_arc_max值小于或等于 zfs_arc_min(默认为系统内存的 1/32),则将忽略zfs_arc_max,除非您还将zfs_arc_min设置为最多 zfs_arc_max - 1。
如下,在256G内存的系统上,限制ARC为8GB,需要设置zfs_arc_min -1。只设置zfs_arc_max是不行的
• echo “$[8 102410241024 - 1]” >/sys/module/zfs/parameters/zfs_arc_min
echo “$[8 10241024*1024]” >/sys/module/zfs/parameters/zfs_arc_max- 例如设置最小 256M 最大1G内存
echo “$[25610241024]” >/sys/module/zfs/parameters/zfs_arc_min
echo “$[1 10241024*1024]” >/sys/module/zfs/parameters/zfs_arc_max
cat >> /etc/modprobe.d/zfs.conf <<EOF
options zfs zfs_arc_min=268435456
options zfs zfs_arc_max=1073741824
EOF
如果根文件系统是 ZFS,则每次更改此值时都必须更新初始化接口: update-initramfs -u,同时重新启动才能激活这些更改。
- ZFS 中的压缩
建议使用 lz4 算法,因为它增加的 CPU 开销非常少
资源池
资源池通常与组串联使用,以便组的成员对一组计算机和存储具有权限
可以理解为分类,以便更好授权(作用不大)。
上传ISO镜像
如图:



创建虚拟机

ps:最好选默认配置
网络配置规划
你需要根据当前的网络规划以及可用资源,决定具体采用的网络配置模式。可选模式包括网桥、路由以及地址转换三种类型。
- Proxmox VE服务器位于内部局域网,通过外部网关与互联网连接
这种情况下最适宜采用网桥模式。这也是新安装Proxmox VE服务器默认采用的模式。该模式下,所有虚拟机通过虚拟网卡与Proxmox VE虚拟网桥连接。其效果类似于虚拟机网卡直接连接在局域网交换机上,而Proxmox VE服务器就扮演了这个交换机的角色。 - Proxmox VE托管于主机供应商,并分配有一段互联网公共IP地址
这种情况下,可根据主机供应商分配的资源和权限,选择网桥模式或路由模式。 - Proxmox VE托管于主机供应商,但只有一个互联网公共IP地址
这种情况下,虚拟机访问外部互联网的唯一办法就是通过地址转换。如果外部网络需要访问虚拟机,还需要配置端口转发。 为日后维护使用方便,可以配置VLANs(IEEE 802.1q)和网卡绑定,也就是“链路聚合”。这样就可以灵活地建立复杂虚拟机网络结构。
不同节点(集群)间克隆和迁移
克隆
两边节点的存储名称必须一样,源存储必须是公共存储,否则报错。


可以先克隆到本节点,在迁移这个克隆虚拟机到目标节点。
离线迁移
两边节点的存储名称必须一样,不一样需要添加磁盘,否则报错。

在线迁移
直接迁移,注意,迁移后需要重新挂载磁盘
其他问题
关掉无效订阅提示
You do not have a valid subscription for this server. Please visit www.proxmox.com to get a list of available options.把


清下浏览器缓存
加入集群报错
Establishing API connection with host '192.168.83.129'
Login succeeded.
check cluster join API version
Request addition of this node
An error occurred on the cluster node: cluster not ready - no quorum?
TASK ERROR: Cluster join aborted!
- 原因:原来的集群有一个不用的节点,已经离线状态
- 解决办法,用 pvecm删除这个离线的节点
pvecm delnode pve2如果报错TASK ERROR: cluster not ready – no quorum?」的錯誤
pvecm status
pvecm expected 1pvecm delnode pve2迁移时报错can’t migrate vm with local cd/dvd
- 需要把光驱关闭

迁移报错ERROR: Problem found while scanning volumes - no such logical volume pve/data

- 需要在数据中心-存储中删除local-lvm这(这个是问号)









