0
点赞
收藏
分享

微信扫一扫

Proxmox VE 7.3虚拟化安装及问题

Proxmox VE实用说明

  • 可部署在物理机器上
  • 可以组建成集群,集群的方式是,一个物理机是一个pve集群(节点),cpu, 内存,存储默认不共享
  • 可以在pve集群间迁移虚拟机。

安装PVE

  • Windows下的制作过程
    使用Rufus
    Rufus是一个更轻量级的替代方案,但您需要使用DD模式才能使其工作。从https://rufus.ie/ 下载Rufus。要么直接安装,要么使用便携版本。选择目标驱动器和Proxmox VE ISO文件。
    重要 启动后,您必须在要求下载不同版本的GRUB的对话框中单击否。在下一个对话框中,选择DD模式
  • 可以用VM虚拟机实践,选Debian10 64即可
  • 安装注意选择
    1.需要开启虚拟化 Inter VT-x/EPT 或者 AMD-V/RVI(V)
    2.最好采用两块SSD硬盘作为系统盘:如图使用zfs(raid1) 做镜像存储

ZFS磁盘管理使用

ZFS 是由 Sun Microsystems 设计的文件系统和逻辑卷管理器的组合,使用ZFS,可以降低硬件预算硬件,同时实现企业功能,也可以通过利用SSD缓存甚至全闪存来实现高性能系统。ZFS对CPU和内存消耗小可以替代硬件阵列卡,同时易于管理。
如果您正在在 VM(嵌套虚拟化)中安装 Proxmox VE,请不要对该 VM 的磁盘使用 virtio,因为 ZFS 不支持这些磁盘。请改用 IDE 或 SCSI(也适用于 virtio SCSI 控制器类型)。

  • 配置 ZFS 内存使用上限默认情况下,ZFS会使用宿主机50%的内存做为ARC缓存。

1TB空间使用1G内存,同时预留2G基本内存。如果池有8TB空间,那应该给ARC分配8G+2G共10G的内存。您可以通过直接写入zfs_arc_max模块参数来更改当前引导的 ARC 使用限制(重新启动会失效):echo “$[10 102410241024]” >/sys/module/zfs/parameters/zfs_arc_max
要永久生效,请将以下行添加到 /etc/modprobe.d/zfs.conf中。 如要限制为8G内存,则添加如下:
options zfs zfs_arc_max=8589934592
注意:如果所需的zfs_arc_max值小于或等于 zfs_arc_min(默认为系统内存的 1/32),则将忽略zfs_arc_max,除非您还将zfs_arc_min设置为最多 zfs_arc_max - 1。
如下,在256G内存的系统上,限制ARC为8GB,需要设置zfs_arc_min -1。只设置zfs_arc_max是不行的

• echo “$[8 102410241024 - 1]” >/sys/module/zfs/parameters/zfs_arc_min
echo “$[8 10241024*1024]” >/sys/module/zfs/parameters/zfs_arc_max

  • 例如设置最小 256M 最大1G内存

echo “$[25610241024]” >/sys/module/zfs/parameters/zfs_arc_min
echo “$[1 10241024*1024]” >/sys/module/zfs/parameters/zfs_arc_max
cat >> /etc/modprobe.d/zfs.conf <<EOF
options zfs zfs_arc_min=268435456
options zfs zfs_arc_max=1073741824
EOF


如果根文件系统是 ZFS,则每次更改此值时都必须更新初始化接口: update-initramfs -u,同时重新启动才能激活这些更改。

  • ZFS 中的压缩
    建议使用 lz4 算法,因为它增加的 CPU 开销非常少

资源池

资源池通常与组串联使用,以便组的成员对一组计算机和存储具有权限
可以理解为分类,以便更好授权(作用不大)。

上传ISO镜像

如图:

Proxmox VE 7.3虚拟化安装及问题_Proxmox


Proxmox VE 7.3虚拟化安装及问题_PVE_02


Proxmox VE 7.3虚拟化安装及问题_虚拟化_03

创建虚拟机

Proxmox VE 7.3虚拟化安装及问题_PVE_04


ps:最好选默认配置

网络配置规划

你需要根据当前的网络规划以及可用资源,决定具体采用的网络配置模式。可选模式包括网桥、路由以及地址转换三种类型。

  • Proxmox VE服务器位于内部局域网,通过外部网关与互联网连接
    这种情况下最适宜采用网桥模式。这也是新安装Proxmox VE服务器默认采用的模式。该模式下,所有虚拟机通过虚拟网卡与Proxmox VE虚拟网桥连接。其效果类似于虚拟机网卡直接连接在局域网交换机上,而Proxmox VE服务器就扮演了这个交换机的角色。
  • Proxmox VE托管于主机供应商,并分配有一段互联网公共IP地址
    这种情况下,可根据主机供应商分配的资源和权限,选择网桥模式或路由模式。
  • Proxmox VE托管于主机供应商,但只有一个互联网公共IP地址
    这种情况下,虚拟机访问外部互联网的唯一办法就是通过地址转换。如果外部网络需要访问虚拟机,还需要配置端口转发。 为日后维护使用方便,可以配置VLANs(IEEE 802.1q)和网卡绑定,也就是“链路聚合”。这样就可以灵活地建立复杂虚拟机网络结构。

不同节点(集群)间克隆和迁移

克隆

两边节点的存储名称必须一样,源存储必须是公共存储,否则报错。

Proxmox VE 7.3虚拟化安装及问题_Proxmox VE 7.3_05


Proxmox VE 7.3虚拟化安装及问题_虚拟化_06


可以先克隆到本节点,在迁移这个克隆虚拟机到目标节点。

离线迁移

两边节点的存储名称必须一样,不一样需要添加磁盘,否则报错。

Proxmox VE 7.3虚拟化安装及问题_虚拟化_07

在线迁移

直接迁移,注意,迁移后需要重新挂载磁盘

其他问题

关掉无效订阅提示

You do not have a valid subscription for this server. Please visit www.proxmox.com to get a list of available options.

  • 解决方法:
  • Proxmox VE 7.3虚拟化安装及问题_PVE_08

  • 改成
  • Proxmox VE 7.3虚拟化安装及问题_Proxmox VE 7.3_09

  • 重启网页服务systemctl restart pveproxy
    清下浏览器缓存
  • 加入集群报错

    Establishing API connection with host '192.168.83.129'
    Login succeeded.
    check cluster join API version
    Request addition of this node
    An error occurred on the cluster node: cluster not ready - no quorum?
    TASK ERROR: Cluster join aborted!
    ![](https://wiki-in.d8wz.com/server/index.php?s=/api/attachment/visitFile&sign=733cd00d7e7a8c60bdbf592e130aa114)

    • 原因:原来的集群有一个不用的节点,已经离线状态
    • 解决办法,用 pvecm删除这个离线的节点
    • pvecm delnode pve2

      如果报错TASK ERROR: cluster not ready – no quorum?」的錯誤

    • 请看下:
    • pvecm status

    • 看下如果有
    • Proxmox VE 7.3虚拟化安装及问题_Proxmox VE 7.3_10

    • 降低期待数为1
    • pvecm expected 1

    • 再执行
    • pvecm delnode pve2

    迁移时报错can’t migrate vm with local cd/dvd

    • 需要把光驱关闭
    • Proxmox VE 7.3虚拟化安装及问题_开源虚拟化_11

    迁移报错ERROR: Problem found while scanning volumes - no such logical volume pve/data

    Proxmox VE 7.3虚拟化安装及问题_Proxmox_12

    • 需要在数据中心-存储中删除local-lvm这(这个是问号)
    • Proxmox VE 7.3虚拟化安装及问题_PVE_13

      Proxmox VE 7.3虚拟化安装及问题_虚拟化_14

    举报

    相关推荐

    0 条评论