Interface Proxmox VE plus accessible

Bonjour,

Suite à quelques modifications dans mon Proxmox VE, je ne parviens plus à y accéder. J’étais occupé à configurer Proxmox Backup Server et d’un seul coup, je n’ai plus accès à l’administration de mon VE.

  • Mes VM et LXC restent accessibles sauf une (Open Media Vault sur VM, récemment installé, j’étais d’ailleurs en train de la redémarrer)
  • IP Proxmox VE toujours accessible (répond au ping dans cmd dos)
  • Proxmox Backup Serveur sur port 8007 : interface ok
  • MAIS Proxmox VE sur port 8006 : interface inaccessible, timeout
Ce site est inaccessible
192.168.1.220 a mis trop de temps à répondre.
Voici quelques conseils :

Vérifier la connexion
Vérifier le proxy et le pare-feu
Exécutez les diagnostics réseau de Windows
ERR_TIMED_OUT

Que préconisez-vous ?
Reboot complet de la machine, à l’arrache du coup car plus d’interface visuelle ?
Accès par SSH ? Je n’y connais pas grand chose malheureusement…

HA et ZB2MQTT fonctionnent toujours… Et c’est bien le principal mais si je me vautre en rebootant, tout est HS.

Merci déjà pour votre aide, première grosse flippouille de l’année :roll_eyes: HELP !

Version core-2025.12.5
Type d’installation Home Assistant OS
Développement false
Supervisor true
Docker true
Architecture des conteneurs amd64
Utilisateur root
Environnement virtuel false
Version de Python 3.13.9
Famille du système d’exploitation Linux
Version du système d’exploitation 6.12.51-haos
Architecture du processeur x86_64
Fuseau horaire Europe/Brussels
Répertoire de configuration /config

Voici ce que me donne un systemctl status pveproxy dans ssh si ça peut vous aider ?

● pveproxy.service - PVE API Proxy Server
     Loaded: loaded (/lib/systemd/system/pveproxy.service; enabled; preset: enabled)
     Active: active (running) since Tue 2025-11-04 11:48:08 CET; 1 month 28 days ago
   Main PID: 1046 (pveproxy)
      Tasks: 4 (limit: 18985)
     Memory: 132.9M
        CPU: 2h 17min 34.017s
     CGroup: /system.slice/pveproxy.service
             ├─   1046 pveproxy
             ├─1550337 "pveproxy worker"
             ├─1566901 "pveproxy worker"
             └─1571989 "pveproxy worker"

Jan 02 14:38:21 pve pveproxy[1046]: worker 1550337 started
Jan 02 15:08:40 pve pveproxy[1532353]: worker exit
Jan 02 15:08:40 pve pveproxy[1046]: worker 1532353 finished
Jan 02 15:08:40 pve pveproxy[1046]: starting 1 worker(s)
Jan 02 15:08:40 pve pveproxy[1046]: worker 1566901 started
Jan 02 15:17:46 pve pveproxy[1545334]: worker exit
Jan 02 15:17:46 pve pveproxy[1046]: worker 1545334 finished
Jan 02 15:17:46 pve pveproxy[1046]: starting 1 worker(s)
Jan 02 15:17:46 pve pveproxy[1046]: worker 1571989 started
Jan 02 15:18:44 pve pveproxy[1550337]: proxy detected vanished client connection

Bonjour,

Comme on ne sait pas en quoi consistent les “quelques modifications”, difficile de deviner ce qui aurait pu provoquer le problème et de proposer une correction.

Dans l’immédiat, si tu souhaites redémarrer :

  • arrêter proprement les VMs et LXC auxquels tu as accès
  • redémarrer Proxmox en ssh : la commande sous root est “shutdown -r now”, si tu utilises un autre compte, la commande est “sudo shutdown -r now”

Tu peux aussi consulter les logs avant de redémarrer, la commande est “journalctl”, précédé de “sudo” si lancement depuis un compte non root

Et vérifier si le port 8006 est en écoute : “ss -an | grep ^tcp.*8006”

Mais, si ton accès SSH nécessite une authentification par clé, tu risques de ne pas pouvoir te connecter si tu n’as rien préparé à l’avance.

Dans le futur, je te conseille vivement d’étudier le mode CLI de Proxmox; ça peut aider parfois.

Merci pour ton retour rapide.

J’étais occupé à (tenter de) configurer Proxmox BS.
Je venais de créer un datastorage dans BS.
Ma VM Open Media Vault avait l’air de planter, j’ai simplement cliqué sur rebooter la VM (peut-être 2x par inadvertance).

Voici ce que donne l’écoute du port, plusieurs lignes de ce type :

tcp   CLOSE-WAIT 1514   0  [::ffff:192.168.1.220]:8006        [::ffff:192.168.1.200]:53910           
tcp   CLOSE-WAIT 1514   0  [::ffff:192.168.1.220]:8006        [::ffff:192.168.1.200]:42156           
tcp   ESTAB      1513   0  
tcp   CLOSE-WAIT 1514   0  [::ffff:192.168.1.220]:8006        [::ffff:192.168.1.200]:57496


Et voici ce que donne journalctl :

root@pve:~# journalctl
Jul 01 18:36:00 pve kernel: Linux version 6.8.12-9-pve (build@proxmox) (gcc (Debian 12.2.0-14) 12.2.0, GNU ld (GNU Binutils for Debian) 2.40) #1 SMP PREEMPT_DY>
Jul 01 18:36:00 pve kernel: Command line: BOOT_IMAGE=(lvm/pve-root)/boot/pve/vmlinuz ro ramdisk_size=16777216 root=/dev/mapper/pve-root
Jul 01 18:36:00 pve kernel: KERNEL supported cpus:
Jul 01 18:36:00 pve kernel:   Intel GenuineIntel
Jul 01 18:36:00 pve kernel:   AMD AuthenticAMD
Jul 01 18:36:00 pve kernel:   Hygon HygonGenuine
Jul 01 18:36:00 pve kernel:   Centaur CentaurHauls
Jul 01 18:36:00 pve kernel:   zhaoxin   Shanghai  
Jul 01 18:36:00 pve kernel: BIOS-provided physical RAM map:
Jul 01 18:36:00 pve kernel: BIOS-e820: [mem 0x0000000000000000-0x0000000000057fff] usable
Jul 01 18:36:00 pve kernel: BIOS-e820: [mem 0x0000000000058000-0x0000000000058fff] reserved
Jul 01 18:36:00 pve kernel: BIOS-e820: [mem 0x0000000000059000-0x000000000009dfff] usable
Jul 01 18:36:00 pve kernel: BIOS-e820: [mem 0x000000000009e000-0x00000000000fffff] reserved
Jul 01 18:36:00 pve kernel: BIOS-e820: [mem 0x0000000000100000-0x00000000b6b22fff] usable
Jul 01 18:36:00 pve kernel: BIOS-e820: [mem 0x00000000b6b23000-0x00000000b6b23fff] ACPI NVS
Jul 01 18:36:00 pve kernel: BIOS-e820: [mem 0x00000000b6b24000-0x00000000b6b6dfff] reserved
Jul 01 18:36:00 pve kernel: BIOS-e820: [mem 0x00000000b6b6e000-0x00000000bb5bdfff] usable
Jul 01 18:36:00 pve kernel: BIOS-e820: [mem 0x00000000bb5be000-0x00000000bc7f1fff] reserved
Jul 01 18:36:00 pve kernel: BIOS-e820: [mem 0x00000000bc7f2000-0x00000000bc8a2fff] ACPI data
Jul 01 18:36:00 pve kernel: BIOS-e820: [mem 0x00000000bc8a3000-0x00000000bcdd9fff] ACPI NVS
Jul 01 18:36:00 pve kernel: BIOS-e820: [mem 0x00000000bcdda000-0x00000000bd20efff] reserved
Jul 01 18:36:00 pve kernel: BIOS-e820: [mem 0x00000000bd20f000-0x00000000bd2fefff] type 20
Jul 01 18:36:00 pve kernel: BIOS-e820: [mem 0x00000000bd2ff000-0x00000000bd2fffff] usable
Jul 01 18:36:00 pve kernel: BIOS-e820: [mem 0x00000000bd300000-0x00000000bfffffff] reserved
Jul 01 18:36:00 pve kernel: BIOS-e820: [mem 0x00000000e0000000-0x00000000efffffff] reserved
Jul 01 18:36:00 pve kernel: BIOS-e820: [mem 0x00000000fe000000-0x00000000fe010fff] reserved
Jul 01 18:36:00 pve kernel: BIOS-e820: [mem 0x00000000fec00000-0x00000000fec00fff] reserved
Jul 01 18:36:00 pve kernel: BIOS-e820: [mem 0x00000000fee00000-0x00000000fee00fff] reserved
Jul 01 18:36:00 pve kernel: BIOS-e820: [mem 0x00000000ff000000-0x00000000ffffffff] reserved
Jul 01 18:36:00 pve kernel: BIOS-e820: [mem 0x0000000100000000-0x000000043dffffff] usable
Jul 01 18:36:00 pve kernel: NX (Execute Disable) protection: active
Jul 01 18:36:00 pve kernel: APIC: Static calls initialized
Jul 01 18:36:00 pve kernel: efi: EFI v2.4 by American Megatrends
Jul 01 18:36:00 pve kernel: efi: ESRT=0xbd154018 ACPI=0xbc815000 ACPI 2.0=0xbc815000 SMBIOS=0xbd150000 SMBIOS 3.0=0xbd14f000 MEMATTR=0xb98a1018 MOKvar=0xbd1580>
Jul 01 18:36:00 pve kernel: efi: Remove mem39: MMIO range=[0xe0000000-0xefffffff] (256MB) from e820 map
Jul 01 18:36:00 pve kernel: e820: remove [mem 0xe0000000-0xefffffff] reserved
Jul 01 18:36:00 pve kernel: efi: Not removing mem40: MMIO range=[0xfe000000-0xfe010fff] (68KB) from e820 map
Jul 01 18:36:00 pve kernel: efi: Not removing mem41: MMIO range=[0xfec00000-0xfec00fff] (4KB) from e820 map
Jul 01 18:36:00 pve kernel: efi: Not removing mem42: MMIO range=[0xfee00000-0xfee00fff] (4KB) from e820 map

Rien n’est à l’écoute sur ce port (aucune ligne à l’état LISTEN)

Pour vérifier :

systemctl status pveproxy

Pour relancer

systemctl start pveproxy

Si le service redémarre, tu peux vérifier s’il est à l’écoute

Sinon, tu peux essayer de redémarrer comme indiqué ci-dessus et, si le service pveproxy échoue à démarrer, voir les logs

systemctl –all

EDIT : je n’avais pas vu le journal dans ton message précédent.

La commande journalctl est très verbeuse. Il faut paginer. Si ta machine est à la bonne date, le journal commence en Juillet. Sinon, il te faudrait synchroniser sur un serveur de temps; ça aide quand on recherche dans les journaux.

EDIT 2

Pour filtrer le journal, par exemple pour restreindre aux évènements du jour :

journalctl –since today

La commande journalctl a pas mal de paramètres. Pour avoir la doc de la commande :

man journalctl

Alors, la suite…

Mon HA a complètement laché en plein backup (sauvegardes internes HA).
Il ne me restait plus qu’un container ou deux qui fonctionnaient.
Du coup et vu que je devais aller faire une course (et surtout que cela me passerait le temps sans trop stresser), j’ai redémarrer la machine. La cmd reboot ne fonctionnant pas en SSH, à l’arrache OFF > ON :frowning: et adevienne que pourra…
Surprise en revenant, tout refonctionne et est ok. Absolument tout d’ailleurs, y compris mon NAS OVM, la VM que j’avais tenté de rebooter. J’ai de nouveau accès à l’interface visuelle de Proxmox.

Reste à savoir d’où celà vient ?
« journalctl –since today » ne fonctionne pas en revanche…

Je déstresse déjà un peu mais l’impression d’avoir une épée de damoclès au-dessus de la tête, je vais vite mettre en place Proxmox BS.

Merci @Gilbert_VAISSIERE pour l’aide :pray:

Bizarre que l’affichage du journal du jour ne fonctionne pas. Tu as un message d’erreur ou aucun affichage ?

Si aucun affichage, peut-être un problème de mise à la date du serveur.

Tu as bien mis deux fois le signe - devant since ?

Tu peux aussi taper uniquement journalctl et paginer

Sur mon proxmox, en filtarnt les 5 dernières lignes :

root@pc-gv-37:~# journalctl --since today | tail -5
Jan 02 19:02:37 pc-gv-37 smartd[846]: Device: /dev/sda [SAT], SMART Usage Attribute: 194 Temperature_Celsius changed from 30 to 31
Jan 02 19:08:05 pc-gv-37 pvedaemon[2701460]: <root@pam> successful auth for user 'root@pam'
Jan 02 19:17:01 pc-gv-37 CRON[1614981]: pam_unix(cron:session): session opened for user root(uid=0) by root(uid=0)
Jan 02 19:17:01 pc-gv-37 CRON[1614983]: (root) CMD (cd / && run-parts --report /etc/cron.hourly)
Jan 02 19:17:01 pc-gv-37 CRON[1614981]: pam_unix(cron:session): session closed for user root

J’arrête de polluer ce fil puisque le sujet est résolu.

Celà fonctionne, j’avais effectivement mis un trait d’union de trop :frowning:
Peut-on filtrer par code erreur (lignes rouges) car même trié sur la journée, j’ai près de 1500 lignes…

Encore merci, je ne t’ennuie plus après.

journalctl -p 3 pour filtrer au niveau error

tu peux, aussi, par exemple, pour filtrer sur l’unit pveproxy au niveau 3 :

journalctl -u pveproxy -p 3

et, pour filtrer sur aujourd’hui, tu ajoutes le filtre –since today

Les possibilités de filtrage sont très riches; combinées avec grep, tu peux extraire ce que tu veux

En voulant faire une sauvegarde container par container, je viens de recréer le problème et j’ai du de nouveau rebooter au mini PC.
J’avais auparavant dans la journée ajouté des stockages en NFS sur PVE.
Celà pourrait-il venir de là ?
Je les avais créé pour pouvoir y envoyer mes backups n’ayant pas 2 disques en local sur le mini PC.
Toujours est-il que je viens de les supprimer ainsi que le stockage créé par PBS.
Je n’ai plus que local et local-lvm.

Pour les journaux :

root@pve:~# journalctl -p 3 --since today
Jan 02 12:48:19 pve pveproxy[1492867]: got inotify poll request in wrong process - disabling inotify
Jan 02 15:22:11 pve kernel: INFO: task mkfs.ext4:1572335 blocked for more than 122 seconds.
Jan 02 15:22:11 pve kernel:       Tainted: P           O       6.8.12-9-pve #1
Jan 02 15:22:11 pve kernel: "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message.
Jan 02 15:24:14 pve kernel: INFO: task ksmd:72 blocked for more than 122 seconds.
Jan 02 15:24:14 pve kernel:       Tainted: P           O       6.8.12-9-pve #1
Jan 02 15:24:14 pve kernel: "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message.
Jan 02 15:24:14 pve kernel: INFO: task khugepaged:73 blocked for more than 122 seconds.
Jan 02 15:24:14 pve kernel:       Tainted: P           O       6.8.12-9-pve #1
Jan 02 15:24:14 pve kernel: "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message.
Jan 02 15:24:14 pve kernel: INFO: task mkfs.ext4:1572335 blocked for more than 245 seconds.
Jan 02 15:24:14 pve kernel:       Tainted: P           O       6.8.12-9-pve #1
Jan 02 15:24:14 pve kernel: "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message.
Jan 02 15:26:17 pve kernel: INFO: task ksmd:72 blocked for more than 245 seconds.
Jan 02 15:26:17 pve kernel:       Tainted: P           O       6.8.12-9-pve #1
Jan 02 15:26:17 pve kernel: "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message.
Jan 02 15:26:17 pve kernel: INFO: task khugepaged:73 blocked for more than 245 seconds.
Jan 02 15:26:17 pve kernel:       Tainted: P           O       6.8.12-9-pve #1
Jan 02 15:26:17 pve kernel: "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message.
Jan 02 15:26:17 pve kernel: INFO: task mkfs.ext4:1572335 blocked for more than 368 seconds.
Jan 02 15:26:17 pve kernel:       Tainted: P           O       6.8.12-9-pve #1
Jan 02 15:26:17 pve kernel: "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message.
Jan 02 15:28:20 pve kernel: INFO: task ksmd:72 blocked for more than 368 seconds.
Jan 02 15:28:20 pve kernel:       Tainted: P           O       6.8.12-9-pve #1
Jan 02 15:28:20 pve kernel: "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message.
Jan 02 15:28:20 pve kernel: INFO: task khugepaged:73 blocked for more than 368 seconds.
Jan 02 15:28:20 pve kernel:       Tainted: P           O       6.8.12-9-pve #1
Jan 02 15:28:20 pve kernel: "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message.
Jan 02 15:28:20 pve kernel: INFO: task mkfs.ext4:1572335 blocked for more than 491 seconds.
Jan 02 15:28:20 pve kernel:       Tainted: P           O       6.8.12-9-pve #1
Jan 02 15:28:20 pve kernel: "echo 0 > /proc/sys/kernel/hung_task_timeout_secs" disables this message.
Jan 02 16:48:10 pve proxmox-backup-api[1484262]: failed to gather smart data for /dev/sdb – command "smartctl" "-H" "-A" "-j" "/dev>
-- Boot 2546951c29f0429d88a5ccf890cbdf77 --
Jan 02 16:55:27 pve kernel: x86/cpu: SGX disabled by BIOS.
Jan 02 17:01:06 pve kernel: Memory cgroup out of memory: Killed process 4912 (frigate.embeddi) total-vm:5517232kB, anon-rss:1487192>
Jan 02 19:49:16 pve pvestatd[1173]: VM 106 qmp command failed - VM 106 qmp command 'query-proxmox-support' failed - got timeout
Jan 02 19:49:44 pve pvestatd[1173]: VM 106 qmp command failed - VM 106 qmp command 'query-proxmox-support' failed - unable to conne>
Jan 02 19:50:09 pve pvestatd[1173]: VM 106 qmp command failed - VM 106 qmp command 'query-proxmox-support' failed - unable to conne>
Jan 02 19:50:30 pve pvestatd[1173]: VM 106 qmp command failed - VM 106 qmp command 'query-proxmox-support' failed - unable to conne>
Jan 02 19:50:49 pve pvestatd[1173]: VM 106 qmp command failed - VM 106 qmp command 'query-proxmox-support' failed - unable to conne>
Jan 02 19:51:09 pve pvestatd[1173]: VM 106 qmp command failed - VM 106 qmp command 'query-proxmox-support' failed - unable to conne>
Jan 02 19:51:30 pve pvestatd[1173]: VM 106 qmp command failed - VM 106 qmp command 'query-proxmox-support' failed - unable to conne>
Jan 02 19:51:51 pve pvestatd[1173]: VM 106 qmp command failed - VM 106 qmp command 'query-proxmox-support' failed - unable to conne>
Jan 02 19:52:00 pve pvedaemon[1189]: authentication failure; rhost=::ffff:192.168.1.53 user=root@pam msg=Authentication failure
Jan 02 19:52:12 pve pvestatd[1173]: VM 106 qmp command failed - VM 106 qmp command 'query-proxmox-support' failed - unable to conne>
Jan 02 19:52:20 pve pvedaemon[1189]: authentication failure; rhost=::ffff:192.168.1.53 user=root@pam msg=Authentication failure
-- Boot a2c3e9e3024f479ca77091bef046dc83 --
Jan 02 19:56:21 pve kernel: x86/cpu: SGX disabled by BIOS.
Jan 02 20:00:47 pve pvedaemon[1186]: authentication failure; rhost=::ffff:192.168.1.53 user=root@pam msg=Authentication failure
Jan 02 20:02:06 pve kernel: Memory cgroup out of memory: Killed process 4284 (.trace) total-vm:2437616kB, anon-rss:1915532kB, file->
Jan 02 20:04:05 pve proxmox-backup-api[833]: authentication failure; rhost=[::ffff:192.168.1.252]:55792 user=root@pam@pbs msg=user >
Jan 02 20:04:16 pve proxmox-backup-api[833]: authentication failure; rhost=[::ffff:192.168.1.252]:57908 user=root@pbs msg=user acco>
Jan 02 20:04:47 pve kernel: Memory cgroup out of memory: Killed process 5008 (frigate.embeddi) total-vm:5518244kB, anon-rss:1177864>

root@pve:~# journalctl -u pveproxy -p 3 --since today
Jan 02 12:48:19 pve pveproxy[1492867]: got inotify poll request in wrong process - disabling inotify

Ma VM 106 est mon NAS (Open Media Vault).

Sans certitude que ce soit la cause du blocage : “Memory cgroup out of memory” … apparemment concerne une VM Frigate.

Si tu peux ne pas démarrer cette VM et vérifier si le problème persiste.

Il y a aussi des ‘authentication failure” concernant le backup, je suppose vers un stockage réseau. Vérifie la configuration.

Je ne vais pas pouvoir t’aider sur ce dernier sujet. Avec les logs, regarde si tu trouves des informations sur le support proxmox, ou sur un forum plus spécialisé, si personne ne prend le relais ici.

Ce que tu peux faire pour vérifier le journal au fur et à mesure des actions, en CLI :

journalctl -f

Les évènements s’affichent en continu au fil de l’eau, donc tu lances une action et tu regardes ce qui bouge dans le journal.

Merci bcp @Gilbert_VAISSIERE :slight_smile: :pray:

Ce sujet a été automatiquement fermé après 2 jours. Aucune réponse n’est permise dorénavant.