#26 Le 17/07/2017, à 15:25
- malbo
Re : Rolling HWE Stacks pour 16.04
Effectivement, je n'ai pas trouvé l'existence d'un paquet xserver-xorg-hwe-16.04-edge dans synaptic. Du coup, je me suis contenté d'installer xserver-xorg-hwe-16.04 (dans la commande du post #22). Mais je suis d'accord avec toi freechelmi, ça semblerait logique qu'il y ait un paquet xserver-xorg-hwe-16.04-edge...
Hors ligne
#27 Le 26/07/2017, à 09:09
- malbo
Re : Rolling HWE Stacks pour 16.04
On commence à voir à quoi ça ressemble la rolling : je viens d'installer ce matin une Lubuntu 16.04.2 64 bits dans une machine virtuelle VMware.
Voici le rapport Bisnext de cette install :
Posting 978203 from bn-72854 posted at 2017-07-26 08:05:43 expires: 2017-08-25 08:05:43
Jul 26, 2017, bisnext report id 72854
=== Hints ===
None
bisnext 0.1
============================ Hardware and System Summary ======================
System: Kernel: 4.10.0-27-generic x86_64 (64 bit gcc: 5.4.0)
Desktop: LXDE (Openbox 3.6.1) dm: lightdm
Distro: Ubuntu 16.04.2 LTS
Machine: Device: vmware System: VMware product: VMware7 1
Mobo: Intel model: 440BX Desktop Reference Platform
UEFI: VMware v: VMW71.00V.0.B64.1507021939 date: 07/02/2015
Chassis: No Enclosure type: 1
CPU: Single core Intel Core i7 860 (-UP-) cache: 8192 KB
flags: (lm nx sse sse2 sse3 sse4_1 sse4_2 ssse3) bmips: 5585 speed: 2792 MHz (max)
Memory: Array-1 capacity: 3 GB devices: 64 EC: None
Device-1: Slot0 size: 1 GB speed: N/A type: DRAM
manufacturer: VMware Virtual RAM part: VMW-1024MB
Device-2: Slot1 size: No Module Installed type: N/A
Device-3: Slot2 size: No Module Installed type: N/A
Device-4: Slot3 size: No Module Installed type: N/A
Device-5: Slot4 size: No Module Installed type: N/A
Device-6: Slot5 size: No Module Installed type: N/A
Device-7: Slot6 size: No Module Installed type: N/A
Device-8: Slot7 size: No Module Installed type: N/A
Device-9: Slot8 size: No Module Installed type: N/A
Device-10: Slot9 size: No Module Installed type: N/A
Device-11: Slot10 size: No Module Installed type: N/A
Device-12: Slot11 size: No Module Installed type: N/A
Device-13: Slot12 size: No Module Installed type: N/A
Device-14: Slot13 size: No Module Installed type: N/A
Device-15: Slot14 size: No Module Installed type: N/A
Device-16: Slot15 size: No Module Installed type: N/A
Device-17: Slot16 size: No Module Installed type: N/A
Device-18: Slot17 size: No Module Installed type: N/A
Device-19: Slot18 size: No Module Installed type: N/A
Device-20: Slot19 size: No Module Installed type: N/A
Device-21: Slot20 size: No Module Installed type: N/A
Device-22: Slot21 size: No Module Installed type: N/A
Device-23: Slot22 size: No Module Installed type: N/A
Device-24: Slot23 size: No Module Installed type: N/A
Device-25: Slot24 size: No Module Installed type: N/A
Device-26: Slot25 size: No Module Installed type: N/A
Device-27: Slot26 size: No Module Installed type: N/A
Device-28: Slot27 size: No Module Installed type: N/A
Device-29: Slot28 size: No Module Installed type: N/A
Device-30: Slot29 size: No Module Installed type: N/A
Device-31: Slot30 size: No Module Installed type: N/A
Device-32: Slot31 size: No Module Installed type: N/A
Device-33: Slot32 size: No Module Installed type: N/A
Device-34: Slot33 size: No Module Installed type: N/A
Device-35: Slot34 size: No Module Installed type: N/A
Device-36: Slot35 size: No Module Installed type: N/A
Device-37: Slot36 size: No Module Installed type: N/A
Device-38: Slot37 size: No Module Installed type: N/A
Device-39: Slot38 size: No Module Installed type: N/A
Device-40: Slot39 size: No Module Installed type: N/A
Device-41: Slot40 size: No Module Installed type: N/A
Device-42: Slot41 size: No Module Installed type: N/A
Device-43: Slot42 size: No Module Installed type: N/A
Device-44: Slot43 size: No Module Installed type: N/A
Device-45: Slot44 size: No Module Installed type: N/A
Device-46: Slot45 size: No Module Installed type: N/A
Device-47: Slot46 size: No Module Installed type: N/A
Device-48: Slot47 size: No Module Installed type: N/A
Device-49: Slot48 size: No Module Installed type: N/A
Device-50: Slot49 size: No Module Installed type: N/A
Device-51: Slot50 size: No Module Installed type: N/A
Device-52: Slot51 size: No Module Installed type: N/A
Device-53: Slot52 size: No Module Installed type: N/A
Device-54: Slot53 size: No Module Installed type: N/A
Device-55: Slot54 size: No Module Installed type: N/A
Device-56: Slot55 size: No Module Installed type: N/A
Device-57: Slot56 size: No Module Installed type: N/A
Device-58: Slot57 size: No Module Installed type: N/A
Device-59: Slot58 size: No Module Installed type: N/A
Device-60: Slot59 size: No Module Installed type: N/A
Device-61: Slot60 size: No Module Installed type: N/A
Device-62: Slot61 size: No Module Installed type: N/A
Device-63: Slot62 size: No Module Installed type: N/A
Device-64: Slot63 size: No Module Installed type: N/A
Device-65: NVD slot #0 size: No Module Installed type: N/A
Device-66: NVD slot #1 size: No Module Installed type: N/A
Device-67: NVD slot #2 size: No Module Installed type: N/A
Device-68: NVD slot #3 size: No Module Installed type: N/A
Device-69: NVD slot #4 size: No Module Installed type: N/A
Device-70: NVD slot #5 size: No Module Installed type: N/A
Device-71: NVD slot #6 size: No Module Installed type: N/A
Device-72: NVD slot #7 size: No Module Installed type: N/A
Device-73: NVD slot #8 size: No Module Installed type: N/A
Device-74: NVD slot #9 size: No Module Installed type: N/A
Device-75: NVD slot #10 size: No Module Installed type: N/A
Device-76: NVD slot #11 size: No Module Installed type: N/A
Device-77: NVD slot #12 size: No Module Installed type: N/A
Device-78: NVD slot #13 size: No Module Installed type: N/A
Device-79: NVD slot #14 size: No Module Installed type: N/A
Device-80: NVD slot #15 size: No Module Installed type: N/A
Device-81: NVD slot #16 size: No Module Installed type: N/A
Device-82: NVD slot #17 size: No Module Installed type: N/A
Device-83: NVD slot #18 size: No Module Installed type: N/A
Device-84: NVD slot #19 size: No Module Installed type: N/A
Device-85: NVD slot #20 size: No Module Installed type: N/A
Device-86: NVD slot #21 size: No Module Installed type: N/A
Device-87: NVD slot #22 size: No Module Installed type: N/A
Device-88: NVD slot #23 size: No Module Installed type: N/A
Device-89: NVD slot #24 size: No Module Installed type: N/A
Device-90: NVD slot #25 size: No Module Installed type: N/A
Device-91: NVD slot #26 size: No Module Installed type: N/A
Device-92: NVD slot #27 size: No Module Installed type: N/A
Device-93: NVD slot #28 size: No Module Installed type: N/A
Device-94: NVD slot #29 size: No Module Installed type: N/A
Device-95: NVD slot #30 size: No Module Installed type: N/A
Device-96: NVD slot #31 size: No Module Installed type: N/A
Device-97: NVD slot #32 size: No Module Installed type: N/A
Device-98: NVD slot #33 size: No Module Installed type: N/A
Device-99: NVD slot #34 size: No Module Installed type: N/A
Device-100: NVD slot #35 size: No Module Installed type: N/A
Device-101: NVD slot #36 size: No Module Installed type: N/A
Graphics: Card: VMware SVGA II Adapter bus-ID: 00:0f.0 chip-ID: 15ad:0405
Display Server: X.Org 1.18.4 drivers: vmware (unloaded: modesetting,fbdev,vesa)
Resolution: 1024x768@60.00hz
OpenGL: renderer: Gallium 0.4 on llvmpipe (LLVM 3.8, 128 bits)
version: 3.3 Mesa 12.0.6 (compat-v: 3.0) Direct Render: Yes
Audio: Card Ensoniq ES1371 / Creative Labs CT2518/ES1373
driver: snd_ens1371 port: 1000 bus-ID: 02:02.0 chip-ID: 1274:1371
Sound: Advanced Linux Sound Architecture v: k4.10.0-27-generic
Network: Card: Intel 82545EM Gigabit Ethernet Controller (Copper)
driver: e1000 v: 7.3.21-k8-NAPI port: 1040
bus-ID: 02:01.0 chip-ID: 8086:100f
IF: ens33 state: up speed: 1000 Mbps duplex: full mac: <filter>
Drives: HDD Total Size: 53.7GB (8.1% used)
ID-1: /dev/sda model: VMware_Virtual_S size: 53.7GB
Optical-1: /dev/sr0 model: N/A rev: N/A dev-links: cdrom,cdrw,dvd
Features: speed: 1x multisession: yes
audio: yes dvd: yes rw: cd-r,cd-rw,dvd-r,dvd-ram state: N/A
Partition: ID-1: / size: 48G used: 3.1G (7%) fs: ext4 dev: /dev/sda2
label: N/A uuid: 22bb7d59-faaa-49db-9e30-b544d9c6bebe
ID-2: swap-1 size: 1.10GB used: 0.00GB (0%) fs: swap dev: /dev/sda3
label: N/A uuid: c4c7fe8f-57cf-44e6-abc1-1fb1953d0c4d
RAID: System: supported: N/A
No RAID devices: /proc/mdstat, md_mod kernel module present
Unused Devices: none
Sensors: None detected - is lm-sensors installed and configured?
Repos: Active apt sources in file: /etc/apt/sources.list
deb http://fr.archive.ubuntu.com/ubuntu/ xenial main restricted
deb http://fr.archive.ubuntu.com/ubuntu/ xenial-updates main restricted
deb http://fr.archive.ubuntu.com/ubuntu/ xenial universe
deb http://fr.archive.ubuntu.com/ubuntu/ xenial-updates universe
deb http://fr.archive.ubuntu.com/ubuntu/ xenial multiverse
deb http://fr.archive.ubuntu.com/ubuntu/ xenial-updates multiverse
deb http://fr.archive.ubuntu.com/ubuntu/ xenial-backports main restricted universe multiverse
deb http://security.ubuntu.com/ubuntu xenial-security main restricted
deb http://security.ubuntu.com/ubuntu xenial-security universe
deb http://security.ubuntu.com/ubuntu xenial-security multiverse
Processes: CPU: % used - Memory: MB / % used - top 5 active
1: cpu: 1.2% command: sudo pid: 3308 mem: 3.83MB (0.3%)
2: cpu: 0.5% command: bash pid: 3309 mem: 4.16MB (0.4%)
3: cpu: 0.0% command: sed pid: 3377 mem: 0.98MB (0.1%)
4: cpu: 0.0% command: sed pid: 3376 mem: 1.07MB (0.1%)
5: cpu: 0.0% command: bash pid: 3374 mem: 2.98MB (0.3%)
Info: Processes: 178 Uptime: 1:19 Memory: 274.6/971.1MB
Init: systemd v: 229 runlevel: 5 Gcc sys: N/A
Client: Shell (bash 4.3.481 running in bash) inxi: 2.3.25
_______________________________ UEFI settings _________________________________
Computer booted in UEFI mode for this session.
BootCurrent: 0004
BootOrder: 0004,0001,0000,0002,0003
Boot0000* EFI VMware Virtual SCSI Hard Drive (0.0) PciRoot(0x0)/Pci(0x10,0x0)/SCSI(0,0)
Boot0001* EFI VMware Virtual SATA CDROM Drive (1.0) PciRoot(0x0)/Pci(0x11,0x0)/Pci(0x5,0x0)/Sata(1,0,0)
Boot0002* EFI Network PciRoot(0x0)/Pci(0x11,0x0)/Pci(0x1,0x0)/MAC(000c29b3dee7,0)
Boot0003* EFI Internal Shell (Unsupported option) MemoryMapped(11,0xe1a3000,0xe42ffff)/FvFile(c57ad6b7-0515-40a8-9d21-551652854e37)
Boot0004* ubuntu HD(1,GPT,34276d01-f70c-45ed-80a7-d190d8d8ceb3,0x800,0x100000)/File(\EFI\ubuntu\shimx64.efi)
vfat partition details:
/dev/sda1: UUID="A662-2D92" TYPE="vfat" PARTLABEL="EFI System Partition" PARTUUID="34276d01-f70c-45ed-80a7-d190d8d8ceb3"
Secure Boot disabled or not available on this system.
EFI files in /dev/sda1:
0f08ecaaa01879b16987aeafd1fe20cc /EFI/BOOT/ubuntu/fwupx64.efi
0f658112c2a24edaa1e1648ec88c97e7 /EFI/BOOT/bootx64.efi
0f658112c2a24edaa1e1648ec88c97e7 /EFI/BOOT/ubuntu/grubx64.efi
11e8569e8661e65bb7f6460a41a3b8a2 /EFI/ubuntu/grubx64.efi
3aef9c72ad50faa8db576c01f85a0915 /EFI/ubuntu/shimx64.efi
bf39cf9416a9403d40a9b69541486e74 /EFI/ubuntu/mmx64.efi
dc545695bafcf71c86ad9a69947e3adf /EFI/ubuntu/fwupx64.efi
__________________________________ OS prober ________________________________
None
========================= Boot Information Details ============================
=> No boot loader is installed in the MBR of /dev/sda.
sda1: __________________________________________________________________________
File system: vfat
Boot sector type: FAT32
Boot sector info:
Operating System:
Boot files: /EFI/ubuntu/grub.cfg /EFI/ubuntu/fwupx64.efi
/EFI/ubuntu/grubx64.efi /EFI/ubuntu/shimx64.efi
/EFI/ubuntu/mmx64.efi /EFI/BOOT/bootx64.efi
/EFI/BOOT/ubuntu/grubx64.efi
/EFI/BOOT/ubuntu/fwupx64.efi
sda2: __________________________________________________________________________
File system: ext4
Boot sector type:
Boot sector info:
Operating System: Ubuntu 16.04.2 LTS
Boot files: /boot/grub/grub.cfg /etc/fstab /etc/default/grub
_________________________=== Drive/Partition Info ===__________________________
Drive: sda _____________________________________________________________________
Disk /dev/sda: 50 GiB, 53687091200 bytes, 104857600 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt
Partition Boot Start Sector End Sector # of Sectors Id System
/dev/sda1 1 104,857,599 104,857,599 ee GPT
GUID Partition Table detected.
Partition Attrs Start Sector End Sector # of Sectors System
/dev/sda1 2,048 1,050,623 1,048,576 EFI System partition
/dev/sda2 1,050,624 102,706,873 101,656,250 Data partition (Linux)
/dev/sda3 102,707,200 104,855,551 2,148,352 Swap partition (Linux)
Attributes: R=Required, N=No Block IO, B=Legacy BIOS Bootable, +=More bits set
"blkid" output: ________________________________________________________________
Device UUID TYPE LABEL
/dev/sda1 A662-2D92 vfat
/dev/sda2 22bb7d59-faaa-49db-9e30-b544d9c6bebe ext4
/dev/sda3 c4c7fe8f-57cf-44e6-abc1-1fb1953d0c4d swap
____________________ "ls -l /dev/disk/by-id" output (filtered) ______________________
total 0
lrwxrwxrwx 1 root root 9 Jul 26 08:45 ata-VMware_Virtual_SATA_CDRW_Drive_01000000000000000001 -> ../../sr0
_________________________ "ls -R /dev/mapper/" output _________________________
None
_________________________=== Boot Files Contents ===___________________________
__________________________ sda1/EFI/ubuntu/grub.cfg: ___________________________
search.fs_uuid 22bb7d59-faaa-49db-9e30-b544d9c6bebe root hd0,gpt2
set prefix=($root)'/boot/grub'
configfile $prefix/grub.cfg
___________________________ sda2/boot/grub/grub.cfg: ___________________________
File size: 8391, Line count: 252, Menu entries (sub entries included) : 5
#
# DO NOT EDIT THIS FILE
#
# It is automatically generated by grub-mkconfig using templates
# from /etc/grub.d and settings from /etc/default/grub
#
### BEGIN /etc/grub.d/10_linux ###
--- Notice bisnext removed top of file contents from the report for readability
menuentry 'Ubuntu' --class ubuntu --class gnu-linux --class gnu --class os $menuentry_id_option 'gnulinux-simple-22bb7d59-faaa-49db-9e30-b544d9c6bebe' {
recordfail
load_video
gfxmode $linux_gfx_mode
insmod gzio
if [ x$grub_platform = xxen ]; then insmod xzio; insmod lzopio; fi
insmod part_gpt
insmod ext2
set root='hd0,gpt2'
if [ x$feature_platform_search_hint = xy ]; then
search --no-floppy --fs-uuid --set=root --hint-bios=hd0,gpt2 --hint-efi=hd0,gpt2 --hint-baremetal=ahci0,gpt2 22bb7d59-faaa-49db-9e30-b544d9c6bebe
else
search --no-floppy --fs-uuid --set=root 22bb7d59-faaa-49db-9e30-b544d9c6bebe
fi
linux /boot/vmlinuz-4.10.0-27-generic.efi.signed root=UUID=22bb7d59-faaa-49db-9e30-b544d9c6bebe ro quiet splash $vt_handoff
initrd /boot/initrd.img-4.10.0-27-generic
}
--- Notice bisnext removed the submenu section from the report for readability
### END /etc/grub.d/10_linux ###
### BEGIN /etc/grub.d/20_linux_xen ###
### END /etc/grub.d/20_linux_xen ###
### BEGIN /etc/grub.d/20_memtest86+ ###
### END /etc/grub.d/20_memtest86+ ###
### BEGIN /etc/grub.d/30_os-prober ###
### END /etc/grub.d/30_os-prober ###
### BEGIN /etc/grub.d/30_uefi-firmware ###
### END /etc/grub.d/30_uefi-firmware ###
### BEGIN /etc/grub.d/40_custom ###
# This file provides an easy way to add custom menu entries. Simply type the
# menu entries you want to add after this comment. Be careful not to change
# the 'exec tail' line above.
### END /etc/grub.d/40_custom ###
### BEGIN /etc/grub.d/41_custom ###
if [ -f ${config_directory}/custom.cfg ]; then
source ${config_directory}/custom.cfg
elif [ -z "${config_directory}" -a -f $prefix/custom.cfg ]; then
source $prefix/custom.cfg;
fi
### END /etc/grub.d/41_custom ###
__________________________ sda2/etc/fstab, UEFI mode: __________________________
UUID=22bb7d59-faaa-49db-9e30-b544d9c6bebe / ext4 errors=remount-ro 0 1
UUID=A662-2D92 /boot/efi vfat umask=0077 0 1
UUID=c4c7fe8f-57cf-44e6-abc1-1fb1953d0c4d none swap sw 0 0
____________________________ sda2/etc/default/grub: ____________________________
GRUB_DEFAULT=0
GRUB_HIDDEN_TIMEOUT=0
GRUB_HIDDEN_TIMEOUT_QUIET=true
GRUB_TIMEOUT=10
GRUB_DISTRIBUTOR=`lsb_release -i -s 2> /dev/null || echo Debian`
GRUB_CMDLINE_LINUX_DEFAULT="quiet splash"
GRUB_CMDLINE_LINUX=""
===============================================================================
Running System
===============================================================================
______________________________ Kernel parameters ______________________________
BOOT_IMAGE=/boot/vmlinuz-4.10.0-27-generic.efi.signed root=UUID=22bb7d59-faaa-49db-9e30-b544d9c6bebe ro quiet splash vt.handoff=7
______________________________ Boot-up Statistics ______________________________
Startup finished in 5.126s (kernel) + 19.160s (userspace) = 24.287s
blame, first 5:
NetworkManager-wait-online.service 6.516s
apparmor.service 4.619s
grub-common.service 3.455s
dev-sda2.device 3.097s
gpu-manager.service 2.700s
_________________________ RAM usage & Free disk space _________________________
total used free shared buff/cache available
Mem: 971M 222M 433M 7.7M 314M 574M
Swap: 1.0G 0B 1.0G
Swappiness = 60
Filesystem Mounted on Type Size Used Avail Use% IUse%
/dev/sda1 /boot/efi vfat 511M 3.9M 508M 1% -
/dev/sda2 / ext4 48G 3.1G 43G 7% 5%
Swap partition for hibernation : UUID=c4c7fe8f-57cf-44e6-abc1-1fb1953d0c4d
_______________________________ Wireless Status _______________________________
None
_______________________________ Modules Loaded _______________________________
Excerpt:
______________________________ Additional Drivers _____________________________
== cpu-microcode.py ==
driver : intel-microcode - distro non-free
_____________________________ Upgradable Packages _____________________________
None
________________________ Package Configuration Pending ________________________
None
__________________________ Package Installation Pending _______________________
Reading package lists...
Building dependency tree...
Reading state information...
The following package was automatically installed and is no longer required:
libmircommon5
Use 'sudo apt autoremove' to remove it.
0 upgraded, 0 newly installed, 0 to remove and 0 not upgraded.
_________________________ Kernel Packages Installed __________________________
Package Version Status
linux-generic-hwe-16.04 4.10.0.27.30 [installed]
linux-headers-4.10.0-27 4.10.0-27.30~16.04.2 [installed,automatic]
linux-headers-4.10.0-27-generic 4.10.0-27.30~16.04.2 [installed,automatic]
linux-headers-4.8.0-36 4.8.0-36.36~16.04.1 [installed,automatic]
linux-headers-4.8.0-36-generic 4.8.0-36.36~16.04.1 [installed,automatic]
linux-headers-generic-hwe-16.04 4.10.0.27.30 [installed,automatic]
linux-image-4.10.0-27-generic 4.10.0-27.30~16.04.2 [installed,automatic]
linux-image-4.8.0-36-generic 4.8.0-36.36~16.04.1 [installed,automatic]
linux-image-extra-4.10.0-27-generic 4.10.0-27.30~16.04.2 [installed,automatic]
linux-image-extra-4.8.0-36-generic 4.8.0-36.36~16.04.1 [installed,automatic]
linux-image-generic-hwe-16.04 4.10.0.27.30 [installed,automatic]
linux-signed-generic-hwe-16.04 4.10.0.27.30 [installed]
linux-signed-image-4.10.0-27-generic 4.10.0-27.30~16.04.2 [installed,automatic]
linux-signed-image-4.8.0-36-generic 4.8.0-36.36~16.04.1 [installed,automatic]
linux-signed-image-generic-hwe-16.04 4.10.0.27.30 [installed,automatic]
_________________________________ System Logs ________________________________
Failed services:
UNIT LOAD ACTIVE SUB DESCRIPTION
● smartd.service loaded failed failed Self Monitoring and Reporting Technology (SMART) Daemon
LOAD = Reflects whether the unit definition was properly loaded.
ACTIVE = The high-level unit activation state, i.e. generalization of SUB.
SUB = The low-level unit activation state, values depend on unit type.
1 loaded units listed. Pass --all to see loaded but inactive units, too.
To show all installed unit files use 'systemctl list-unit-files'.
Selection of relevent log entries:
[ 0.048458] Calibrating delay loop (skipped) preset value.. 5585.99 BogoMIPS (lpj=11171996)
[ 0.135985] ACPI: [Firmware Bug]: BIOS _OSI(Linux) query ignored
[ 0.151815] PCI: Using host bridge windows from ACPI; if necessary, use "pci=nocrs" and report a bug
[ 0.382145] pci 0000:00:16.3: BAR 13: failed to assign [io size 0x1000]
[ 0.382147] pci 0000:00:16.4: BAR 13: failed to assign [io size 0x1000]
[ 0.382149] pci 0000:00:16.5: BAR 13: failed to assign [io size 0x1000]
[ 0.382152] pci 0000:00:16.6: BAR 13: failed to assign [io size 0x1000]
[ 0.382154] pci 0000:00:16.7: BAR 13: failed to assign [io size 0x1000]
[ 0.382156] pci 0000:00:17.0: BAR 13: failed to assign [io size 0x1000]
[ 0.382158] pci 0000:00:17.1: BAR 13: failed to assign [io size 0x1000]
[ 0.382160] pci 0000:00:17.2: BAR 13: failed to assign [io size 0x1000]
[ 0.382162] pci 0000:00:17.3: BAR 13: failed to assign [io size 0x1000]
[ 0.382164] pci 0000:00:17.4: BAR 13: failed to assign [io size 0x1000]
[ 0.382166] pci 0000:00:17.5: BAR 13: failed to assign [io size 0x1000]
[ 0.382168] pci 0000:00:17.6: BAR 13: failed to assign [io size 0x1000]
[ 0.382170] pci 0000:00:17.7: BAR 13: failed to assign [io size 0x1000]
[ 0.382173] pci 0000:00:18.0: BAR 13: failed to assign [io size 0x1000]
[ 0.382175] pci 0000:00:18.1: BAR 13: failed to assign [io size 0x1000]
[ 0.382177] pci 0000:00:18.2: BAR 13: failed to assign [io size 0x1000]
[ 0.382179] pci 0000:00:18.3: BAR 13: failed to assign [io size 0x1000]
[ 0.382181] pci 0000:00:18.4: BAR 13: failed to assign [io size 0x1000]
[ 0.382183] pci 0000:00:18.5: BAR 13: failed to assign [io size 0x1000]
[ 0.382185] pci 0000:00:18.6: BAR 13: failed to assign [io size 0x1000]
[ 0.382187] pci 0000:00:18.7: BAR 13: failed to assign [io size 0x1000]
[ 0.382213] pci 0000:00:17.4: BAR 13: failed to assign [io size 0x1000]
[ 0.382215] pci 0000:00:17.3: BAR 13: failed to assign [io size 0x1000]
[ 0.382217] pci 0000:00:17.2: BAR 13: failed to assign [io size 0x1000]
[ 0.382219] pci 0000:00:17.1: BAR 13: failed to assign [io size 0x1000]
[ 0.382241] pci 0000:00:17.0: BAR 13: failed to assign [io size 0x1000]
[ 0.382244] pci 0000:00:16.7: BAR 13: failed to assign [io size 0x1000]
[ 0.382246] pci 0000:00:16.6: BAR 13: failed to assign [io size 0x1000]
[ 0.382248] pci 0000:00:16.5: BAR 13: failed to assign [io size 0x1000]
[ 0.382250] pci 0000:00:16.4: BAR 13: failed to assign [io size 0x1000]
[ 0.382252] pci 0000:00:16.3: BAR 13: failed to assign [io size 0x1000]
[ 0.382255] pci 0000:00:16.2: BAR 13: failed to assign [io size 0x1000]
[ 0.382257] pci 0000:00:16.1: BAR 13: failed to assign [io size 0x1000]
[ 0.382259] pci 0000:00:16.0: BAR 13: failed to assign [io size 0x1000]
[ 0.382261] pci 0000:00:15.7: BAR 13: failed to assign [io size 0x1000]
[ 0.382263] pci 0000:00:15.6: BAR 13: failed to assign [io size 0x1000]
[ 0.382268] pci 0000:00:15.5: BAR 13: failed to assign [io size 0x1000]
[ 0.382271] pci 0000:00:15.4: BAR 13: failed to assign [io size 0x1000]
[ 0.382273] pci 0000:00:15.3: BAR 13: failed to assign [io size 0x1000]
[ 0.382275] pci 0000:00:15.2: BAR 13: failed to assign [io size 0x1000]
[ 0.382277] pci 0000:00:15.1: BAR 13: failed to assign [io size 0x1000]
[ 0.382279] pci 0000:00:15.0: BAR 13: failed to assign [io size 0x1000]
[ 1.988994] [drm] It appears like vesafb is loaded. Ignore above error if any.
[ 7.441139] EXT4-fs (sda2): re-mounted. Opts: errors=remount-ro
_____________________________________ Xorg ____________________________________
Partial log entries:
(WW) warning, (EE) error, (NI) not implemented, (??) unknown.
[ 18.816] (--) PCI:*(0:0:15:0) 15ad:0405:15ad:0405 rev 0, Mem @ 0xf0000000/134217728, 0xfb800000/8388608, I/O @ 0x00002140/16, BIOS @ 0x????????/131072
[ 20.172] (EE) AIGLX: reverting to software rendering
2017-07-26, GPU Manager logs:
log_file: /var/log/gpu-manager.log
last_boot_file: /var/lib/ubuntu-drivers-common/last_gfx_boot
new_boot_file: /var/lib/ubuntu-drivers-common/last_gfx_boot
can't access /run/u-d-c-nvidia-was-loaded file
can't access /run/u-d-c-fglrx-was-loaded file
Looking for fglrx modules in /lib/modules/4.10.0-27-generic/updates/dkms
Looking for nvidia modules in /lib/modules/4.10.0-27-generic/updates/dkms
Vendor/Device Id: 15ad:405
BusID "PCI:0@0:15:0"
Is boot vga? yes
Skipping "/dev/dri/card0", driven by "vmwgfx"
Skipping "/dev/dri/card0", driven by "vmwgfx"
Skipping "/dev/dri/card0", driven by "vmwgfx"
Skipping "/dev/dri/card0", driven by "vmwgfx"
last cards number = 1
How many cards? 1
main_arch_path x86_64-linux-gnu, other_arch_path i386-linux-gnu
Current alternative: /usr/lib/x86_64-linux-gnu/mesa/ld.so.conf
Current core alternative: (null)
Current egl alternative: /usr/lib/x86_64-linux-gnu/mesa-egl/ld.so.conf
Is mesa enabled? yes
Is mesa egl enabled? yes
Is mesa available? yes
Is mesa egl available? yes
Single card detected
No change - nothing to do
============================ Disks SMART Attributes ===========================
Cet extrait est intéressant :
_________________________ Kernel Packages Installed __________________________
Package Version Status
linux-generic-hwe-16.04 4.10.0.27.30 [installed]
linux-headers-4.10.0-27 4.10.0-27.30~16.04.2 [installed,automatic]
linux-headers-4.10.0-27-generic 4.10.0-27.30~16.04.2 [installed,automatic]
linux-headers-4.8.0-36 4.8.0-36.36~16.04.1 [installed,automatic]
linux-headers-4.8.0-36-generic 4.8.0-36.36~16.04.1 [installed,automatic]
linux-headers-generic-hwe-16.04 4.10.0.27.30 [installed,automatic]
linux-image-4.10.0-27-generic 4.10.0-27.30~16.04.2 [installed,automatic]
linux-image-4.8.0-36-generic 4.8.0-36.36~16.04.1 [installed,automatic]
linux-image-extra-4.10.0-27-generic 4.10.0-27.30~16.04.2 [installed,automatic]
linux-image-extra-4.8.0-36-generic 4.8.0-36.36~16.04.1 [installed,automatic]
linux-image-generic-hwe-16.04 4.10.0.27.30 [installed,automatic]
linux-signed-generic-hwe-16.04 4.10.0.27.30 [installed]
linux-signed-image-4.10.0-27-generic 4.10.0-27.30~16.04.2 [installed,automatic]
linux-signed-image-4.8.0-36-generic 4.8.0-36.36~16.04.1 [installed,automatic]
linux-signed-image-generic-hwe-16.04 4.10.0.27.30 [installed,automatic]
L'essai en session live réalisé avant install a été fait avec le noyau 4.8.0-36. Pour l'installation, j'avais fait exprès de déconnecter internet de la machine virtuelle pour ne pas brouiller les cartes encore plus. Donc au redémarrage après install, c'était le noyau 4.8.0-36 qui était en fonctionnement (le même noyau que lors du test en session live). J'ai alors reconnecté internet, fait mes mises à jour et on peut voir que le noyau 4.10.0-27 a été installé et bien évidemment le démarrage par défaut se fait ensuite sur ce noyau 4.10.0-27 :
______________________________ Kernel parameters ______________________________
BOOT_IMAGE=/boot/vmlinuz-4.10.0-27-generic.efi.signed root=UUID=22bb7d59-faaa-49db-9e30-b544d9c6bebe ro quiet splash vt.handoff=7
Ce que je retiens, c'est qu'on fait le test avec un noyau 4.8 et qu'après install et mises à jour, on se retrouve avec un noyau 4.10. Bien sûr, dans quelques jours ça va se normaliser puisque la version 16.04.3 va sortir officiellement (*) et les nouveaux arrivants vont faire un test en session live avec le noyau 4.10 et se retrouver ensuite avec ce même noyau 4.10 après install.
(*) la sortie de Ubuntu 16.04.3 est prévue pour le 3 Août 2017 d'après le calendrier des sorties de Xenial (last edited 2017-05-26)
Dernière modification par malbo (Le 26/07/2017, à 09:39)
Hors ligne
#28 Le 26/07/2017, à 10:23
- Caribou22
Re : Rolling HWE Stacks pour 16.04
C'est le même fonctionnement qu'une Debian Stable avec le noyau du dépôts backports en fait...
Hors ligne
#29 Le 26/07/2017, à 11:49
- GammaDraconis
Re : Rolling HWE Stacks pour 16.04
Peut être pas la version desktop mais les versions Serveurs d'Ubuntu (Ubuntu Server) ne devrai sortir qu'en LTS.
De plus 5 ans de support c'est insuffisant pour la version Serveur, il devrai faire 7 ans pour la serveur édition pour prendre l'avantage sur Debian sur les serveurs.
Dernière modification par GammaDraconis (Le 26/07/2017, à 11:50)
Discussion sur mon script de post-install pour Ubuntu 20.04LTS : https://forum.ubuntu-fr.org/viewtopic.php?id=2026344
Lien direct script : https://github.com/simbd/Ubuntu_20.04LTS_PostInstall
Démo vidéo (peertube) : https://video.ploud.fr/videos/watch/fb7 … 0d252ed2db
Hors ligne
#30 Le 26/07/2017, à 12:22
- Caribou22
Re : Rolling HWE Stacks pour 16.04
Desktop ET serveur devraient être uniquement en LTS.
Et c'est peine perdue pour prendre l'avantage sur Debian sur les serveurs (Et à quoi bon entre nous ? Pourquoi une concurrence ? Ils feraient mieux de bosser ensemble au contraire.)
Hors ligne
#31 Le 21/09/2017, à 11:27
- Caribou22
Re : Rolling HWE Stacks pour 16.04
Hop, un cas où ces cochonneries de LTS HWE posaient problème : https://forum.ubuntu-fr.org/viewtopic.p … #p21798717
Vive la 16.04.1
Hors ligne
#32 Le 21/09/2017, à 11:36
- freechelmi
Re : Rolling HWE Stacks pour 16.04
Evite de parler de "cochonneries" Sans HWE , Aucun PC sorti ne fonctionnerait en LTS pendant 5 ans.
Perso je préinstalle le paquet hwe pour avoir toujours le dernier noyau tous les 6 mois , et même s'il y a un risque de régression, le potentiel de corrections est bien plus important.
En fait il n'y a aucun fixe sur le noyau 4.4 , que les CVE donc pour avoir les correctiosn il faut monter le HWE.
L'avantage est que le support du 16.04.5 est equivalent a 16.04.1 (5 ans) donc monter automatiquement les noyau est la meilleure solution
Hors ligne
#33 Le 21/09/2017, à 11:50
- Rufus T. Firefly
Re : Rolling HWE Stacks pour 16.04
Evite de parler de "cochonneries" Sans HWE , Aucun PC sorti ne fonctionnerait en LTS pendant 5 ans.
Ça fonctionne très bien chez Debian, pourtant. Et, scoop, sur Debian stable il n'y a même qu'un seul noyau installé ! Quand il y a une mise à jour, elle remplace purement et simplement le noyau en activité !
Donc ce que tu affirmes est peut-être vrai chez ubuntu, mais j'en doute, ayant moi-même utilisé des lts bien avant l'existence du hwe. En fait quand une bécane tourne correctement, pourquoi faudrait-il changer le noyau tous les 6 mois ? C'est vraiment la mythologie du progrès où tout ce qui est nouveau serait mieux...
La provocation est une façon de remettre la réalité sur ses pieds. (Bertolt Brecht)
Il n'y a pas de route royale pour la science et ceux-là seulement ont chance d'arriver à ses sommets lumineux qui ne craignent pas de se fatiguer à gravir ses sentiers escarpés. (Karl Marx)
Il est devenu plus facile de penser la fin du monde que la fin du capitalisme
Hors ligne
#34 Le 21/09/2017, à 12:45
- Caribou22
Re : Rolling HWE Stacks pour 16.04
On ne peut pas garantir la constance du support matériel sur une version dont le noyau change tous les 6 mois...
Je qualifie ça de cochonnerie dans le sens ou le HWE est l'option par défaut alors qu'il devrait être optionnel et réservé aux machines récentes problématiques.
Hors ligne
#35 Le 21/09/2017, à 13:01
- freechelmi
Re : Rolling HWE Stacks pour 16.04
freechelmi a écrit :Evite de parler de "cochonneries" Sans HWE , Aucun PC sorti ne fonctionnerait en LTS pendant 5 ans.
Ça fonctionne très bien chez Debian, pourtant. Et, scoop, sur Debian stable il n'y a même qu'un seul noyau installé ! Quand il y a une mise à jour, elle remplace purement et simplement le noyau en activité !
Donc ce que tu affirmes est peut-être vrai chez ubuntu, mais j'en doute, ayant moi-même utilisé des lts bien avant l'existence du hwe. En fait quand une bécane tourne correctement, pourquoi faudrait-il changer le noyau tous les 6 mois ? C'est vraiment la mythologie du progrès où tout ce qui est nouveau serait mieux...
Je pense que je me suis mal exprimé.
Prends l'exemple de debian jessie bloqué en 3.16 pendant des année, tous les matériels qui ont suivi la release de jessie ( Skylake , kabylake , GTX 10XX ) ne pouvait meme pas démarrer avec ce noyau , tu comprends ?
Donc Oui si une machine fonctionne en 4.4 pourquoi pas la laissé comme ça , mais si j'ai un parc avec d'autres machines qui necessite 4.11 pour un driver, je prefère largement avoir tout en 4.11
Hors ligne
#36 Le 21/09/2017, à 13:02
- freechelmi
Re : Rolling HWE Stacks pour 16.04
On ne peut pas garantir la constance du support matériel sur une version dont le noyau change tous les 6 mois...
Je qualifie ça de cochonnerie dans le sens ou le HWE est l'option par défaut alors qu'il devrait être optionnel et réservé aux machines récentes problématiques.
Ce n'est pas l'option par défaut , une 16.04.1 serait en 4.4 en 2021 , de quoi parles tu ?
EDIT : OK tu parles des .2 .3 et .4 qui passe monte les kernel HWE tous les 6 mois , mais ce n'était pas automatique , il fallait une confirmation manuelle.
Dernière modification par freechelmi (Le 21/09/2017, à 13:07)
Hors ligne
#37 Le 21/09/2017, à 13:05
- Caribou22
Re : Rolling HWE Stacks pour 16.04
Prends l'exemple de debian jessie bloqué en 3.16 pendant des année, tous les matériels qui ont suivi la release de jessie ( Skylake , kabylake , GTX 10XX ) ne pouvait meme pas démarrer avec ce noyau , tu comprends ?
Bloqué en 3.16, sauf si on active les backports
Et dans ce cas, jessie peut avoir le noyau 4.9 : https://packages.debian.org/jessie-back … mage-amd64
Et c'est optionnel, donc activé que lorsque nécessaire.
Hors ligne
#38 Le 21/09/2017, à 13:07
- freechelmi
Re : Rolling HWE Stacks pour 16.04
Oui backports ou HWE c'est équivalent
Hors ligne
#39 Le 21/09/2017, à 13:14
- Caribou22
Re : Rolling HWE Stacks pour 16.04
Oui backports ou HWE c'est équivalent
Oui, à l'exception que l'un est optionnel car réservé aux utilisateurs avertis qui ont du matériel récent alors que l'autre est l'option par défaut. Si ce n'était pas le cas, il y aurai sans doute moins de fils ici parlant de plantage et écran noir suite à mise à jour classique. Sans parler des cas où un pilote propriétaire est utilisé. Sauf erreur de ma part, c'est le plantage assuré si celui-ci n'est pas désactivé et que le noyau se met à une autre version...
Hors ligne
#40 Le 21/09/2017, à 13:43
- Rufus T. Firefly
Re : Rolling HWE Stacks pour 16.04
Oui backports ou HWE c'est équivalent
Pas vraiment. Les backports sont désactivés par défaut. En outre, pour installer une version issue des backports, il faut le demander explicitement.
Donc si ça fonctionne sans, tu n'as aucune raison de les activer... Chez moi, sur jessie, c'est 3.16 qui fonctionne parfaitement. Donc aucune raison d'installer le 4.9 des backports...
Dernière modification par Rufus T. Firefly (Le 21/09/2017, à 13:46)
La provocation est une façon de remettre la réalité sur ses pieds. (Bertolt Brecht)
Il n'y a pas de route royale pour la science et ceux-là seulement ont chance d'arriver à ses sommets lumineux qui ne craignent pas de se fatiguer à gravir ses sentiers escarpés. (Karl Marx)
Il est devenu plus facile de penser la fin du monde que la fin du capitalisme
Hors ligne
#41 Le 21/09/2017, à 13:47
- freechelmi
Re : Rolling HWE Stacks pour 16.04
Vous semblez pensez que les MAJ HWE viennent automatiquement , vous avez au cette expérience ? Pas moi.
Hors ligne
#42 Le 21/09/2017, à 14:01
- Caribou22
Re : Rolling HWE Stacks pour 16.04
Vous semblez pensez que les MAJ HWE viennent automatiquement , vous avez au cette expérience ? Pas moi.
Oui. C'est le sujet de cette discussion. Regarde le post 1...
Hors ligne
#43 Le 21/09/2017, à 15:06
- freechelmi
Re : Rolling HWE Stacks pour 16.04
Effectivement je me repete mais ce n'est valable que pour .2 .3 .4 , pas pour .0 et .1 donc ça laisse bien le choix aux utilisateurs meme s'ils sont dirigé vers .3 par défaut
Dernière modification par freechelmi (Le 21/09/2017, à 15:09)
Hors ligne
#44 Le 21/09/2017, à 15:20
- Rufus T. Firefly
Re : Rolling HWE Stacks pour 16.04
Effectivement je me repete mais ce n'est valable que pour .2 .3 .4 , pas pour .0 et .1 donc ça laisse bien le choix aux utilisateurs meme s'ils sont dirigé vers .3 par défaut
En effet ! Et tu as même beaucoup plus de choix, en réalité : tu peux aussi compiler toi-même ton noyau...
La provocation est une façon de remettre la réalité sur ses pieds. (Bertolt Brecht)
Il n'y a pas de route royale pour la science et ceux-là seulement ont chance d'arriver à ses sommets lumineux qui ne craignent pas de se fatiguer à gravir ses sentiers escarpés. (Karl Marx)
Il est devenu plus facile de penser la fin du monde que la fin du capitalisme
Hors ligne
#45 Le 21/09/2017, à 15:30
- Caribou22
Re : Rolling HWE Stacks pour 16.04
ça laisse bien le choix aux utilisateurs meme s'ils sont dirigé vers .3 par défaut
Et que fait le débutant qui n'y connait rien ? Il prend ce qu'on lui donne par défaut...
D'autant plus que la 16.04.1 ,qui est une LTS figée jusqu'en 2021 et correspondant à la majorité du matériel, est considérée comme une "old release"
http://old-releases.ubuntu.com/releases/16.04.1/
Elle est rangée dans le même tiroir que la 12.04.1 obsolète !
http://old-releases.ubuntu.com/releases/12.04.1/
Hors ligne
#46 Le 22/09/2017, à 12:31
- attentis
Re : Rolling HWE Stacks pour 16.04
bonjour à tous
je confirme ( et merci à Caribou22 pour le lien).
Nous sommes en septembre,
les maj élémentaires provoquent des anomalies plus qu'embarassantes.
Il sera difficile de dire que les utilisateurs sont en cause, puisque, pour la version 16.04, la mise à jour en 16.04-3 a été imposée.
porvoquant différents problèmes que je liste ici :https://forum.ubuntu-fr.org/viewtopic.php?id=2015211
on ne devrait pas avoir de mise à jour instables sur des LTS.
"Y encore un intérimaire qui a merdé, je vous le dis,
Ces foutus intérimaires y comprennent rien à rien : le fil rouge sur le fil rouge et le blanc sur le blanc...."
Sérieusement
c'est un souci aussi bien pour l'admin que pour l'utilisateur lambda qui n'a pas les connaissances ou les réflexes pour bloquer l'hémorragie.
D'ailleurs une questions,
lorsqu'on a une mise à jour qui plante votre système
comment faites-vous pour revenir en arrière ?
passer de 16.04-3 à 16.04-2 ?
je suis tout ouie...
Bonne journée
Si je viens ici, c'est pour avoir des avis des conseils de gens avisés. Ce que vous êtes. Les autres devraient aller sur CCM pour se vanter. Pour ma part, je ne suis qu'un novice depuis 10 ans et je continuerai à l'être.
En ville, soyez sympas n'utilisez pas les places pour handicapés.... elles sont pour.... les handicapés. Merci pour eux
Hors ligne
#47 Le 22/09/2017, à 12:36
- attentis
Re : Rolling HWE Stacks pour 16.04
Freechelmi,
c'est un peu tard pour te répondre
mais tu proposes à des utilisateurs de rester à la lampe à gaz alors que tout le monde est déjà à l'énergie nucléaire (si si tu y es aussi lol)
C'est pas concevable.
IL est logique de monter les échelons un par un pour suivre la course.
Beaucoup moins de rester en bas (NOYAY 4..) ou
de monter sur une échelle qui n'aurait que des montants ou que des barreaux (ça se serait vraiment fortiche lol)
Pour ma part, je n'ai jamais eu un plantage qui m'interdise d'intervenir en Root ou super-Root.
Ubuntu l'a pensé, 16.04-3 vous l'a fait
Donc il y a un réel problème actuellement sur la version LTS.
En tous cas merci
Si je viens ici, c'est pour avoir des avis des conseils de gens avisés. Ce que vous êtes. Les autres devraient aller sur CCM pour se vanter. Pour ma part, je ne suis qu'un novice depuis 10 ans et je continuerai à l'être.
En ville, soyez sympas n'utilisez pas les places pour handicapés.... elles sont pour.... les handicapés. Merci pour eux
Hors ligne
#48 Le 22/09/2017, à 12:48
- Caribou22
Re : Rolling HWE Stacks pour 16.04
Dans Debian, c'est possible de revenir au noyau "stable" depuis le noyau plus récent "backport". Dans Ubuntu je ne sais pas. Et le fait qu'un noyau "HWE" soit potentiellement pré-installé (que le 4.4 n'ait jamais été installé) complique les choses.
Tu risques de te retrouver contraint de ré-installer la 16.04.1... C'est totalement absurde pour une LTS
Mais si tu as séparé ton /home, ça devrait bien se faire.
Dernière modification par Caribou22 (Le 22/09/2017, à 12:51)
Hors ligne
#49 Le 22/09/2017, à 12:58
- Ekimia
Re : Rolling HWE Stacks pour 16.04
Les noyaux précedents non HWE ne sont pas supprimer donc toujours accessibles dans Grub
EKIMIA : PCs Ubuntu Linux , support inclus RETEK : Pcs et Téléphones reconditionnés sous OS libre
Contact: support@ekimia.fr Service client : +33 (0) 972308334 - 620 avenue de la roche fourcade 13400 Aubagne France.
Hors ligne
#50 Le 22/09/2017, à 13:02
- Caribou22
Re : Rolling HWE Stacks pour 16.04
Les noyaux précedents non HWE ne sont pas supprimer donc toujours accessibles dans Grub
Exact, mais si la 16.04.2 est la version de départ, le noyau par défaut est déjà un noyau HWE (le 4.8) et n'est plus maintenu à jour. Source : https://wiki.ubuntu.com/Kernel/Support? … hedule.svg
Il faut revenir au 4.4 et je ne sais pas si c'est possible sans ré-installer.
Hors ligne