Contenu | Rechercher | Menus

Annonce

Si vous avez des soucis pour rester connecté, déconnectez-vous puis reconnectez-vous depuis ce lien en cochant la case
Me connecter automatiquement lors de mes prochaines visites.

À propos de l'équipe du forum.

#26 Le 17/07/2017, à 15:25

malbo

Re : Rolling HWE Stacks pour 16.04

Effectivement, je n'ai pas trouvé l'existence d'un paquet xserver-xorg-hwe-16.04-edge dans synaptic. Du coup, je me suis contenté d'installer xserver-xorg-hwe-16.04 (dans la commande du post #22). Mais je suis d'accord avec toi freechelmi, ça semblerait logique qu'il y ait un paquet xserver-xorg-hwe-16.04-edge...

Hors ligne

#27 Le 26/07/2017, à 09:09

malbo

Re : Rolling HWE Stacks pour 16.04

On commence à voir à quoi ça ressemble la rolling : je viens d'installer ce matin une Lubuntu 16.04.2 64 bits dans une machine virtuelle VMware.
Voici le rapport Bisnext de cette install :

Posting 978203 from bn-72854 posted at 2017-07-26 08:05:43 expires: 2017-08-25 08:05:43

Jul 26, 2017, bisnext report id 72854

=== Hints ===

None

                                 bisnext 0.1


============================ Hardware and System Summary ======================

System:    Kernel: 4.10.0-27-generic x86_64 (64 bit gcc: 5.4.0)
           Desktop: LXDE (Openbox 3.6.1) dm: lightdm
           Distro: Ubuntu 16.04.2 LTS

Machine:   Device: vmware System: VMware product: VMware7 1
           Mobo: Intel model: 440BX Desktop Reference Platform
           UEFI: VMware v: VMW71.00V.0.B64.1507021939 date: 07/02/2015
           Chassis: No Enclosure type: 1

CPU:       Single core Intel Core i7 860 (-UP-) cache: 8192 KB
           flags: (lm nx sse sse2 sse3 sse4_1 sse4_2 ssse3) bmips: 5585 speed: 2792 MHz (max)

Memory:    Array-1 capacity: 3 GB devices: 64 EC: None
           Device-1: Slot0 size: 1 GB speed: N/A type: DRAM
           manufacturer: VMware Virtual RAM part: VMW-1024MB
           Device-2: Slot1 size: No Module Installed type: N/A
           Device-3: Slot2 size: No Module Installed type: N/A
           Device-4: Slot3 size: No Module Installed type: N/A
           Device-5: Slot4 size: No Module Installed type: N/A
           Device-6: Slot5 size: No Module Installed type: N/A
           Device-7: Slot6 size: No Module Installed type: N/A
           Device-8: Slot7 size: No Module Installed type: N/A
           Device-9: Slot8 size: No Module Installed type: N/A
           Device-10: Slot9 size: No Module Installed type: N/A
           Device-11: Slot10 size: No Module Installed type: N/A
           Device-12: Slot11 size: No Module Installed type: N/A
           Device-13: Slot12 size: No Module Installed type: N/A
           Device-14: Slot13 size: No Module Installed type: N/A
           Device-15: Slot14 size: No Module Installed type: N/A
           Device-16: Slot15 size: No Module Installed type: N/A
           Device-17: Slot16 size: No Module Installed type: N/A
           Device-18: Slot17 size: No Module Installed type: N/A
           Device-19: Slot18 size: No Module Installed type: N/A
           Device-20: Slot19 size: No Module Installed type: N/A
           Device-21: Slot20 size: No Module Installed type: N/A
           Device-22: Slot21 size: No Module Installed type: N/A
           Device-23: Slot22 size: No Module Installed type: N/A
           Device-24: Slot23 size: No Module Installed type: N/A
           Device-25: Slot24 size: No Module Installed type: N/A
           Device-26: Slot25 size: No Module Installed type: N/A
           Device-27: Slot26 size: No Module Installed type: N/A
           Device-28: Slot27 size: No Module Installed type: N/A
           Device-29: Slot28 size: No Module Installed type: N/A
           Device-30: Slot29 size: No Module Installed type: N/A
           Device-31: Slot30 size: No Module Installed type: N/A
           Device-32: Slot31 size: No Module Installed type: N/A
           Device-33: Slot32 size: No Module Installed type: N/A
           Device-34: Slot33 size: No Module Installed type: N/A
           Device-35: Slot34 size: No Module Installed type: N/A
           Device-36: Slot35 size: No Module Installed type: N/A
           Device-37: Slot36 size: No Module Installed type: N/A
           Device-38: Slot37 size: No Module Installed type: N/A
           Device-39: Slot38 size: No Module Installed type: N/A
           Device-40: Slot39 size: No Module Installed type: N/A
           Device-41: Slot40 size: No Module Installed type: N/A
           Device-42: Slot41 size: No Module Installed type: N/A
           Device-43: Slot42 size: No Module Installed type: N/A
           Device-44: Slot43 size: No Module Installed type: N/A
           Device-45: Slot44 size: No Module Installed type: N/A
           Device-46: Slot45 size: No Module Installed type: N/A
           Device-47: Slot46 size: No Module Installed type: N/A
           Device-48: Slot47 size: No Module Installed type: N/A
           Device-49: Slot48 size: No Module Installed type: N/A
           Device-50: Slot49 size: No Module Installed type: N/A
           Device-51: Slot50 size: No Module Installed type: N/A
           Device-52: Slot51 size: No Module Installed type: N/A
           Device-53: Slot52 size: No Module Installed type: N/A
           Device-54: Slot53 size: No Module Installed type: N/A
           Device-55: Slot54 size: No Module Installed type: N/A
           Device-56: Slot55 size: No Module Installed type: N/A
           Device-57: Slot56 size: No Module Installed type: N/A
           Device-58: Slot57 size: No Module Installed type: N/A
           Device-59: Slot58 size: No Module Installed type: N/A
           Device-60: Slot59 size: No Module Installed type: N/A
           Device-61: Slot60 size: No Module Installed type: N/A
           Device-62: Slot61 size: No Module Installed type: N/A
           Device-63: Slot62 size: No Module Installed type: N/A
           Device-64: Slot63 size: No Module Installed type: N/A
           Device-65: NVD slot #0 size: No Module Installed type: N/A
           Device-66: NVD slot #1 size: No Module Installed type: N/A
           Device-67: NVD slot #2 size: No Module Installed type: N/A
           Device-68: NVD slot #3 size: No Module Installed type: N/A
           Device-69: NVD slot #4 size: No Module Installed type: N/A
           Device-70: NVD slot #5 size: No Module Installed type: N/A
           Device-71: NVD slot #6 size: No Module Installed type: N/A
           Device-72: NVD slot #7 size: No Module Installed type: N/A
           Device-73: NVD slot #8 size: No Module Installed type: N/A
           Device-74: NVD slot #9 size: No Module Installed type: N/A
           Device-75: NVD slot #10 size: No Module Installed type: N/A
           Device-76: NVD slot #11 size: No Module Installed type: N/A
           Device-77: NVD slot #12 size: No Module Installed type: N/A
           Device-78: NVD slot #13 size: No Module Installed type: N/A
           Device-79: NVD slot #14 size: No Module Installed type: N/A
           Device-80: NVD slot #15 size: No Module Installed type: N/A
           Device-81: NVD slot #16 size: No Module Installed type: N/A
           Device-82: NVD slot #17 size: No Module Installed type: N/A
           Device-83: NVD slot #18 size: No Module Installed type: N/A
           Device-84: NVD slot #19 size: No Module Installed type: N/A
           Device-85: NVD slot #20 size: No Module Installed type: N/A
           Device-86: NVD slot #21 size: No Module Installed type: N/A
           Device-87: NVD slot #22 size: No Module Installed type: N/A
           Device-88: NVD slot #23 size: No Module Installed type: N/A
           Device-89: NVD slot #24 size: No Module Installed type: N/A
           Device-90: NVD slot #25 size: No Module Installed type: N/A
           Device-91: NVD slot #26 size: No Module Installed type: N/A
           Device-92: NVD slot #27 size: No Module Installed type: N/A
           Device-93: NVD slot #28 size: No Module Installed type: N/A
           Device-94: NVD slot #29 size: No Module Installed type: N/A
           Device-95: NVD slot #30 size: No Module Installed type: N/A
           Device-96: NVD slot #31 size: No Module Installed type: N/A
           Device-97: NVD slot #32 size: No Module Installed type: N/A
           Device-98: NVD slot #33 size: No Module Installed type: N/A
           Device-99: NVD slot #34 size: No Module Installed type: N/A
           Device-100: NVD slot #35 size: No Module Installed type: N/A
           Device-101: NVD slot #36 size: No Module Installed type: N/A

Graphics:  Card: VMware SVGA II Adapter bus-ID: 00:0f.0 chip-ID: 15ad:0405
           Display Server: X.Org 1.18.4 drivers: vmware (unloaded: modesetting,fbdev,vesa)
           Resolution: 1024x768@60.00hz
           OpenGL: renderer: Gallium 0.4 on llvmpipe (LLVM 3.8, 128 bits)
           version: 3.3 Mesa 12.0.6 (compat-v: 3.0) Direct Render: Yes

Audio:     Card Ensoniq ES1371 / Creative Labs CT2518/ES1373
           driver: snd_ens1371 port: 1000 bus-ID: 02:02.0 chip-ID: 1274:1371
           Sound: Advanced Linux Sound Architecture v: k4.10.0-27-generic

Network:   Card: Intel 82545EM Gigabit Ethernet Controller (Copper)
           driver: e1000 v: 7.3.21-k8-NAPI port: 1040
           bus-ID: 02:01.0 chip-ID: 8086:100f
           IF: ens33 state: up speed: 1000 Mbps duplex: full mac: <filter>

Drives:    HDD Total Size: 53.7GB (8.1% used)
           ID-1: /dev/sda model: VMware_Virtual_S size: 53.7GB
           Optical-1: /dev/sr0 model: N/A rev: N/A dev-links: cdrom,cdrw,dvd
           Features: speed: 1x multisession: yes
           audio: yes dvd: yes rw: cd-r,cd-rw,dvd-r,dvd-ram state: N/A

Partition: ID-1: / size: 48G used: 3.1G (7%) fs: ext4 dev: /dev/sda2
           label: N/A uuid: 22bb7d59-faaa-49db-9e30-b544d9c6bebe
           ID-2: swap-1 size: 1.10GB used: 0.00GB (0%) fs: swap dev: /dev/sda3
           label: N/A uuid: c4c7fe8f-57cf-44e6-abc1-1fb1953d0c4d

RAID:      System: supported: N/A
           No RAID devices: /proc/mdstat, md_mod kernel module present
           Unused Devices: none

Sensors:   None detected - is lm-sensors installed and configured?

Repos:     Active apt sources in file: /etc/apt/sources.list
           deb http://fr.archive.ubuntu.com/ubuntu/ xenial main restricted
           deb http://fr.archive.ubuntu.com/ubuntu/ xenial-updates main restricted
           deb http://fr.archive.ubuntu.com/ubuntu/ xenial universe
           deb http://fr.archive.ubuntu.com/ubuntu/ xenial-updates universe
           deb http://fr.archive.ubuntu.com/ubuntu/ xenial multiverse
           deb http://fr.archive.ubuntu.com/ubuntu/ xenial-updates multiverse
           deb http://fr.archive.ubuntu.com/ubuntu/ xenial-backports main restricted universe multiverse
           deb http://security.ubuntu.com/ubuntu xenial-security main restricted
           deb http://security.ubuntu.com/ubuntu xenial-security universe
           deb http://security.ubuntu.com/ubuntu xenial-security multiverse

Processes: CPU: % used - Memory: MB / % used - top 5 active
           1: cpu: 1.2% command: sudo pid: 3308 mem: 3.83MB (0.3%)
           2: cpu: 0.5% command: bash pid: 3309 mem: 4.16MB (0.4%)
           3: cpu: 0.0% command: sed pid: 3377 mem: 0.98MB (0.1%)
           4: cpu: 0.0% command: sed pid: 3376 mem: 1.07MB (0.1%)
           5: cpu: 0.0% command: bash pid: 3374 mem: 2.98MB (0.3%)

Info:      Processes: 178 Uptime: 1:19 Memory: 274.6/971.1MB
           Init: systemd v: 229 runlevel: 5 Gcc sys: N/A
           Client: Shell (bash 4.3.481 running in bash) inxi: 2.3.25


_______________________________ UEFI settings _________________________________

Computer booted in UEFI mode for this session.


BootCurrent: 0004
BootOrder: 0004,0001,0000,0002,0003
Boot0000* EFI VMware Virtual SCSI Hard Drive (0.0)	PciRoot(0x0)/Pci(0x10,0x0)/SCSI(0,0)
Boot0001* EFI VMware Virtual SATA CDROM Drive (1.0)	PciRoot(0x0)/Pci(0x11,0x0)/Pci(0x5,0x0)/Sata(1,0,0)
Boot0002* EFI Network	PciRoot(0x0)/Pci(0x11,0x0)/Pci(0x1,0x0)/MAC(000c29b3dee7,0)
Boot0003* EFI Internal Shell (Unsupported option)	MemoryMapped(11,0xe1a3000,0xe42ffff)/FvFile(c57ad6b7-0515-40a8-9d21-551652854e37)
Boot0004* ubuntu	HD(1,GPT,34276d01-f70c-45ed-80a7-d190d8d8ceb3,0x800,0x100000)/File(\EFI\ubuntu\shimx64.efi)


vfat partition details:
/dev/sda1: UUID="A662-2D92" TYPE="vfat" PARTLABEL="EFI System Partition" PARTUUID="34276d01-f70c-45ed-80a7-d190d8d8ceb3"


Secure Boot disabled or not available on this system.


EFI files in /dev/sda1:
0f08ecaaa01879b16987aeafd1fe20cc  /EFI/BOOT/ubuntu/fwupx64.efi
0f658112c2a24edaa1e1648ec88c97e7  /EFI/BOOT/bootx64.efi
0f658112c2a24edaa1e1648ec88c97e7  /EFI/BOOT/ubuntu/grubx64.efi
11e8569e8661e65bb7f6460a41a3b8a2  /EFI/ubuntu/grubx64.efi
3aef9c72ad50faa8db576c01f85a0915  /EFI/ubuntu/shimx64.efi
bf39cf9416a9403d40a9b69541486e74  /EFI/ubuntu/mmx64.efi
dc545695bafcf71c86ad9a69947e3adf  /EFI/ubuntu/fwupx64.efi


__________________________________ OS prober ________________________________

None




========================= Boot Information Details ============================

 => No boot loader is installed in the MBR of /dev/sda.

sda1: __________________________________________________________________________

    File system:       vfat
    Boot sector type:  FAT32
    Boot sector info: 
    Operating System:  
    Boot files:         /EFI/ubuntu/grub.cfg  /EFI/ubuntu/fwupx64.efi  
                       /EFI/ubuntu/grubx64.efi  /EFI/ubuntu/shimx64.efi  
                       /EFI/ubuntu/mmx64.efi  /EFI/BOOT/bootx64.efi  
                       /EFI/BOOT/ubuntu/grubx64.efi  
                       /EFI/BOOT/ubuntu/fwupx64.efi

sda2: __________________________________________________________________________

    File system:       ext4
    Boot sector type:  
    Boot sector info: 
    Operating System:  Ubuntu 16.04.2 LTS
    Boot files:         /boot/grub/grub.cfg /etc/fstab /etc/default/grub

_________________________=== Drive/Partition Info ===__________________________

Drive: sda _____________________________________________________________________
Disk /dev/sda: 50 GiB, 53687091200 bytes, 104857600 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: gpt

Partition  Boot  Start Sector    End Sector  # of Sectors  Id System

/dev/sda1                   1   104,857,599   104,857,599  ee GPT


GUID Partition Table detected.

Partition  Attrs   Start Sector    End Sector  # of Sectors System
/dev/sda1                 2,048     1,050,623     1,048,576 EFI System partition
/dev/sda2             1,050,624   102,706,873   101,656,250 Data partition (Linux)
/dev/sda3           102,707,200   104,855,551     2,148,352 Swap partition (Linux)

Attributes: R=Required, N=No Block IO, B=Legacy BIOS Bootable, +=More bits set

"blkid" output: ________________________________________________________________

Device           UUID                                   TYPE       LABEL

/dev/sda1        A662-2D92                              vfat       
/dev/sda2        22bb7d59-faaa-49db-9e30-b544d9c6bebe   ext4       
/dev/sda3        c4c7fe8f-57cf-44e6-abc1-1fb1953d0c4d   swap       

____________________ "ls -l /dev/disk/by-id" output (filtered) ______________________

total 0
lrwxrwxrwx 1 root root 9 Jul 26 08:45 ata-VMware_Virtual_SATA_CDRW_Drive_01000000000000000001 -> ../../sr0


_________________________ "ls -R /dev/mapper/" output _________________________

None




_________________________=== Boot Files Contents ===___________________________


__________________________ sda1/EFI/ubuntu/grub.cfg: ___________________________

search.fs_uuid 22bb7d59-faaa-49db-9e30-b544d9c6bebe root hd0,gpt2 
set prefix=($root)'/boot/grub'
configfile $prefix/grub.cfg

___________________________ sda2/boot/grub/grub.cfg: ___________________________

File size: 8391, Line count: 252, Menu entries (sub entries included) : 5

#
# DO NOT EDIT THIS FILE
#
# It is automatically generated by grub-mkconfig using templates
# from /etc/grub.d and settings from /etc/default/grub
#

### BEGIN /etc/grub.d/10_linux ###

--- Notice bisnext removed top of file contents from the report for readability

menuentry 'Ubuntu' --class ubuntu --class gnu-linux --class gnu --class os $menuentry_id_option 'gnulinux-simple-22bb7d59-faaa-49db-9e30-b544d9c6bebe' {
	recordfail
	load_video
	gfxmode $linux_gfx_mode
	insmod gzio
	if [ x$grub_platform = xxen ]; then insmod xzio; insmod lzopio; fi
	insmod part_gpt
	insmod ext2
	set root='hd0,gpt2'
	if [ x$feature_platform_search_hint = xy ]; then
	  search --no-floppy --fs-uuid --set=root --hint-bios=hd0,gpt2 --hint-efi=hd0,gpt2 --hint-baremetal=ahci0,gpt2  22bb7d59-faaa-49db-9e30-b544d9c6bebe
	else
	  search --no-floppy --fs-uuid --set=root 22bb7d59-faaa-49db-9e30-b544d9c6bebe
	fi
	linux	/boot/vmlinuz-4.10.0-27-generic.efi.signed root=UUID=22bb7d59-faaa-49db-9e30-b544d9c6bebe ro  quiet splash $vt_handoff
	initrd	/boot/initrd.img-4.10.0-27-generic
}

--- Notice bisnext removed the submenu section from the report for readability

### END /etc/grub.d/10_linux ###

### BEGIN /etc/grub.d/20_linux_xen ###

### END /etc/grub.d/20_linux_xen ###

### BEGIN /etc/grub.d/20_memtest86+ ###
### END /etc/grub.d/20_memtest86+ ###

### BEGIN /etc/grub.d/30_os-prober ###
### END /etc/grub.d/30_os-prober ###

### BEGIN /etc/grub.d/30_uefi-firmware ###
### END /etc/grub.d/30_uefi-firmware ###

### BEGIN /etc/grub.d/40_custom ###
# This file provides an easy way to add custom menu entries.  Simply type the
# menu entries you want to add after this comment.  Be careful not to change
# the 'exec tail' line above.
### END /etc/grub.d/40_custom ###

### BEGIN /etc/grub.d/41_custom ###
if [ -f  ${config_directory}/custom.cfg ]; then
  source ${config_directory}/custom.cfg
elif [ -z "${config_directory}" -a -f  $prefix/custom.cfg ]; then
  source $prefix/custom.cfg;
fi
### END /etc/grub.d/41_custom ###

__________________________ sda2/etc/fstab, UEFI mode: __________________________

UUID=22bb7d59-faaa-49db-9e30-b544d9c6bebe /               ext4    errors=remount-ro 0       1
UUID=A662-2D92  /boot/efi       vfat    umask=0077      0       1
UUID=c4c7fe8f-57cf-44e6-abc1-1fb1953d0c4d none            swap    sw              0       0

____________________________ sda2/etc/default/grub: ____________________________

GRUB_DEFAULT=0
GRUB_HIDDEN_TIMEOUT=0
GRUB_HIDDEN_TIMEOUT_QUIET=true
GRUB_TIMEOUT=10
GRUB_DISTRIBUTOR=`lsb_release -i -s 2> /dev/null || echo Debian`
GRUB_CMDLINE_LINUX_DEFAULT="quiet splash"
GRUB_CMDLINE_LINUX=""


===============================================================================
                                Running System
===============================================================================

______________________________ Kernel parameters ______________________________

BOOT_IMAGE=/boot/vmlinuz-4.10.0-27-generic.efi.signed root=UUID=22bb7d59-faaa-49db-9e30-b544d9c6bebe ro quiet splash vt.handoff=7


______________________________ Boot-up Statistics ______________________________

Startup finished in 5.126s (kernel) + 19.160s (userspace) = 24.287s


blame, first 5:
NetworkManager-wait-online.service  6.516s
apparmor.service                    4.619s
grub-common.service                 3.455s
dev-sda2.device                     3.097s
gpu-manager.service                 2.700s


_________________________ RAM usage & Free disk space _________________________

              total        used        free      shared  buff/cache   available
Mem:           971M        222M        433M        7.7M        314M        574M
Swap:          1.0G          0B        1.0G
Swappiness = 60

Filesystem     Mounted on Type  Size  Used Avail Use% IUse%
/dev/sda1      /boot/efi  vfat  511M  3.9M  508M   1%     -
/dev/sda2      /          ext4   48G  3.1G   43G   7%    5%

Swap partition for hibernation : UUID=c4c7fe8f-57cf-44e6-abc1-1fb1953d0c4d


_______________________________ Wireless Status _______________________________

None


_______________________________ Modules Loaded _______________________________

Excerpt:


______________________________ Additional Drivers _____________________________

== cpu-microcode.py ==
driver   : intel-microcode - distro non-free


_____________________________ Upgradable Packages _____________________________

None


________________________ Package Configuration Pending ________________________

None


__________________________ Package Installation Pending _______________________

Reading package lists...
Building dependency tree...
Reading state information...
The following package was automatically installed and is no longer required:
  libmircommon5
Use 'sudo apt autoremove' to remove it.
0 upgraded, 0 newly installed, 0 to remove and 0 not upgraded.


_________________________ Kernel Packages Installed __________________________

Package                               Version               Status
linux-generic-hwe-16.04               4.10.0.27.30          [installed]
linux-headers-4.10.0-27               4.10.0-27.30~16.04.2  [installed,automatic]
linux-headers-4.10.0-27-generic       4.10.0-27.30~16.04.2  [installed,automatic]
linux-headers-4.8.0-36                4.8.0-36.36~16.04.1   [installed,automatic]
linux-headers-4.8.0-36-generic        4.8.0-36.36~16.04.1   [installed,automatic]
linux-headers-generic-hwe-16.04       4.10.0.27.30          [installed,automatic]
linux-image-4.10.0-27-generic         4.10.0-27.30~16.04.2  [installed,automatic]
linux-image-4.8.0-36-generic          4.8.0-36.36~16.04.1   [installed,automatic]
linux-image-extra-4.10.0-27-generic   4.10.0-27.30~16.04.2  [installed,automatic]
linux-image-extra-4.8.0-36-generic    4.8.0-36.36~16.04.1   [installed,automatic]
linux-image-generic-hwe-16.04         4.10.0.27.30          [installed,automatic]
linux-signed-generic-hwe-16.04        4.10.0.27.30          [installed]
linux-signed-image-4.10.0-27-generic  4.10.0-27.30~16.04.2  [installed,automatic]
linux-signed-image-4.8.0-36-generic   4.8.0-36.36~16.04.1   [installed,automatic]
linux-signed-image-generic-hwe-16.04  4.10.0.27.30          [installed,automatic]



_________________________________ System Logs ________________________________

Failed services:
  UNIT           LOAD   ACTIVE SUB    DESCRIPTION
● smartd.service loaded failed failed Self Monitoring and Reporting Technology (SMART) Daemon

LOAD   = Reflects whether the unit definition was properly loaded.
ACTIVE = The high-level unit activation state, i.e. generalization of SUB.
SUB    = The low-level unit activation state, values depend on unit type.

1 loaded units listed. Pass --all to see loaded but inactive units, too.
To show all installed unit files use 'systemctl list-unit-files'.


Selection of relevent log entries:
[    0.048458] Calibrating delay loop (skipped) preset value.. 5585.99 BogoMIPS (lpj=11171996)
[    0.135985] ACPI: [Firmware Bug]: BIOS _OSI(Linux) query ignored
[    0.151815] PCI: Using host bridge windows from ACPI; if necessary, use "pci=nocrs" and report a bug
[    0.382145] pci 0000:00:16.3: BAR 13: failed to assign [io  size 0x1000]
[    0.382147] pci 0000:00:16.4: BAR 13: failed to assign [io  size 0x1000]
[    0.382149] pci 0000:00:16.5: BAR 13: failed to assign [io  size 0x1000]
[    0.382152] pci 0000:00:16.6: BAR 13: failed to assign [io  size 0x1000]
[    0.382154] pci 0000:00:16.7: BAR 13: failed to assign [io  size 0x1000]
[    0.382156] pci 0000:00:17.0: BAR 13: failed to assign [io  size 0x1000]
[    0.382158] pci 0000:00:17.1: BAR 13: failed to assign [io  size 0x1000]
[    0.382160] pci 0000:00:17.2: BAR 13: failed to assign [io  size 0x1000]
[    0.382162] pci 0000:00:17.3: BAR 13: failed to assign [io  size 0x1000]
[    0.382164] pci 0000:00:17.4: BAR 13: failed to assign [io  size 0x1000]
[    0.382166] pci 0000:00:17.5: BAR 13: failed to assign [io  size 0x1000]
[    0.382168] pci 0000:00:17.6: BAR 13: failed to assign [io  size 0x1000]
[    0.382170] pci 0000:00:17.7: BAR 13: failed to assign [io  size 0x1000]
[    0.382173] pci 0000:00:18.0: BAR 13: failed to assign [io  size 0x1000]
[    0.382175] pci 0000:00:18.1: BAR 13: failed to assign [io  size 0x1000]
[    0.382177] pci 0000:00:18.2: BAR 13: failed to assign [io  size 0x1000]
[    0.382179] pci 0000:00:18.3: BAR 13: failed to assign [io  size 0x1000]
[    0.382181] pci 0000:00:18.4: BAR 13: failed to assign [io  size 0x1000]
[    0.382183] pci 0000:00:18.5: BAR 13: failed to assign [io  size 0x1000]
[    0.382185] pci 0000:00:18.6: BAR 13: failed to assign [io  size 0x1000]
[    0.382187] pci 0000:00:18.7: BAR 13: failed to assign [io  size 0x1000]
[    0.382213] pci 0000:00:17.4: BAR 13: failed to assign [io  size 0x1000]
[    0.382215] pci 0000:00:17.3: BAR 13: failed to assign [io  size 0x1000]
[    0.382217] pci 0000:00:17.2: BAR 13: failed to assign [io  size 0x1000]
[    0.382219] pci 0000:00:17.1: BAR 13: failed to assign [io  size 0x1000]
[    0.382241] pci 0000:00:17.0: BAR 13: failed to assign [io  size 0x1000]
[    0.382244] pci 0000:00:16.7: BAR 13: failed to assign [io  size 0x1000]
[    0.382246] pci 0000:00:16.6: BAR 13: failed to assign [io  size 0x1000]
[    0.382248] pci 0000:00:16.5: BAR 13: failed to assign [io  size 0x1000]
[    0.382250] pci 0000:00:16.4: BAR 13: failed to assign [io  size 0x1000]
[    0.382252] pci 0000:00:16.3: BAR 13: failed to assign [io  size 0x1000]
[    0.382255] pci 0000:00:16.2: BAR 13: failed to assign [io  size 0x1000]
[    0.382257] pci 0000:00:16.1: BAR 13: failed to assign [io  size 0x1000]
[    0.382259] pci 0000:00:16.0: BAR 13: failed to assign [io  size 0x1000]
[    0.382261] pci 0000:00:15.7: BAR 13: failed to assign [io  size 0x1000]
[    0.382263] pci 0000:00:15.6: BAR 13: failed to assign [io  size 0x1000]
[    0.382268] pci 0000:00:15.5: BAR 13: failed to assign [io  size 0x1000]
[    0.382271] pci 0000:00:15.4: BAR 13: failed to assign [io  size 0x1000]
[    0.382273] pci 0000:00:15.3: BAR 13: failed to assign [io  size 0x1000]
[    0.382275] pci 0000:00:15.2: BAR 13: failed to assign [io  size 0x1000]
[    0.382277] pci 0000:00:15.1: BAR 13: failed to assign [io  size 0x1000]
[    0.382279] pci 0000:00:15.0: BAR 13: failed to assign [io  size 0x1000]
[    1.988994] [drm] It appears like vesafb is loaded. Ignore above error if any.
[    7.441139] EXT4-fs (sda2): re-mounted. Opts: errors=remount-ro


_____________________________________ Xorg ____________________________________

Partial log entries:
	(WW) warning, (EE) error, (NI) not implemented, (??) unknown.
[    18.816] (--) PCI:*(0:0:15:0) 15ad:0405:15ad:0405 rev 0, Mem @ 0xf0000000/134217728, 0xfb800000/8388608, I/O @ 0x00002140/16, BIOS @ 0x????????/131072
[    20.172] (EE) AIGLX: reverting to software rendering


2017-07-26, GPU Manager logs:
log_file: /var/log/gpu-manager.log
last_boot_file: /var/lib/ubuntu-drivers-common/last_gfx_boot
new_boot_file: /var/lib/ubuntu-drivers-common/last_gfx_boot
can't access /run/u-d-c-nvidia-was-loaded file
can't access /run/u-d-c-fglrx-was-loaded file
Looking for fglrx modules in /lib/modules/4.10.0-27-generic/updates/dkms
Looking for nvidia modules in /lib/modules/4.10.0-27-generic/updates/dkms
Vendor/Device Id: 15ad:405
BusID "PCI:0@0:15:0"
Is boot vga? yes
Skipping "/dev/dri/card0", driven by "vmwgfx"
Skipping "/dev/dri/card0", driven by "vmwgfx"
Skipping "/dev/dri/card0", driven by "vmwgfx"
Skipping "/dev/dri/card0", driven by "vmwgfx"
last cards number = 1
How many cards? 1
main_arch_path x86_64-linux-gnu, other_arch_path i386-linux-gnu
Current alternative: /usr/lib/x86_64-linux-gnu/mesa/ld.so.conf
Current core alternative: (null)
Current egl alternative: /usr/lib/x86_64-linux-gnu/mesa-egl/ld.so.conf
Is mesa enabled? yes
Is mesa egl enabled? yes
Is mesa available? yes
Is mesa egl available? yes
Single card detected
No change - nothing to do


============================ Disks SMART Attributes ===========================

Cet extrait est intéressant :

_________________________ Kernel Packages Installed __________________________

Package                               Version               Status
linux-generic-hwe-16.04               4.10.0.27.30          [installed]
linux-headers-4.10.0-27               4.10.0-27.30~16.04.2  [installed,automatic]
linux-headers-4.10.0-27-generic       4.10.0-27.30~16.04.2  [installed,automatic]
linux-headers-4.8.0-36                4.8.0-36.36~16.04.1   [installed,automatic]
linux-headers-4.8.0-36-generic        4.8.0-36.36~16.04.1   [installed,automatic]
linux-headers-generic-hwe-16.04       4.10.0.27.30          [installed,automatic]
linux-image-4.10.0-27-generic         4.10.0-27.30~16.04.2  [installed,automatic]
linux-image-4.8.0-36-generic          4.8.0-36.36~16.04.1   [installed,automatic]
linux-image-extra-4.10.0-27-generic   4.10.0-27.30~16.04.2  [installed,automatic]
linux-image-extra-4.8.0-36-generic    4.8.0-36.36~16.04.1   [installed,automatic]
linux-image-generic-hwe-16.04         4.10.0.27.30          [installed,automatic]
linux-signed-generic-hwe-16.04        4.10.0.27.30          [installed]
linux-signed-image-4.10.0-27-generic  4.10.0-27.30~16.04.2  [installed,automatic]
linux-signed-image-4.8.0-36-generic   4.8.0-36.36~16.04.1   [installed,automatic]
linux-signed-image-generic-hwe-16.04  4.10.0.27.30          [installed,automatic]

L'essai en session live réalisé avant install a été fait avec le noyau 4.8.0-36. Pour l'installation, j'avais fait exprès de déconnecter internet de la machine virtuelle pour ne pas brouiller les cartes encore plus. Donc au redémarrage après install, c'était le noyau 4.8.0-36 qui était en fonctionnement (le même noyau que lors du test en session live). J'ai alors reconnecté internet, fait mes mises à jour et on peut voir que le noyau 4.10.0-27 a été installé et bien évidemment le démarrage par défaut se fait ensuite sur ce noyau 4.10.0-27 :

______________________________ Kernel parameters ______________________________

BOOT_IMAGE=/boot/vmlinuz-4.10.0-27-generic.efi.signed root=UUID=22bb7d59-faaa-49db-9e30-b544d9c6bebe ro quiet splash vt.handoff=7

Ce que je retiens, c'est qu'on fait le test avec un noyau 4.8 et qu'après install et mises à jour, on se retrouve avec un noyau 4.10. Bien sûr, dans quelques jours ça va se normaliser puisque la version 16.04.3 va sortir officiellement (*) et les nouveaux arrivants vont faire un test en session live avec le noyau 4.10 et se retrouver ensuite avec ce même noyau 4.10 après install.

(*) la sortie de Ubuntu 16.04.3 est prévue pour le 3 Août 2017 d'après le calendrier des sorties de Xenial (last edited 2017-05-26)

Dernière modification par malbo (Le 26/07/2017, à 09:39)

Hors ligne

#28 Le 26/07/2017, à 10:23

Caribou22

Re : Rolling HWE Stacks pour 16.04

C'est le même fonctionnement qu'une Debian Stable avec le noyau du dépôts backports en fait...

Hors ligne

#29 Le 26/07/2017, à 11:49

GammaDraconis

Re : Rolling HWE Stacks pour 16.04

Peut être pas la version desktop mais les versions Serveurs d'Ubuntu (Ubuntu Server) ne devrai sortir qu'en LTS.

De plus 5 ans de support c'est insuffisant pour la version Serveur, il devrai faire 7 ans pour la serveur édition pour prendre l'avantage sur Debian sur les serveurs.

Dernière modification par GammaDraconis (Le 26/07/2017, à 11:50)


Discussion sur mon script de post-install pour Ubuntu 20.04LTS : https://forum.ubuntu-fr.org/viewtopic.php?id=2026344
Lien direct script : https://github.com/simbd/Ubuntu_20.04LTS_PostInstall
Démo vidéo (peertube) : https://video.ploud.fr/videos/watch/fb7 … 0d252ed2db

Hors ligne

#30 Le 26/07/2017, à 12:22

Caribou22

Re : Rolling HWE Stacks pour 16.04

Desktop ET serveur devraient être uniquement en LTS.
Et c'est peine perdue pour prendre l'avantage sur Debian sur les serveurs tongue (Et à quoi bon entre nous ? Pourquoi une concurrence ? Ils feraient mieux de bosser ensemble au contraire.)

Hors ligne

#32 Le 21/09/2017, à 11:36

freechelmi

Re : Rolling HWE Stacks pour 16.04

Evite de parler de "cochonneries" Sans HWE , Aucun PC sorti ne fonctionnerait en LTS pendant 5 ans.

Perso je préinstalle le paquet hwe pour avoir toujours le dernier noyau tous les 6 mois , et même s'il y a un risque de régression, le potentiel de corrections est bien plus important.

En fait il n'y a aucun fixe sur le noyau 4.4 , que les CVE donc pour avoir les correctiosn il faut monter le HWE.

L'avantage est que le support du 16.04.5 est equivalent a 16.04.1 (5 ans) donc monter automatiquement les noyau est la meilleure solution

Hors ligne

#33 Le 21/09/2017, à 11:50

Rufus T. Firefly

Re : Rolling HWE Stacks pour 16.04

freechelmi a écrit :

Evite de parler de "cochonneries" Sans HWE , Aucun PC sorti ne fonctionnerait en LTS pendant 5 ans.

Ça fonctionne très bien chez Debian, pourtant. Et, scoop, sur Debian stable il n'y a même qu'un seul noyau installé ! Quand il y a une mise à jour, elle remplace purement et simplement le noyau en activité !
Donc ce que tu affirmes est peut-être vrai chez ubuntu, mais j'en doute, ayant moi-même utilisé des lts bien avant l'existence du hwe. En fait quand une bécane tourne correctement, pourquoi faudrait-il changer le noyau tous les 6 mois ? C'est vraiment la mythologie du progrès où tout ce qui est nouveau serait mieux...


La provocation est une façon de remettre la réalité sur ses pieds. (Bertolt Brecht)
Il n'y a pas de route royale pour la science et ceux-là seulement ont chance d'arriver à ses sommets lumineux qui ne craignent pas de se fatiguer à gravir ses sentiers escarpés. (Karl Marx)
Il est devenu plus facile de penser la fin du monde que la fin du capitalisme

Hors ligne

#34 Le 21/09/2017, à 12:45

Caribou22

Re : Rolling HWE Stacks pour 16.04

On ne peut pas garantir la constance du support matériel sur une version dont le noyau change tous les 6 mois...
Je qualifie ça de cochonnerie dans le sens ou le HWE est l'option par défaut alors qu'il devrait être optionnel et réservé aux machines récentes problématiques.

Hors ligne

#35 Le 21/09/2017, à 13:01

freechelmi

Re : Rolling HWE Stacks pour 16.04

Rufus T. Firefly a écrit :
freechelmi a écrit :

Evite de parler de "cochonneries" Sans HWE , Aucun PC sorti ne fonctionnerait en LTS pendant 5 ans.

Ça fonctionne très bien chez Debian, pourtant. Et, scoop, sur Debian stable il n'y a même qu'un seul noyau installé ! Quand il y a une mise à jour, elle remplace purement et simplement le noyau en activité !
Donc ce que tu affirmes est peut-être vrai chez ubuntu, mais j'en doute, ayant moi-même utilisé des lts bien avant l'existence du hwe. En fait quand une bécane tourne correctement, pourquoi faudrait-il changer le noyau tous les 6 mois ? C'est vraiment la mythologie du progrès où tout ce qui est nouveau serait mieux...

Je pense que je me suis mal exprimé.

Prends l'exemple de debian jessie bloqué en 3.16 pendant des année, tous les matériels qui ont suivi la release de jessie ( Skylake , kabylake , GTX 10XX ) ne pouvait meme pas démarrer avec ce noyau , tu comprends ?

Donc Oui si une machine fonctionne en 4.4 pourquoi pas la laissé comme ça , mais si j'ai un parc avec d'autres machines qui necessite 4.11 pour un driver, je prefère largement avoir tout en 4.11

Hors ligne

#36 Le 21/09/2017, à 13:02

freechelmi

Re : Rolling HWE Stacks pour 16.04

Caribou22 a écrit :

On ne peut pas garantir la constance du support matériel sur une version dont le noyau change tous les 6 mois...
Je qualifie ça de cochonnerie dans le sens ou le HWE est l'option par défaut alors qu'il devrait être optionnel et réservé aux machines récentes problématiques.

Ce n'est pas l'option par défaut , une 16.04.1 serait en 4.4 en 2021 , de quoi parles tu ?

EDIT : OK tu parles des .2 .3 et .4 qui passe monte les kernel HWE tous les 6 mois , mais ce n'était pas automatique , il fallait une confirmation manuelle.

Dernière modification par freechelmi (Le 21/09/2017, à 13:07)

Hors ligne

#37 Le 21/09/2017, à 13:05

Caribou22

Re : Rolling HWE Stacks pour 16.04

freechelmi a écrit :

Prends l'exemple de debian jessie bloqué en 3.16 pendant des année, tous les matériels qui ont suivi la release de jessie ( Skylake , kabylake , GTX 10XX ) ne pouvait meme pas démarrer avec ce noyau , tu comprends ?

Bloqué en 3.16, sauf si on active les backports smile
Et dans ce cas, jessie peut avoir le noyau 4.9 : https://packages.debian.org/jessie-back … mage-amd64

Et c'est optionnel, donc activé que lorsque nécessaire.

Hors ligne

#39 Le 21/09/2017, à 13:14

Caribou22

Re : Rolling HWE Stacks pour 16.04

freechelmi a écrit :

Oui backports ou HWE c'est équivalent

Oui, à l'exception que l'un est optionnel car réservé aux utilisateurs avertis qui ont du matériel récent alors que l'autre est l'option par défaut. Si ce n'était pas le cas, il y aurai sans doute moins de fils ici parlant de plantage et écran noir suite à mise à jour classique. Sans parler des cas où un pilote propriétaire est utilisé. Sauf erreur de ma part, c'est le plantage assuré si celui-ci n'est pas désactivé et que le noyau se met à une autre version...

Hors ligne

#40 Le 21/09/2017, à 13:43

Rufus T. Firefly

Re : Rolling HWE Stacks pour 16.04

freechelmi a écrit :

Oui backports ou HWE c'est équivalent

Pas vraiment. Les backports sont désactivés par défaut. En outre, pour installer une version issue des backports, il faut le demander explicitement.
Donc si ça fonctionne sans, tu n'as aucune raison de les activer... Chez moi, sur jessie, c'est 3.16 qui fonctionne parfaitement. Donc aucune raison d'installer le 4.9 des backports...

Dernière modification par Rufus T. Firefly (Le 21/09/2017, à 13:46)


La provocation est une façon de remettre la réalité sur ses pieds. (Bertolt Brecht)
Il n'y a pas de route royale pour la science et ceux-là seulement ont chance d'arriver à ses sommets lumineux qui ne craignent pas de se fatiguer à gravir ses sentiers escarpés. (Karl Marx)
Il est devenu plus facile de penser la fin du monde que la fin du capitalisme

Hors ligne

#41 Le 21/09/2017, à 13:47

freechelmi

Re : Rolling HWE Stacks pour 16.04

Vous semblez pensez que les MAJ HWE viennent automatiquement , vous avez au cette expérience ? Pas moi.

Hors ligne

#42 Le 21/09/2017, à 14:01

Caribou22

Re : Rolling HWE Stacks pour 16.04

freechelmi a écrit :

Vous semblez pensez que les MAJ HWE viennent automatiquement , vous avez au cette expérience ? Pas moi.

Oui. C'est le sujet de cette discussion. Regarde le post 1... tongue

Hors ligne

#43 Le 21/09/2017, à 15:06

freechelmi

Re : Rolling HWE Stacks pour 16.04

Effectivement je me repete mais ce n'est valable que pour .2 .3 .4 , pas pour .0 et .1 donc ça laisse bien le choix aux utilisateurs meme s'ils sont dirigé vers .3 par défaut

Dernière modification par freechelmi (Le 21/09/2017, à 15:09)

Hors ligne

#44 Le 21/09/2017, à 15:20

Rufus T. Firefly

Re : Rolling HWE Stacks pour 16.04

freechelmi a écrit :

Effectivement je me repete mais ce n'est valable que pour .2 .3 .4 , pas pour .0 et .1 donc ça laisse bien le choix aux utilisateurs meme s'ils sont dirigé vers .3 par défaut

En effet ! Et tu as même beaucoup plus de choix, en réalité : tu peux aussi compiler toi-même ton noyau... lol


La provocation est une façon de remettre la réalité sur ses pieds. (Bertolt Brecht)
Il n'y a pas de route royale pour la science et ceux-là seulement ont chance d'arriver à ses sommets lumineux qui ne craignent pas de se fatiguer à gravir ses sentiers escarpés. (Karl Marx)
Il est devenu plus facile de penser la fin du monde que la fin du capitalisme

Hors ligne

#45 Le 21/09/2017, à 15:30

Caribou22

Re : Rolling HWE Stacks pour 16.04

freechelmi a écrit :

ça laisse bien le choix aux utilisateurs meme s'ils sont dirigé vers .3 par défaut

Et que fait le débutant qui n'y connait rien ? Il prend ce qu'on lui donne par défaut...
D'autant plus que la 16.04.1 ,qui est une LTS figée jusqu'en 2021 et correspondant à la majorité du matériel, est considérée comme une "old release"
http://old-releases.ubuntu.com/releases/16.04.1/

Elle est rangée dans le même tiroir que la 12.04.1 obsolète ! hmm
http://old-releases.ubuntu.com/releases/12.04.1/

Hors ligne

#46 Le 22/09/2017, à 12:31

attentis

Re : Rolling HWE Stacks pour 16.04

bonjour à tous

je confirme ( et merci à Caribou22 pour le lien).
Nous sommes en septembre,
les maj élémentaires provoquent des anomalies plus qu'embarassantes.

Il sera difficile de dire que les utilisateurs sont en cause, puisque, pour la version 16.04, la mise à jour en 16.04-3 a été imposée.
porvoquant différents problèmes que je liste ici :https://forum.ubuntu-fr.org/viewtopic.php?id=2015211

on ne devrait pas avoir de mise à jour instables sur des LTS.

"Y encore un intérimaire qui a merdé, je vous le dis,
Ces foutus intérimaires y comprennent rien à rien : le fil rouge sur le fil rouge et le blanc sur le blanc...." yikes

Sérieusement
c'est un souci aussi bien pour l'admin que pour l'utilisateur lambda qui n'a pas les connaissances ou les réflexes pour bloquer l'hémorragie.

D'ailleurs une questions,
lorsqu'on a une mise à jour qui plante votre système
comment faites-vous pour revenir en arrière ?

passer de 16.04-3 à 16.04-2 ?
je suis tout ouie...

Bonne journée


Si je viens ici, c'est pour avoir des avis des conseils de gens avisés. Ce que vous êtes. Les autres devraient aller sur CCM pour se vanter. Pour ma part, je ne suis qu'un novice depuis 10 ans et je continuerai à l'être.

En ville, soyez sympas n'utilisez pas les places pour handicapés.... elles sont pour.... les handicapés. Merci pour eux

Hors ligne

#47 Le 22/09/2017, à 12:36

attentis

Re : Rolling HWE Stacks pour 16.04

Freechelmi,

c'est un peu tard pour te répondre

mais tu proposes à des utilisateurs de rester à la lampe à gaz alors que tout le monde est déjà à l'énergie nucléaire (si si tu y es aussi lol)

C'est pas concevable.

IL est logique de monter les échelons un par un pour suivre la course.
Beaucoup moins de rester en bas (NOYAY 4..) ou
de monter sur une échelle qui n'aurait que des montants ou que des barreaux (ça se serait vraiment fortiche lol)

Pour ma part, je n'ai jamais eu un plantage qui m'interdise d'intervenir en Root ou super-Root.
Ubuntu l'a pensé, 16.04-3 vous l'a fait

Donc il y a un réel problème actuellement sur la version LTS.
En tous cas merci


Si je viens ici, c'est pour avoir des avis des conseils de gens avisés. Ce que vous êtes. Les autres devraient aller sur CCM pour se vanter. Pour ma part, je ne suis qu'un novice depuis 10 ans et je continuerai à l'être.

En ville, soyez sympas n'utilisez pas les places pour handicapés.... elles sont pour.... les handicapés. Merci pour eux

Hors ligne

#48 Le 22/09/2017, à 12:48

Caribou22

Re : Rolling HWE Stacks pour 16.04

Dans Debian, c'est possible de revenir au noyau "stable" depuis le noyau plus récent "backport". Dans Ubuntu je ne sais pas. Et le fait qu'un noyau "HWE" soit potentiellement pré-installé (que le 4.4 n'ait jamais été installé) complique les choses.

Tu risques de te retrouver contraint de ré-installer la 16.04.1... C'est totalement absurde pour une LTS neutral

Mais si tu as séparé ton /home, ça devrait bien se faire.

Dernière modification par Caribou22 (Le 22/09/2017, à 12:51)

Hors ligne

#49 Le 22/09/2017, à 12:58

Ekimia

Re : Rolling HWE Stacks pour 16.04

Les noyaux précedents non HWE ne sont pas supprimer donc toujours accessibles dans Grub


EKIMIA : PCs Ubuntu Linux , support inclus   RETEK : Pcs et Téléphones reconditionnés sous OS libre
Contact: support@ekimia.fr  Service client :  +33 (0) 972308334 - 620 avenue de la roche fourcade 13400 Aubagne France.

Hors ligne

#50 Le 22/09/2017, à 13:02

Caribou22

Re : Rolling HWE Stacks pour 16.04

Ekimia a écrit :

Les noyaux précedents non HWE ne sont pas supprimer donc toujours accessibles dans Grub

Exact, mais si la 16.04.2 est la version de départ, le noyau par défaut est déjà un noyau HWE (le 4.8) et n'est plus maintenu à jour. Source : https://wiki.ubuntu.com/Kernel/Support? … hedule.svg

Il faut revenir au 4.4 et je ne sais pas si c'est possible sans ré-installer.

Hors ligne