Accueil > Les groupes de travail > Groupe de travail CEPH > Actualités Ceph

Actualités Ceph


retrouvez l’actualité concernant
- le projet Ceph, les infos des "releases" et des articles
- les présentations ou des événements dans le domaine de "l’enseignement et de la recherche" qui ont un lien avec Ceph.

Projet Ceph
Ceph Reef v18.2.0 du 07/08/2023
 le Cache tiering est déprécié.
 Le mode « read balancer » est désormais disponible ce qui permet d’équilibrer les PG principaux par pool sur leurs clusters Ceph
 Le repartitionnement des "Buckets" est désormais pris en charge pour les configurations multisites sous RGW
 Les RGW supportent la compression des objets RGW avec le chiffrement côté serveur.
 Le stockage RBD supporte la prise en charge du chiffrement en couches côté client.
Ceph Quicy v17.2.0 du 19/04/2022
 Filestore a été déprécié. BlueStore est le backend par défaut de Ceph.
 Dashboard : NFS : Permet des gérer les exports NFS
 Dashboard : le nouvel "Assistant d’expansion de cluster" guidera les utilisateurs dans les étapes de post-installation avec l’ajout de nouveaux hôtes, périphériques de stockage ou services.
 Cephadm : osd_memory_target_autotune est activé par défaut, ce qui fixe mgr/cephadm/autotune_memory_target_ratio à 0,7 de la RAM totale. Ceci est inadapté aux infrastructures hyperconvergées. Pour Ceph hyperconvergé, veuillez vous référer à la documentation ou définir mgr/cephadm/autotune_memory_target_ratio à 0.2.

Ceph Pacific v16.2.0 du 01/04/2021
 Cephadm peux migrer de la version Octopus vers Pacific avec une simple commande
 Configuration automatique du HA pour RGW avec haproxy et keepalived
 Introduction du RocksDB sharding
 Multiple CephFS par défaut
 cephfs-mirror pour mettre en miroir un CephFS sur un cluster Ceph distant.
 prochaine version Quincy 03/2022

Ceph Octopus v15.2.0 du 23/03/2020
cephadm new deployment tool, Container image (based on CentOS 8)

Ceph Nautilus v14.2.0 du 19/03/2019
Placement-group decreasing, v2 wire protocol, RBD image live-migration between pools, RBD image namespaces for fine-granular access rights

Ceph Mimic v13-2-0 du 01/06/2018
CephFS snapshots with multiple MDS servers, RBD image deep-copy

Présentations et événements
Respire : après-midi CEPH le 14/12/2023 par Respire

Stockage performant VAST Data et Ceph le 23/11/2023 par ARGOS

Cephalocon 2023 le 16 au 18/04/2023 par Ceph

What’s New in Pacific Ceph Release
Sage Weil le 25/02/2021

Formation Stockage S3 avec CEPH
Le groupe X/Stra à organisé cette formation le 16 et 17/02/2021 avec le soutien financier du bureau de formation continue de l’Université de Strasbourg

Formation Mise en oeuvre d’une solution de stockage distribué avec CEPH
Du 15 au 17 septembre 2020 DR10 du CNRS formateur Sébastien Geiger

Matinée stockage S3
Frédérique Ostré, Alain Sartout, Jean-luc Evrard, Sébastien Geiger le 05/11/2020 par X/Stra

CEPH Octopus Améliorations et nouvelles fonctionnalités
Sébastien Geiger France-grilles 2020

Une infrastructure mutualisée et recyclée avec Ceph
Bruno Buisson & Philippe Saby JRES 2017

Stockage des données volumineuses de la recherche à l’université de Lorraine
Stéphane Dugravot & Frédéric Nass JRES 2017

CEPH Retour d’expériences (3 ans, et après ?)
Yann Dupont JRES 2016

Système de stockage Ceph pour une infrastructure de virtualisation à haute disponibilité
Hervé Ballans Journées Mathrice 2015

Retour d’expérience avec CEPH
Yann Dupont JRES 2013

Post-scriptum : un lien n’est plus actif, ou vous désirez ajouter un lien, contactez le comité de pilotage