Accueil > Les groupes de travail > Groupe de travail CEPH > Actualités Ceph

Actualités Ceph

Publié le jeudi 19 novembre 2020, mis à jour le lundi 13 juin 2022, par Sébastien Geiger

retrouvez l’actualité concernant
- le projet Ceph, les infos des "releases" et des articles
- les présentations ou des événements dans le domaine de "l’enseignement et de la recherche" qui ont un lien avec Ceph.

Projet Ceph

Ceph Quicy v17.2.0 du 19/04/2022
- Filestore a été déprécié. BlueStore est le backend par défaut de Ceph.
- Dashboard : NFS : Permet des gérer les exports NFS
- Dashboard : le nouvel "Assistant d’expansion de cluster" guidera les utilisateurs dans les étapes de post-installation avec l’ajout de nouveaux hôtes, périphériques de stockage ou services.
- Cephadm : osd_memory_target_autotune est activé par défaut, ce qui fixe mgr/cephadm/autotune_memory_target_ratio à 0,7 de la RAM totale. Ceci est inadapté aux infrastructures hyperconvergées. Pour Ceph hyperconvergé, veuillez vous référer à la documentation ou définir mgr/cephadm/autotune_memory_target_ratio à 0.2.

Ceph Pacific v16.2.0 du 01/04/2021
- Cephadm peux migrer de la version Octopus vers Pacific avec une simple commande
- Configuration automatique du HA pour RGW avec haproxy et keepalived
- Introduction du RocksDB sharding
- Multiple CephFS par défaut
- cephfs-mirror pour mettre en miroir un CephFS sur un cluster Ceph distant.
- prochaine version Quincy 03/2022

Ceph Octopus v15.2.0 du 23/03/2020
cephadm new deployment tool, Container image (based on CentOS 8)

Ceph Nautilus v14.2.0 du 19/03/2019
Placement-group decreasing, v2 wire protocol, RBD image live-migration between pools, RBD image namespaces for fine-granular access rights

Ceph Mimic v13-2-0 du 01/06/2018
CephFS snapshots with multiple MDS servers, RBD image deep-copy

Présentations et événements
What’s New in Pacific Ceph Release
Sage Weil le 25/02/2021

Formation Stockage S3 avec CEPH
Le groupe X/Stra à organisé cette formation le 16 et 17/02/2021 avec le soutien financier du bureau de formation continue de l’Université de Strasbourg

Formation Mise en oeuvre d’une solution de stockage distribué avec CEPH
Du 15 au 17 septembre 2020 DR10 du CNRS formateur Sébastien Geiger

Matinée stockage S3
Frédérique Ostré, Alain Sartout, Jean-luc Evrard, Sébastien Geiger X/Stra 2020

CEPH Octopus Améliorations et nouvelles fonctionnalités
Sébastien Geiger France-grilles 2020

Une infrastructure mutualisée et recyclée avec Ceph
Bruno Buisson & Philippe Saby JRES 2017

Stockage des données volumineuses de la recherche à l’université de Lorraine
Stéphane Dugravot & Frédéric Nass JRES 2017

CEPH Retour d’expériences (3 ans, et après ?)
Yann Dupont JRES 2016

Système de stockage Ceph pour une infrastructure de virtualisation à haute disponibilité
Hervé Ballans Journées Mathrice 2015

Retour d’expérience avec CEPH
Yann Dupont JRES 2013

Post-scriptum : un lien n’est plus actif, ou vous désirez ajouter un lien, contactez le comité de pilotage