🔎 Le DevOps en 2023 ? | Actus DevOps Octobre 2023

:globe_with_meridians: Quelles sont les dernières nouveautés dans le monde du #cloud et du #DevOps ?

:newspaper_roll: Comme à notre habitude nous voilà de retour avec l’Actus DevOps mensuel, pour t’aider dans ta veille.

Aujourd’hui, je suis avec @nidouille, @nledez et @Uggla ensemble on parle de :
:robot: IA chez Scaleway
:fire: Java 21 LTS
:penguin: Passage officiel du kernel Linux LTS de 6 à 2 ans
:bar_chart: Rapport Dora 2023 sur l’État de l’art du DevOps

Article de blog : 🔎 Le DevOps en 2023 ? | Actus DevOps Octobre 2023 - Lydra | Artisans DevOps

Et pour toi c’était quoi les nouvelles marquantes DevOps ou cloud de ce mois ?

4 « J'aime »

Excalidraw a été mis en place chez nous en hébergé. C’est assez agréable a utiliser. Le mode collaboratif est très sympa.
Je l.ai pas beaucoup pratiqué, mais le format d’export .excalidraw est un JSON like qui se suit très bien avec git et se retouche plus facilement en mode texte que du .svg

Salut, une petite remarque à propos du supercalculateur chez scaleway.
Le plus gros pourvoyeur de GPU en Europe, probablement pas. Peut-être le plus gros en accès public ?

Les chercheurs français (et européens dans le cadre de collaborations) ne sont pas vraiment démunis pour accéder à des GPUs. Ils ont accès au supercalculateur Jean Zay (specs) via l’IDRIS, ou au plus récent Adastra via GENCI. Ce dernier est 12ᵉ mondial dans le top 500 et 3ᵉ dans le green 500

Spec Adastra

Le supercalculateur Adastra fourni par HPE est composé de deux partitions de calcul :

  • Scalaire (CPU) comportant 536 nœuds fins (2 processeurs AMD Epyc 9654
    (Genoa) 96-coeurs 2,4 GHz, 768 Go de mémoire, un attachement réseau
    « Slingshot » 200Gb/s), puissance crête totale : 3,9 PFlop/s
  • Accélérée (GPU) basée sur 338 nœuds accélérés (1 processeur AMD Epyc 7A53s
    (Trento) 64-coeurs 2,4 GHz, 256Go de mémoire, 4 attachements réseau
    « Slingshot » 200Gb/s, 4 accélérateurs AMD MI250X), puissance crête totale :
    70,3 PFlop/s

Pour l’installation et la fourniture de ressources GPU sur un cluster de calcul, a une échelle beaucoup beaucoup plus modeste que ce qui est présenté ici, en fait c’est finalement assez simple à mettre en place. Si l’on reste dans l’optique d’être le petit bain du calcul GPU.
Une fois les besoins clarifiés, qualifiés et testés, il faut se jeter dans le grand bain, via GENCI pour les chercheurs ou Scaleway. Eux fourniront des optimisations et du support plus pertinents et plus pointus, qu’un petit cluster n’a pas forcément les moyens de fournir.